Big Transfer (BiT): Apprendimento di Rappresentazioni Visive Generiche

BiT è un metodo efficace per l'apprendimento di rappresentazioni visive tramite pre-training su larga scala e fine-tuning, ottenendo prestazioni all'avanguardia su dataset diversificati.
aipowertoken.com | PDF Size: 3.3 MB

1. Introduzione

L'apprendimento profondo richiede tipicamente dati specifici per task e risorse computazionali consistenti, che possono risultare proibitivi per nuove applicazioni. Il transfer learning offre una soluzione sostituendo questi requisiti con una fase di pre-training. In questo approccio, una rete viene prima addestrata su un dataset generico di grandi dimensioni, e i suoi pesi vengono poi utilizzati per inizializzare task successivi, consentendo un apprendimento efficace con meno dati e minori richieste computazionali. Questo articolo riprende il paradigma semplice del pre-training su grandi dataset sorgente supervisionati e del fine-tuning dei pesi del modello sui task target. Invece di introdurre componenti innovative o complessità, gli autori mirano a fornire una ricetta minimalista che sfrutta tecniche esistenti accuratamente selezionate per ottenere prestazioni eccellenti su un'ampia gamma di task. Questa ricetta è denominata "Big Transfer" (BiT).

L'approccio BiT prevede il pre-training di reti su dataset di varie dimensioni, con il modello più grande, BiT-L, addestrato sul dataset JFT-300M contenente 300 milioni di immagini con etichette rumorose. I modelli trasferiti sono valutati su task diversificati, tra cui ILSVRC-2012 di ImageNet, CIFAR-10/100, Oxford-IIIT Pet, Oxford Flowers-102 e il Visual Task Adaptation Benchmark (VTAB), che comprende 19 dataset diversi. BiT-L raggiunge prestazioni all'avanguardia su molti di questi task e dimostra un'efficacia notevole anche quando sono disponibili dati downstream molto limitati. Inoltre, il modello BiT-M, pre-addestrato sul dataset pubblico ImageNet-21k, mostra miglioramenti significativi rispetto al comune pre-training su ILSVRC-2012. Un vantaggio chiave di BiT è che richiede solo una fase di pre-training, e il successivo fine-tuning per i task downstream è computazionalmente economico, a differenza di altri metodi all'avanguardia che necessitano di un addestramento estensivo su dati di supporto condizionati a task specifici.

2. Metodologia Big Transfer

La metodologia Big Transfer (BiT) si basa su alcuni componenti accuratamente selezionati, essenziali per creare una rete efficace per il transfer learning. Questi componenti sono classificati in elementi upstream (utilizzati durante il pre-training) e downstream (utilizzati durante il fine-tuning).

2.1 Componenti Upstream

Pre-training su Larga Scala: BiT sfrutta dataset supervisionati di larga scala per il pre-training. Il modello più grande, BiT-L, è addestrato sul dataset JFT-300M, che contiene 300 milioni di immagini con etichette rumorose. Un altro modello, BiT-M, è addestrato sul dataset ImageNet-21k. L'uso di dataset così estesi permette al modello di apprendere rappresentazioni visive ricche e generiche, trasferibili a vari task downstream.

Architettura e Iperparametri di Addestramento: Gli autori sottolineano l'importanza di selezionare architetture e iperparametri di addestramento appropriati. Esplorano l'interazione tra scala del modello, scelte architetturali e impostazioni degli iperparametri per ottimizzare le prestazioni del pre-training. Viene condotta un'analisi dettagliata per identificare i fattori chiave che contribuiscono all'alta performance di transfer, garantendo che il modello possa catturare e generalizzare efficacemente le caratteristiche visive.

3. Risultati Sperimentali

I modelli BiT sono valutati su una varietà di benchmark per dimostrare la loro efficacia nel transfer learning. Gli esperimenti coprono molteplici dataset e regimi di dati, evidenziando la robustezza e versatilità dell'approccio.

ILSVRC-2012

BiT-L raggiunge 87,5% di accuratezza top-1 sul dataset completo e 76,8% con soli 10 esempi per classe.

CIFAR-10

BiT-L raggiunge 99,4% di accuratezza sul dataset completo e 97,0% con 10 esempi per classe.

CIFAR-100

Il modello mostra prestazioni solide, con alti tassi di accuratezza sia in contesti con dati completi che few-shot.

Benchmark VTAB

BiT-L raggiunge 76,3% di accuratezza sul Visual Task Adaptation Benchmark a 19 task utilizzando solo 1.000 campioni per task.

3.1 Prestazioni sul Few-Shot Learning

BiT eccelle in scenari di few-shot learning, dove è disponibile solo un numero limitato di esempi etichettati per classe. Ad esempio, su ILSVRC-2012 con 10 esempi per classe, BiT-L raggiunge il 76,8% di accuratezza, superando significativamente i modelli baseline. Analogamente, su CIFAR-10 con 10 esempi per classe, raggiunge il 97,0% di accuratezza. Questi