Real-time collaboration for Jupyter Notebooks, Linux Terminals, LaTeX, VS Code, R IDE, and more,
all in one place. Commercial Alternative to JupyterHub.
Real-time collaboration for Jupyter Notebooks, Linux Terminals, LaTeX, VS Code, R IDE, and more,
all in one place. Commercial Alternative to JupyterHub.
Path: blob/main/transformers_doc/it/tensorflow/training.ipynb
Views: 2548
Fine-tuning di un modello pre-addestrato
Ci sono benefici significativi nell'usare un modello pre-addestrato. Si riducono i costi computazionali, l'impronta di carbonio e ti consente di usare modelli stato dell'arte senza doverli addestrare da zero. 🤗 Transformers consente l'accesso a migliaia di modelli pre-addestrati per un'ampia gamma di compiti. Quando usi un modello pre-addestrato, lo alleni su un dataset specifico per il tuo compito. Questo è conosciuto come fine-tuning, una tecnica di addestramento incredibilmente potente. In questa esercitazione, potrai fare il fine-tuning di un modello pre-addestrato, con un framework di deep learning a tua scelta:
Fine-tuning di un modello pre-addestrato con 🤗 Transformers
Trainer
.Fine-tuning di un modello pre-addestrato in TensorFlow con Keras.
Fine-tuning di un modello pre-addestrato con PyTorch.
Preparare un dataset
Prima di poter fare il fine-tuning di un modello pre-addestrato, scarica un dataset e preparalo per l'addestramento. La precedente esercitazione ti ha mostrato come processare i dati per l'addestramento e adesso hai l'opportunità di metterti alla prova!
Inizia caricando il dataset Yelp Reviews:
Come già sai, hai bisogno di un tokenizer per processare il testo e includere una strategia di padding e truncation per gestire sequenze di lunghezza variabile. Per processare il dataset in un unico passo, usa il metodo map
di 🤗 Datasets che applica la funzione di preprocessing all'intero dataset:
Se vuoi, puoi creare un sottoinsieme più piccolo del dataset per il fine-tuning così da ridurre il tempo necessario:
Addestramento
I modelli 🤗 Transformers supportano anche l'addestramento in TensorFlow usando l'API di Keras.
Convertire dataset nel formato per TensorFlow
Il DefaultDataCollator
assembla tensori in lotti su cui il modello si addestrerà. Assicurati di specificare di restituire tensori per TensorFlow in return_tensors
:
Trainer
usa DataCollatorWithPadding
in maniera predefinita in modo da non dover specificare esplicitamente un collettore di dati.
Successivamente, converti i datasets tokenizzati in TensorFlow datasets con il metodo to_tf_dataset
. Specifica il tuo input in columns
e le tue etichette in label_cols
:
Compilazione e addestramento
Carica un modello TensorFlow col numero atteso di etichette:
Poi compila e fai il fine-tuning del tuo modello usando fit
come faresti con qualsiasi altro modello di Keras:
Addestramento in PyTorch nativo
Altre risorse
Per altri esempi sul fine-tuning, fai riferimento a:
🤗 Transformers Examples include scripts per addestrare compiti comuni di NLP in PyTorch e TensorFlow.
🤗 Transformers Notebooks contiene diversi notebooks su come mettere a punto un modello per compiti specifici in PyTorch e TensorFlow.