CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutSign UpSign In
huggingface

Real-time collaboration for Jupyter Notebooks, Linux Terminals, LaTeX, VS Code, R IDE, and more,
all in one place. Commercial Alternative to JupyterHub.

GitHub Repository: huggingface/notebooks
Path: blob/main/course/fr/chapter2/section6_pt.ipynb
Views: 2548
Kernel: Python 3

Tout assembler (PyTorch)

Installez la bibliothèque 🤗 Transformers pour exécuter ce notebook.

!pip install transformers[sentencepiece]
from transformers import AutoTokenizer checkpoint = "tblard/tf-allocine" tokenizer = AutoTokenizer.from_pretrained(checkpoint) sequence = "J'ai attendu un cours d’HuggingFace toute ma vie." model_inputs = tokenizer(sequence)
sequence = "J'ai attendu un cours d’HuggingFace toute ma vie." model_inputs = tokenizer(sequence)
sequences = [ "J'ai attendu un cours de HuggingFace toute ma vie.", "Moi aussi !", ] model_inputs = tokenizer(sequences)
# Remplit les séquences jusqu'à la longueur maximale de la séquence model_inputs = tokenizer(sequences, padding="longest") # Remplit les séquences jusqu'à la longueur maximale du modèle (512 pour BERT ou DistilBERT) model_inputs = tokenizer(sequences, padding="max_length") # Remplit les séquences jusqu'à la longueur maximale spécifiée model_inputs = tokenizer(sequences, padding="max_length", max_length=8)
sequences = [ "J'ai attendu un cours de HuggingFace toute ma vie.", "Moi aussi !", ] # Tronque les séquences qui sont plus longues que la longueur maximale du modèle # (512 pour BERT ou DistilBERT) model_inputs = tokenizer(sequences, truncation=True) # Tronque les séquences qui sont plus longues que la longueur maximale spécifiée model_inputs = tokenizer(sequences, max_length=8, truncation=True)
sequences = [ "J'ai attendu un cours de HuggingFace toute ma vie.", "Moi aussi !", ] # Retourne des tenseurs PyTorch model_inputs = tokenizer(sequences, padding=True, return_tensors="pt") # Retourne des tenseurs TensorFlow model_inputs = tokenizer(sequences, padding=True, return_tensors="tf") # Retourne des tableaux NumPy model_inputs = tokenizer(sequences, padding=True, return_tensors="np")
sequence = "J'ai attendu un cours de HuggingFace toute ma vie." model_inputs = tokenizer(sequence) print(model_inputs["input_ids"]) tokens = tokenizer.tokenize(sequence) ids = tokenizer.convert_tokens_to_ids(tokens) print(ids)
print(tokenizer.decode(model_inputs["input_ids"])) print(tokenizer.decode(ids))
import torch from transformers import AutoTokenizer, AutoModelForSequenceClassification checkpoint = "tblard/tf-allocine" tokenizer = AutoTokenizer.from_pretrained(checkpoint) model = AutoModelForSequenceClassification.from_pretrained(checkpoint, from_tf=True) sequences = [ "J'ai attendu un cours de HuggingFace toute ma vie.", "Moi aussi !", ] tokens = tokenizer(sequences, padding=True, truncation=True, return_tensors="pt") output = model(**tokens)