Real-time collaboration for Jupyter Notebooks, Linux Terminals, LaTeX, VS Code, R IDE, and more,
all in one place. Commercial Alternative to JupyterHub.
Real-time collaboration for Jupyter Notebooks, Linux Terminals, LaTeX, VS Code, R IDE, and more,
all in one place. Commercial Alternative to JupyterHub.
Path: blob/main/transformers_doc/ko/translation.ipynb
Views: 2542
번역[[translation]]
번역은 한 언어로 된 시퀀스를 다른 언어로 변환합니다. 번역이나 요약은 입력을 받아 일련의 출력을 반환하는 강력한 프레임워크인 시퀀스-투-시퀀스 문제로 구성할 수 있는 대표적인 태스크입니다. 번역 시스템은 일반적으로 다른 언어로 된 텍스트 간의 번역에 사용되지만, 음성 간의 통역이나 텍스트-음성 또는 음성-텍스트와 같은 조합에도 사용될 수 있습니다.
이 가이드에서 학습할 내용은:
영어 텍스트를 프랑스어로 번역하기 위해 T5 모델을 OPUS Books 데이터세트의 영어-프랑스어 하위 집합으로 파인튜닝하는 방법과
파인튜닝된 모델을 추론에 사용하는 방법입니다.
BART, BigBird-Pegasus, Blenderbot, BlenderbotSmall, Encoder decoder, FairSeq Machine-Translation, GPTSAN-japanese, LED, LongT5, M2M100, Marian, mBART, MT5, MVP, NLLB, NLLB-MOE, Pegasus, PEGASUS-X, PLBart, ProphetNet, SwitchTransformers, T5, XLM-ProphetNet
시작하기 전에 필요한 라이브러리가 모두 설치되어 있는지 확인하세요:
모델을 업로드하고 커뮤니티와 공유할 수 있도록 Hugging Face 계정에 로그인하는 것이 좋습니다. 새로운 창이 표시되면 토큰을 입력하여 로그인하세요.
OPUS Books 데이터세트 가져오기[[load-opus-books-dataset]]
먼저 🤗 Datasets 라이브러리에서 OPUS Books 데이터세트의 영어-프랑스어 하위 집합을 가져오세요.
데이터세트를 train_test_split
메서드를 사용하여 훈련 및 테스트 데이터로 분할하세요.
훈련 데이터에서 예시를 살펴볼까요?
반환된 딕셔너리의 translation
키가 텍스트의 영어, 프랑스어 버전을 포함하고 있는 것을 볼 수 있습니다.
전처리[[preprocess]]
다음 단계로 영어-프랑스어 쌍을 처리하기 위해 T5 토크나이저를 가져오세요.
만들 전처리 함수는 아래 요구사항을 충족해야 합니다:
T5가 번역 태스크임을 인지할 수 있도록 입력 앞에 프롬프트를 추가하세요. 여러 NLP 태스크를 할 수 있는 모델 중 일부는 이렇게 태스크 프롬프트를 미리 줘야합니다.
원어(영어)과 번역어(프랑스어)를 별도로 토큰화하세요. 영어 어휘로 사전 학습된 토크나이저로 프랑스어 텍스트를 토큰화할 수는 없기 때문입니다.
max_length
매개변수로 설정한 최대 길이보다 길지 않도록 시퀀스를 truncate하세요.
전체 데이터세트에 전처리 함수를 적용하려면 🤗 Datasets의 map
메서드를 사용하세요. map
함수의 속도를 높이려면 batched=True
를 설정하여 데이터세트의 여러 요소를 한 번에 처리하는 방법이 있습니다.
이제 DataCollatorForSeq2Seq
를 사용하여 예제 배치를 생성합니다. 데이터세트의 최대 길이로 전부를 padding하는 대신, 데이터 정렬 중 각 배치의 최대 길이로 문장을 동적으로 padding하는 것이 더 효율적입니다.
평가[[evalulate]]
그런 다음 compute
에 예측값과 레이블을 전달하여 SacreBLEU 점수를 계산하는 함수를 생성하세요:
이제 compute_metrics
함수는 준비되었고, 훈련 과정을 설정할 때 다시 살펴볼 예정입니다.
훈련[[train]]
Trainer
로 모델을 파인튜닝하는 방법에 익숙하지 않다면 여기에서 기본 튜토리얼을 살펴보시기 바랍니다!
모델을 훈련시킬 준비가 되었군요! AutoModelForSeq2SeqLM
으로 T5를 로드하세요:
이제 세 단계만 거치면 끝입니다:
Seq2SeqTrainingArguments
에서 훈련 하이퍼파라미터를 정의하세요. 유일한 필수 매개변수는 모델을 저장할 위치인output_dir
입니다. 모델을 Hub에 푸시하기 위해push_to_hub=True
로 설정하세요. (모델을 업로드하려면 Hugging Face에 로그인해야 합니다.)Trainer
는 에폭이 끝날때마다 SacreBLEU 메트릭을 평가하고 훈련 체크포인트를 저장합니다.Seq2SeqTrainer
에 훈련 인수를 전달하세요. 모델, 데이터 세트, 토크나이저, data collator 및compute_metrics
함수도 덩달아 전달해야 합니다.train()
을 호출하여 모델을 파인튜닝하세요.
Keras로 모델을 파인튜닝하는 방법이 익숙하지 않다면, 여기에서 기본 튜토리얼을 살펴보시기 바랍니다!
이제 TFAutoModelForSeq2SeqLM
로 T5를 가져오세요:
prepare_tf_dataset()
로 데이터 세트를 tf.data.Dataset
형식으로 변환하세요:
훈련하기 위해 compile
메서드로 모델을 구성하세요:
훈련을 시작하기 전에 예측값으로부터 SacreBLEU 메트릭을 계산하는 방법과 모델을 Hub에 업로드하는 방법 두 가지를 미리 설정해둬야 합니다. 둘 다 Keras callbacks로 구현하세요.
KerasMetricCallback
에 compute_metrics
함수를 전달하세요.
모델과 토크나이저를 업로드할 위치를 PushToHubCallback
에서 지정하세요:
이제 콜백들을 한데로 묶어주세요:
드디어 모델을 훈련시킬 모든 준비를 마쳤군요! 이제 훈련 및 검증 데이터 세트에 fit
메서드를 에폭 수와 만들어둔 콜백과 함께 호출하여 모델을 파인튜닝하세요:
학습이 완료되면 모델이 자동으로 Hub에 업로드되고, 누구나 사용할 수 있게 됩니다!
번역을 위해 모델을 파인튜닝하는 방법에 대한 보다 자세한 예제는 해당 PyTorch 노트북 또는 TensorFlow 노트북을 참조하세요.
추론[[inference]]
좋아요, 이제 모델을 파인튜닝했으니 추론에 사용할 수 있습니다!
다른 언어로 번역하고 싶은 텍스트를 써보세요. T5의 경우 원하는 태스크를 입력의 접두사로 추가해야 합니다. 예를 들어 영어에서 프랑스어로 번역하는 경우, 아래와 같은 접두사가 추가됩니다:
파인튜닝된 모델로 추론하기에 제일 간단한 방법은 pipeline()
을 사용하는 것입니다. 해당 모델로 번역 pipeline
을 만든 뒤, 텍스트를 전달하세요:
원한다면 pipeline
의 결과를 직접 복제할 수도 있습니다:
텍스트를 토큰화하고 input_ids
를 PyTorch 텐서로 반환하세요:
generate()
메서드로 번역을 생성하세요. 다양한 텍스트 생성 전략 및 생성을 제어하기 위한 매개변수에 대한 자세한 내용은 Text Generation API를 살펴보시기 바랍니다.
생성된 토큰 ID들을 다시 텍스트로 디코딩하세요:
텍스트를 토큰화하고 input_ids
를 TensorFlow 텐서로 반환하세요:
generate()
메서드로 번역을 생성하세요. 다양한 텍스트 생성 전략 및 생성을 제어하기 위한 매개변수에 대한 자세한 내용은 Text Generation API를 살펴보시기 바랍니다.
생성된 토큰 ID들을 다시 텍스트로 디코딩하세요: