Real-time collaboration for Jupyter Notebooks, Linux Terminals, LaTeX, VS Code, R IDE, and more,
all in one place. Commercial Alternative to JupyterHub.
Real-time collaboration for Jupyter Notebooks, Linux Terminals, LaTeX, VS Code, R IDE, and more,
all in one place. Commercial Alternative to JupyterHub.
Path: blob/main/transformers_doc/ko/asr.ipynb
Views: 2542
자동 음성 인식[[automatic-speech-recognition]]
자동 음성 인식(Automatic Speech Recognition, ASR)은 음성 신호를 텍스트로 변환하여 음성 입력 시퀀스를 텍스트 출력에 매핑합니다. Siri와 Alexa와 같은 가상 어시스턴트는 ASR 모델을 사용하여 일상적으로 사용자를 돕고 있으며, 회의 중 라이브 캡션 및 메모 작성과 같은 유용한 사용자 친화적 응용 프로그램도 많이 있습니다.
이 가이드에서 소개할 내용은 아래와 같습니다:
Data2VecAudio, Hubert, M-CTC-T, SEW, SEW-D, UniSpeech, UniSpeechSat, Wav2Vec2, Wav2Vec2-Conformer, WavLM
시작하기 전에 필요한 모든 라이브러리가 설치되어 있는지 확인하세요:
Hugging Face 계정에 로그인하면 모델을 업로드하고 커뮤니티에 공유할 수 있습니다. 토큰을 입력하여 로그인하세요.
MInDS-14 데이터 세트 가져오기[[load-minds-14-dataset]]
먼저, 🤗 Datasets 라이브러리에서 MInDS-14 데이터 세트의 일부분을 가져오세요. 이렇게 하면 전체 데이터 세트에 대한 훈련에 시간을 들이기 전에 모든 것이 작동하는지 실험하고 검증할 수 있습니다.
~Dataset.train_test_split
메소드를 사용하여 데이터 세트의 train
을 훈련 세트와 테스트 세트로 나누세요:
그리고 데이터 세트를 확인하세요:
데이터 세트에는 lang_id
와 english_transcription
과 같은 유용한 정보가 많이 포함되어 있지만, 이 가이드에서는 audio
와 transcription
에 초점을 맞출 것입니다. 다른 열은 remove_columns
메소드를 사용하여 제거하세요:
예시를 다시 한번 확인해보세요:
두 개의 필드가 있습니다:
audio
: 오디오 파일을 가져오고 리샘플링하기 위해 호출해야 하는 음성 신호의 1차원array(배열)
transcription
: 목표 텍스트
전처리[[preprocess]]
다음으로 오디오 신호를 처리하기 위한 Wav2Vec2 프로세서를 가져옵니다:
MInDS-14 데이터 세트의 샘플링 레이트는 8000kHz이므로(데이터 세트 카드에서 확인), 사전 훈련된 Wav2Vec2 모델을 사용하려면 데이터 세트를 16000kHz로 리샘플링해야 합니다:
위의 'transcription'에서 볼 수 있듯이 텍스트는 대문자와 소문자가 섞여 있습니다. Wav2Vec2 토크나이저는 대문자 문자에 대해서만 훈련되어 있으므로 텍스트가 토크나이저의 어휘와 일치하는지 확인해야 합니다:
이제 다음 작업을 수행할 전처리 함수를 만들어보겠습니다:
audio
열을 호출하여 오디오 파일을 가져오고 리샘플링합니다.오디오 파일에서
input_values
를 추출하고 프로세서로transcription
열을 토큰화합니다.
전체 데이터 세트에 전처리 함수를 적용하려면 🤗 Datasets map
함수를 사용하세요. num_proc
매개변수를 사용하여 프로세스 수를 늘리면 map
의 속도를 높일 수 있습니다. remove_columns
메소드를 사용하여 필요하지 않은 열을 제거하세요:
🤗 Transformers에는 자동 음성 인식용 데이터 콜레이터가 없으므로 예제 배치를 생성하려면 DataCollatorWithPadding
을 조정해야 합니다. 이렇게 하면 데이터 콜레이터는 텍스트와 레이블을 배치에서 가장 긴 요소의 길이에 동적으로 패딩하여 길이를 균일하게 합니다. tokenizer
함수에서 padding=True
를 설정하여 텍스트를 패딩할 수 있지만, 동적 패딩이 더 효율적입니다.
다른 데이터 콜레이터와 달리 이 특정 데이터 콜레이터는 input_values
와 labels
에 대해 다른 패딩 방법을 적용해야 합니다.
이제 DataCollatorForCTCWithPadding
을 인스턴스화합니다:
평가하기[[evaluate]]
훈련 중에 평가 지표를 포함하면 모델의 성능을 평가하는 데 도움이 되는 경우가 많습니다. 🤗 Evaluate 라이브러리를 사용하면 평가 방법을 빠르게 불러올 수 있습니다. 이 작업에서는 단어 오류율(Word Error Rate, WER) 평가 지표를 가져옵니다. (평가 지표를 불러오고 계산하는 방법은 🤗 Evaluate 둘러보기를 참조하세요):
그런 다음 예측값과 레이블을 compute
에 전달하여 WER을 계산하는 함수를 만듭니다:
이제 compute_metrics
함수를 사용할 준비가 되었으며, 훈련을 설정할 때 이 함수로 되돌아올 것입니다.
훈련하기[[train]]
Trainer
로 모델을 미세 조정하는 것이 익숙하지 않다면, 여기에서 기본 튜토리얼을 확인해보세요!
이제 모델 훈련을 시작할 준비가 되었습니다! AutoModelForCTC
로 Wav2Vec2를 가져오세요. ctc_loss_reduction
매개변수로 CTC 손실에 적용할 축소(reduction) 방법을 지정하세요. 기본값인 합계 대신 평균을 사용하는 것이 더 좋은 경우가 많습니다:
이제 세 단계만 남았습니다:
TrainingArguments
에서 훈련 하이퍼파라미터를 정의하세요.output_dir
은 모델을 저장할 경로를 지정하는 유일한 필수 매개변수입니다.push_to_hub=True
를 설정하여 모델을 Hub에 업로드 할 수 있습니다(모델을 업로드하려면 Hugging Face에 로그인해야 합니다).Trainer
는 각 에폭마다 WER을 평가하고 훈련 체크포인트를 저장합니다.모델, 데이터 세트, 토크나이저, 데이터 콜레이터,
compute_metrics
함수와 함께Trainer
에 훈련 인수를 전달하세요.train()
을 호출하여 모델을 미세 조정하세요.
훈련이 완료되면 모두가 모델을 사용할 수 있도록 push_to_hub()
메소드를 사용하여 모델을 Hub에 공유하세요:
추론하기[[inference]]
좋아요, 이제 모델을 미세 조정했으니 추론에 사용할 수 있습니다!
추론에 사용할 오디오 파일을 가져오세요. 필요한 경우 오디오 파일의 샘플링 비율을 모델의 샘플링 레이트에 맞게 리샘플링하는 것을 잊지 마세요!
추론을 위해 미세 조정된 모델을 시험해보는 가장 간단한 방법은 pipeline()
을 사용하는 것입니다. 모델을 사용하여 자동 음성 인식을 위한 pipeline
을 인스턴스화하고 오디오 파일을 전달하세요:
텍스트로 변환된 결과가 꽤 괜찮지만 더 좋을 수도 있습니다! 더 나은 결과를 얻으려면 더 많은 예제로 모델을 미세 조정하세요!
pipeline
의 결과를 수동으로 재현할 수도 있습니다:
오디오 파일과 텍스트를 전처리하고 PyTorch 텐서로 input
을 반환할 프로세서를 가져오세요:
입력을 모델에 전달하고 로짓을 반환하세요:
가장 높은 확률의 input_ids
를 예측하고, 프로세서를 사용하여 예측된 input_ids
를 다시 텍스트로 디코딩하세요: