Path: blob/master/site/ko/hub/tutorials/bert_experts.ipynb
25118 views
Copyright 2020 The TensorFlow Hub Authors.
Licensed under the Apache License, Version 2.0 (the "License");
TF-Hub의 BERT 전문가
이 Colab에서는 다음 방법을 보여줍니다.
MNLI, SQuAD 및 PubMed를 포함한 다양한 작업에 대해 학습된 TensorFlow Hub에서 BERT 모델 로드
일치하는 전처리 모델을 사용하여 원시 텍스트를 토큰화하고 이를 ID로 변환
로드된 모델을 사용하여 토큰 입력 ID에서 풀링 및 시퀀스 출력 생성
서로 다른 문장의 풀링된 출력에서 의미론적 유사성 고찰
참고: 이 colab은 GPU 런타임으로 실행해야 합니다.
설정 및 가져오기
문장
모델을 살펴보기 위해 Wikipedia에서 몇 가지 문장을 가져와 보겠습니다.
모델 실행하기
TF-Hub에서 BERT 모델을 로드하고 TF-Hub에서 일치하는 전처리 모델을 사용하여 문장을 토큰화한 다음 토큰화된 문장을 모델에 입력시킵니다. 이 colab을 빠르고 간단하게 유지하려면 GPU에서 실행하는 것이 좋습니다.
런타임 → 런타임 유형 변경으로 이동하여 GPU가 선택되었는지 확인합니다.
의미론적 유사성
이제 문장의 pooled_output
임베딩을 살펴보고 문장 전체적으로 얼마나 유사한지 비교해 보겠습니다.
자세히 알아보기
TensorFlow 허브에서 더 많은 BERT 모델 찾기
이 노트북에서는 BERT를 사용한 간단한 추론을 보여줍니다. tensorflow.org/official_models/fine_tuning_bert에서 BERT 미세 조정에 관한 보다 수준 높은 튜토리얼을 찾을 수 있습니다.
모델을 실행하는 데 GPU 칩 하나만 사용했습니다. tensorflow.org/tutorials/distribute/save_and_load에서 tf.distribute를 사용하여 모델을 로드하는 방법에 대해 자세히 알아볼 수 있습니다.