Path: blob/master/site/ko/model_optimization/guide/clustering/clustering_example.ipynb
25118 views
Copyright 2020 The TensorFlow Authors.
Keras 예제의 가중치 클러스터링
개요
TensorFlow 모델 최적화 도구 키트의 일부인 가중치 클러스터링에 대한 엔드 투 엔드 예제를 소개합니다.
기타 페이지
가중치 클러스터링에 대한 소개와 이를 사용해야 하는지 여부(지원 내용 포함)를 결정하려면 개요 페이지를 참조하세요.
16개의 클러스터로 모델을 완전하게 클러스터링하는 등 해당 사용 사례에 필요한 API를 빠르게 찾으려면 종합 가이드를 참조하세요.
내용
이 튜토리얼에서는 다음을 수행합니다.
MNIST 데이터세트를 위한
tf.keras
모델을 처음부터 훈련합니다.가중치 클러스터링 API를 적용하여 모델을 미세 조정하고 정확성을 확인합니다.
클러스터링으로부터 6배 더 작은 TF 및 TFLite 모델을 만듭니다.
가중치 클러스터링과 훈련 후 양자화를 결합하여 8배 더 작은 TFLite 모델을 만듭니다.
TF에서 TFLite로 정확성이 지속되는지 확인합니다.
설정
이 Jupyter 노트북은 로컬 virtualenv 또는 colab에서 실행할 수 있습니다. 종속성 설정에 대한 자세한 내용은 설치 가이드를 참조하세요.
클러스터링을 사용하지 않고 MNIST용 tf.keras 모델 훈련하기
기준 모델을 평가하고 나중에 사용할 수 있도록 저장하기
클러스터링을 사용하여 사전 훈련된 모델 미세 조정하기
사전 훈련된 전체 모델에 cluster_weights()
API를 적용하여 압축 후 적절한 정확성을 유지하면서 모델 크기가 줄어드는 효과를 입증합니다. 해당 사용 사례에서 정확성과 압축률의 균형을 가장 잘 유지하는 방법은 포괄적 가이드의 레이어별 예를 참조하세요.
모델 정의 및 클러스터링 API 적용하기
모델을 클러스터링 API로 전달하기 전에 모델이 훈련되었고 수용 가능한 정확성을 보이는지 확인합니다.
모델을 미세 조정하고 기준 대비 정확성 평가하기
하나의 epoch 동안 클러스터링이 있는 모델을 미세 조정합니다.
이 예의 경우, 기준과 비교하여 클러스터링 후 테스트 정확성의 손실이 미미합니다.
클러스터링으로부터 6배 더 작은 모델 만들기
클러스터링의 압축 이점을 확인하려면 strip_clustering
과 표준 압축 알고리즘(예: gzip 이용) 적용이 모두 필요합니다.
먼저, TensorFlow를 위한 압축 가능한 모델을 만듭니다. 여기서, strip_clustering
은 훈련 중에만 클러스터링에 필요한 모든 변수(예: 클러스터 중심과 인덱스를 저장하기 위한 tf.Variable
)를 제거합니다. 이러한 변수를 제거하지 않으면 추론 중에 모델 크기가 증가하게 됩니다.
그런 다음, TFLite를 위한 압축 가능한 모델을 만듭니다. 클러스터링된 모델을 대상 백엔드에서 실행 가능한 형식으로 변환할 수 있습니다. TensorFlow Lite는 모바일 기기에 배포하는 데 사용할 수 있는 예입니다.
실제로 gzip을 통해 모델을 압축하는 도우미 함수를 정의하고 압축된 크기를 측정합니다.
클러스터링으로부터 모델이 6배 더 작아진 것을 확인하세요.
가중치 클러스터링과 훈련 후 양자화를 결합하여 8배 더 작은 TFLite 모델 만들기
추가적인 이점을 얻기 위해 클러스터링한 모델에 훈련 후 양자화를 적용할 수 있습니다.
TF에서 TFLite로 정확성이 지속되는지 확인하기
테스트 데이터세트에서 TFLite 모델을 평가하는 도우미 함수를 정의합니다.
클러스터링되고 양자화된 모델을 평가한 다음, TensorFlow의 정확성이 TFLite 백엔드까지 유지되는지 확인합니다.
결론
이 튜토리얼에서는 TensorFlow 모델 최적화 도구 키트 API를 사용하여 클러스터링된 모델을 만드는 방법을 알아보았습니다. 구체적으로, 정확성 차이를 최소화하면서 8배 더 작은 MNIST용 모델을 생성하기 위한 엔드 투 엔드 예제를 살펴보았습니다. 리소스가 제한된 환경에서 배포할 때 특히 중요할 수 있는 이 새로운 기능을 한 번 사용해 보세요.