Path: blob/main/diffusers_doc/ko/sdxl_turbo.ipynb
5550 views
Stable Diffusion XL Turbo
SDXL Turbo는 adversarial time-distilled(적대적 시간 전이) Stable Diffusion XL(SDXL) 모델로, 단 한 번의 스텝만으로 추론을 실행할 수 있습니다.
이 가이드에서는 text-to-image와 image-to-image를 위한 SDXL-Turbo를 사용하는 방법을 설명합니다.
시작하기 전에 다음 라이브러리가 설치되어 있는지 확인하세요:
모델 체크포인트 불러오기
모델 가중치는 Hub의 별도 하위 폴더 또는 로컬에 저장할 수 있으며, 이 경우 from_pretrained()
메서드를 사용해야 합니다:
또한 from_single_file()
메서드를 사용하여 허브 또는 로컬에서 단일 파일 형식(.ckpt
또는 .safetensors
)으로 저장된 모델 체크포인트를 불러올 수도 있습니다:
Text-to-image
Text-to-image의 경우 텍스트 프롬프트를 전달합니다. 기본적으로 SDXL Turbo는 512x512 이미지를 생성하며, 이 해상도에서 최상의 결과를 제공합니다. height
및 width
매개 변수를 768x768 또는 1024x1024로 설정할 수 있지만 이 경우 품질 저하를 예상할 수 있습니다.
모델이 guidance_scale
없이 학습되었으므로 이를 0.0으로 설정해 비활성화해야 합니다. 단일 추론 스텝만으로도 고품질 이미지를 생성할 수 있습니다. 스텝 수를 2, 3 또는 4로 늘리면 이미지 품질이 향상됩니다.

Image-to-image
Image-to-image 생성의 경우 num_inference_steps * strength
가 1보다 크거나 같은지 확인하세요. Image-to-image 파이프라인은 아래 예제에서 0.5 * 2.0 = 1
스텝과 같이 int(num_inference_steps * strength)
스텝으로 실행됩니다.

SDXL Turbo 속도 훨씬 더 빠르게 하기
PyTorch 버전 2 이상을 사용하는 경우 UNet을 컴파일합니다. 첫 번째 추론 실행은 매우 느리지만 이후 실행은 훨씬 빨라집니다.
기본 VAE를 사용하는 경우, 각 생성 전후에 비용이 많이 드는
dtype
변환을 피하기 위해float32
로 유지하세요. 이 작업은 첫 생성 이전에 한 번만 수행하면 됩니다:
또는, 커뮤니티 회원인 @madebyollin
이 만든 16비트 VAE를 사용할 수도 있으며, 이는 float32
로 업캐스트할 필요가 없습니다.