왜 WAN 2.2 워크플로에서는 BF16 모델 텍스트 인코더를 사용할 수 없는 걸까?
WAN 2.2 워크플로에서 BF16 모델의 텍스트 인코더가 동작하지 않는 문제는 단순한 설정 문제가 아니라, 대부분 작업 환경 자체에서 발생하는 구조적인 제한입니다. 실제로 ComfyUI에서 작업하다 보면 모델은 로드되는데 텍스트 인코더 단계에서 멈추거나 에러가 나는 경우가 자주 발생합니다.
여기서 먼저 BF16이 무엇인지 짚고 넘어가야 합니다. BF16은 bfloat16의 줄임말로, 32비트 부동소수점(FP32)보다 메모리를 절반만 사용하면서도 큰 수 표현 범위를 유지하도록 만든 데이터 형식입니다. 쉽게 말해 메모리는 덜 쓰면서도 계산 범위는 유지하려는 구조입니다. 그래서 대규모 AI 모델, 특히 서버급 GPU 환경에서 많이 사용됩니다.
문제는 이 BF16이 모든 GPU에서 제대로 돌아가는 구조가 아니라는 점입니다. 실제로 RTX 3090 같은 환경에서는 FP16은 안정적으로 동작하지만 BF16은 연산 자체가 지원되지 않거나, PyTorch나 CUDA 레벨에서 완전히 활성화되지 않는 경우가 많습니다. 작업하다 보면 “모델은 로드되는데 텍스트 인코더에서 멈춘다”는 상황이 바로 여기서 나옵니다.
ComfyUI 기준으로 보면 이 문제가 더 명확해집니다. Stable Diffusion 계열 워크플로는 기본적으로 FP16 기준으로 최적화되어 있고, 일부 노드나 커스텀 모델이 BF16을 요구할 경우 충돌이 발생합니다. 특히 텍스트 인코더(CLIP 계열)는 dtype이 맞지 않으면 바로 실패하는 구조라서, 이미지 생성 이전 단계에서 막히는 경우가 많습니다.
실제로 써보면 해결 방법은 복잡하지 않습니다. 대부분의 경우 BF16을 고집할 필요가 없습니다. 모델 로딩 시 dtype을 FP16으로 강제하거나, ComfyUI 실행 옵션에서 FP16 기반으로 맞추면 정상적으로 돌아갑니다. 만약 특정 워크플로에서 BF16이 필수라면, 그건 일반 GPU 환경이 아니라 A100이나 H100 같은 서버급 GPU를 기준으로 만들어진 경우가 많습니다.
현장에서 중요한 포인트는 하나입니다. 내가 쓰는 GPU가 어떤 정밀도를 지원하는지부터 확인해야 합니다. 이걸 무시하고 워크플로만 가져다 쓰면, 이유 모르게 막히는 상황이 반복됩니다. 특히 WAN 2.2처럼 최신 워크플로일수록 이런 문제가 더 자주 나타납니다.
그래서 지금 당장 해볼 수 있는 것은 간단합니다. ComfyUI에서 해당 모델이나 텍스트 인코더 설정을 확인하고 BF16 옵션이 있다면 제거한 뒤 FP16으로 통일해보십시오. 그리고 동일 워크플로를 다시 실행해보면, 대부분의 경우 텍스트 인코더 단계에서 멈추던 문제가 바로 해결됩니다.
태그: AI 이미지 생성, WAN 2.2 워크플로, BF16 형식, 텍스트 인코더, ComfyUI, Stable Diffusion, 하드웨어 호환성, 창작자 환경 최적화
