LoRA에 W&B Inference를 사용하는 이유
- 한 번 업로드하면 즉시 배포됩니다 — 서버를 직접 관리할 필요가 없습니다.
- 아티팩트 버전 관리를 통해 현재 라이브 중인 버전을 정확하게 추적할 수 있습니다.
- 전체 모델 가중치 대신 작은 LoRA 파일만 교체해 몇 초 안에 모델을 업데이트할 수 있습니다.
워크플로
- LoRA 가중치를 W&B 아티팩트로 업로드합니다.
- API에서 모델 이름으로 사용할 아티팩트 URI를 지정합니다.
- W&B가 추론을 위해 가중치를 동적으로 로드합니다.
사전 준비 사항
- W&B API key
- W&B 프로젝트
- Python 3.8+ 환경과
openai,wandb패키지:pip install wandb openai
LoRA를 추가하고 사용하는 방법
- 다른 곳에서 학습한 LoRA 업로드
- W&B로 새 LoRA 학습하기
다른 곳에서 학습한 사용자 정의 LoRA 디렉터리를 W&B 아티팩트로 업로드할 수 있습니다. 이 방법은 로컬 환경, 클라우드 제공업체, 파트너 서비스 등에서 LoRA를 이미 학습한 경우에 적합합니다.아래 Python 코드는 로컬에 저장된 LoRA 가중치를 버전이 관리되는 아티팩트로 W&B에 업로드합니다. 필요한 메타데이터(베이스 모델과 스토리지 리전)가 포함된
lora 타입 아티팩트를 생성하고, 로컬 디렉터리에서 LoRA 파일을 추가한 뒤, 추론에 사용하기 위해 W&B 프로젝트에 로그합니다.필수 조건
Inference에서 사용자 LoRA를 사용하려면:- LoRA는 Supported Base Models 섹션에 나열된 모델 중 하나를 사용해 학습되어야 합니다.
- W&B 계정에
lora타입 아티팩트로 저장된 PEFT 포맷의 LoRA여야 합니다. - 지원되는 최대 rank(랭크) 값은 16입니다.
- 낮은 지연 시간을 위해 LoRA는
storage_region="coreweave-us"에 저장되어 있어야 합니다. - 업로드할 때, 학습에 사용한 베이스 모델 이름(예:
meta-llama/Llama-3.1-8B-Instruct)을 포함해야 합니다. 이렇게 해야 W&B가 올바른 모델로 로드할 수 있습니다.
지원되는 기반 모델
wandb.base_model에는 반드시 아래 문자열을 그대로 사용해야 합니다. 더 많은 모델이 곧 추가될 예정입니다.
meta-llama/Llama-3.1-70B-Instructmeta-llama/Llama-3.1-8B-InstructOpenPipe/Qwen3-14B-InstructQwen/Qwen3-30B-A3B-Instruct-2507Qwen/Qwen2.5-14B-Instruct