이 노트북은 인터랙티브 노트북입니다. 로컬에서 실행하거나 아래 링크를 사용하세요:
사전 준비 사항
pip을 사용해weave,pandas,unsloth,wandb,litellm,pydantic,torch,faiss-gpu를 설치합니다.
- 환경 변수에서 필요한 API key를 추가합니다.
- W&B에 로그인하고 새 프로젝트를 생성합니다.
Models Registry에서 ChatModel을 다운로드하고 UnslothLoRAChatModel을 구현하기
unsloth 라이브러리를 사용해 파인튜닝했으며, W&B Models Registry에서 사용할 수 있습니다. 이 단계에서는 Registry에서 파인튜닝된 ChatModel을 가져와 weave.Model로 변환하여 RagModel과 호환되도록 합니다.
아래에서 참조하는
RagModel은 최상위 weave.Model로, 완전한 RAG 애플리케이션으로 볼 수 있습니다. 이 모델에는 ChatModel, 벡터 데이터베이스, 그리고 프롬프트가 포함됩니다. ChatModel 역시 weave.Model이며, W&B Registry에서 아티팩트를 다운로드하는 코드를 포함하고 있습니다. ChatModel은 RagModel의 일부로서, 다른 종류의 LLM 채팅 모델을 지원하도록 모듈식으로 교체할 수 있습니다. 더 자세한 내용은 Weave에서 모델을 확인하세요.ChatModel을 로드하기 위해 어댑터가 적용된 unsloth.FastLanguageModel 또는 peft.AutoPeftModelForCausalLM을 사용하여, 앱에 효율적으로 통합합니다. Registry에서 모델을 다운로드한 후 model_post_init 메서드를 사용해 초기화 및 예측 로직을 설정할 수 있습니다. 이 단계에 필요한 코드는 Registry의 Use 탭에서 확인할 수 있으며, 구현에 그대로 복사해 사용할 수 있습니다.
아래 코드는 W&B Models Registry에서 가져온 파인튜닝된 Llama-3.2 모델을 관리·초기화·사용하기 위한 UnslothLoRAChatModel 클래스를 정의합니다. UnslothLoRAChatModel은 최적화된 추론을 위해 unsloth.FastLanguageModel을 사용합니다. model_post_init 메서드는 모델의 다운로드 및 설정을 처리하고, predict 메서드는 사용자 질의를 처리해 응답을 생성합니다. 이 코드를 자신의 사용 사례에 맞게 조정하려면, 파인튜닝된 모델에 맞는 Registry 경로로 MODEL_REG_URL을 수정하고, 하드웨어나 요구 사항에 따라 max_seq_length나 dtype과 같은 파라미터를 조정하십시오.
새로운 ChatModel 버전을 RagModel에 통합하기
RagModel을 가져와, 그 안의 ChatModel이 새로 파인튜닝된 모델을 사용하도록 업데이트합니다. 이러한 원활한 교체를 통해 벡터 데이터베이스(VDB)와 프롬프트 같은 다른 컴포넌트는 그대로 두면서, 애플리케이션의 전체 구조를 유지한 채 성능을 향상시킬 수 있습니다.
아래 코드는 Weave 프로젝트의 참조를 사용해 RagModel 객체를 가져옵니다. 이후 RagModel의 chat_model 속성을 이전 단계에서 생성한 새로운 UnslothLoRAChatModel 인스턴스로 업데이트합니다. 그런 다음, 업데이트된 RagModel을 게시하여 새 버전을 생성합니다. 마지막으로, 업데이트된 RagModel을 사용해 샘플 예측 쿼리를 실행하고, 새로운 챗 모델이 실제로 사용되고 있는지 검증합니다.
weave.Evaluation 실행
weave.Evaluation을 사용해 업데이트된 RagModel의 성능을 평가합니다. 이 과정은 새로 파인튜닝한 챗 모델이 RAG 애플리케이션 내에서 기대한 대로 동작하는지 확인하기 위한 것입니다. Models 팀과 Apps 팀 간 통합을 단순화하고 협업을 가능하게 하기 위해, 모델의 W&B 실행과 Weave 워크스페이스 모두에 평가 결과를 기록합니다.
Models에서는 다음을 수행합니다:
- 평가 요약을 파인튜닝된 챗 모델을 다운로드할 때 사용한 W&B 실행에 로깅합니다. 여기에는 분석을 위해 workspace view에 표시되는 요약 지표와 그래프가 포함됩니다.
- 평가 트레이스 ID를 실행 설정(configuration)에 추가하여, Model 팀이 더 쉽게 추적할 수 있도록 Weave 페이지로 직접 연결합니다.
ChatModel에 대한 아티팩트 또는 레지스트리 링크를RagModel의 입력으로 저장합니다.- 더 풍부한 컨텍스트를 제공하기 위해 평가 트레이스에 W&B 실행 ID를 추가 열로 저장합니다.
RagModel을 사용해 평가를 실행한 뒤, 결과를 W&B와 Weave 모두에 로깅하는 방법을 보여줍니다. 평가 참조(WEAVE_EVAL)가 프로젝트 설정과 일치하는지 확인하십시오.
새로운 RAG Model을 Registry에 저장하기
RagModel을 향후 Models 팀과 Apps 팀 모두가 사용할 수 있도록 W&B Models Registry에 참조 아티팩트로 푸시합니다.
아래 코드는 업데이트된 RagModel에 대한 weave 객체 버전과 이름을 가져와 이를 사용해 참조 링크를 생성합니다. 그런 다음 모델의 Weave URL을 포함한 메타데이터와 함께 새로운 아티팩트를 W&B에 생성합니다. 이 아티팩트는 W&B Registry에 로깅되고 지정된 레지스트리 경로에 연결됩니다.
코드를 실행하기 전에 ENTITY 및 PROJECT 변수가 사용자의 W&B 설정과 일치하는지, 그리고 대상 레지스트리 경로가 올바르게 지정되어 있는지 확인하세요. 이 과정은 새로운 RagModel을 W&B 생태계에 게시하여 손쉬운 협업과 재사용이 가능하도록 함으로써 워크플로우를 마무리합니다.