트레이싱
weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>")를 호출한 뒤, 평소처럼 라이브러리를 사용하면 됩니다.
![]() |
|---|
| 이제 Weave는 Instructor를 사용해 이루어지는 모든 LLM 호출을 추적하고 로그로 남깁니다. Weave 웹 인터페이스에서 이러한 트레이스를 확인할 수 있습니다. |
직접 op 추적하기
@weave.op으로 감싸면 입력, 출력, 그리고 애플리케이션 로직을 캡처하기 시작하므로 데이터가 앱을 통해 어떻게 흐르는지 디버깅할 수 있습니다. op를 깊게 중첩해 추적하고 싶은 함수들로 이루어진 트리를 만들 수 있습니다. 또한 실험을 진행하면서 아직 git에 커밋되지 않은 즉석 변경 사항까지 캡처할 수 있도록 코드를 자동으로 버전 관리하기 시작합니다.
@weave.op 데코레이터를 적용한 함수를 하나 만들기만 하면 됩니다.
아래 예시에서는 extract_person이라는 함수가 있으며, 이 함수는 @weave.op으로 감싼 메트릭 함수입니다. 이를 통해 OpenAI chat completion 호출과 같은 중간 단계가 어떻게 수행되는지 확인할 수 있습니다.
![]() |
|---|
extract_person 함수에 @weave.op 데코레이터를 적용하면 함수의 입력, 출력, 그리고 함수 내부에서 이루어지는 모든 LM 호출이 추적됩니다. Weave는 또한 Instructor가 생성한 구조화된 객체들을 자동으로 추적하고 버전을 관리합니다. |
실험을 더 쉽게 하기 위한 Model 생성
Model 클래스를 사용하면 시스템 프롬프트나 사용 중인 모델처럼 앱의 실험 관련 세부 정보를 캡처하고 정리할 수 있습니다. 이를 통해 앱의 다양한 반복 버전을 체계적으로 정리하고 비교할 수 있습니다.
코드 버전 관리와 입력/출력 캡처뿐 아니라, Model은 애플리케이션 동작을 제어하는 구조화된 파라미터도 함께 캡처하므로 어떤 파라미터가 가장 잘 작동했는지 쉽게 찾을 수 있습니다. 또한 Weave 모델을 serve(아래 참조) 및 Evaluation과 함께 사용할 수도 있습니다.
아래 예제에서는 PersonExtractor로 실험할 수 있습니다. 이 중 하나라도 변경할 때마다 PersonExtractor의 새로운 버전이 생성됩니다.
![]() |
|---|
Model을 사용한 호출 추적 및 버전 관리 |
Weave 모델 서빙하기
weave.Model 객체에 대한 weave reference가 있다면 FastAPI 서버를 띄우고 serve로 서빙할 수 있습니다.
다음 명령을 터미널에서 실행해 모델을 서빙할 수 있습니다:



