메인 콘텐츠로 건너뛰기
Colab에서 실행해 보기 W&B OpenAI API 통합을 사용하여 모든 OpenAI 모델(파인튜닝된 모델 포함)에 대한 요청, 응답, 토큰 수, 모델 메타데이터를 로깅하세요.
W&B로 파인튜닝 실험, 모델, 데이터셋을 추적하고 동료와 결과를 공유하는 방법은 OpenAI 파인튜닝 통합을 참고하세요.
API 입력과 출력을 로깅하면 서로 다른 프롬프트의 성능을 빠르게 평가하고, 온도(temperature)와 같은 다양한 모델 설정을 비교하며, 토큰 사용량과 같은 기타 사용 메트릭도 추적할 수 있습니다.
OpenAI API 자동 로깅

OpenAI Python API 라이브러리 설치

W&B autolog 통합 기능은 OpenAI 0.28.1 버전 이하에서 동작합니다. OpenAI Python API 0.28.1 버전을 설치하려면 다음 명령을 실행하세요:
pip install openai==0.28.1

OpenAI Python API를 사용하기

1. autolog을 임포트하고 초기화하기

먼저 wandb.integration.openai에서 autolog를 임포트하고 초기화합니다.
import os
import openai
from wandb.integration.openai import autolog

autolog({"project": "gpt5"})
wandb.init()이 받는 인수를 딕셔너리로 묶어 선택적으로 autolog에 전달할 수 있습니다. 여기에는 프로젝트 이름, 팀 이름, 엔터티 등 다양한 설정이 포함됩니다. wandb.init()에 대한 자세한 내용은 API Reference Guide를 참조하세요.

2. OpenAI API 호출

이제 OpenAI API로 보내는 모든 요청이 자동으로 W&B에 로깅됩니다.
os.environ["OPENAI_API_KEY"] = "XXX"

chat_request_kwargs = dict(
    model="gpt-3.5-turbo",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who won the world series in 2020?"},
        {"role": "assistant", "content": "The Los Angeles Dodgers"},
        {"role": "user", "content": "Where was it played?"},
    ],
)
response = openai.ChatCompletion.create(**chat_request_kwargs)

3. OpenAI API 입력과 응답 확인하기

1단계에서 autolog에 의해 생성된 W&B run 링크를 클릭합니다. 그러면 W&B App의 프로젝트 워크스페이스로 이동합니다. OpenAI LLM에 사용된 trace 테이블, trace 타임라인, 그리고 모델 아키텍처를 확인하려면 생성한 실행 중 하나를 선택합니다.

autolog 비활성화

OpenAI API 사용을 마친 후에는 모든 W&B 프로세스를 종료하기 위해 disable()을 호출할 것을 W&B가 권장합니다.
autolog.disable()
이제 입력과 생성 결과가 W&B에 로깅되어, 분석하거나 동료들과 공유할 수 있습니다.