메인 콘텐츠로 건너뛰기

통합

Weave는 기본적으로 지원되는 모든 통합에 대해 자동 암시적 패치를 제공합니다: 암시적 패치(자동): 라이브러리는 import 시점과 관계없이 자동으로 패치됩니다.
# 옵션 1: weave.init() 이전에 import
import openai
import weave
weave.init('my-project')  # OpenAI가 자동으로 패치됩니다!

# 옵션 2: weave.init() 이후에 import
import weave
weave.init('my-project')
import anthropic  # import hook을 통해 자동으로 패치됩니다!
암시적 패치 비활성화: 보다 명시적으로 제어하고 싶다면 자동 패치를 비활성화할 수 있습니다.
import weave

# 옵션 1: settings 매개변수를 통해
weave.init('my-project', settings={'implicitly_patch_integrations': False})

# 옵션 2: 환경 변수를 통해
# 스크립트 실행 전에 WEAVE_IMPLICITLY_PATCH_INTEGRATIONS=false로 설정하세요

# 암묵적 패칭이 비활성화된 경우, 통합을 명시적으로 패치해야 합니다
import openai
weave.patch_openai()  # OpenAI 추적에 필수입니다
명시적 패치(수동): 보다 세밀한 제어를 위해 통합을 명시적으로 패치할 수 있습니다.
import weave
weave.init('my-project')
weave.integrations.patch_openai()  # OpenAI 추적 활성화
weave.integrations.patch_anthropic()  # Anthropic 추적 활성화
W&B Weave는 널리 사용되는 LLM 제공자와 오케스트레이션 프레임워크를 위한 로깅 연동을 제공합니다. 이러한 연동을 통해 다양한 라이브러리를 통해 이루어지는 호출을 원활하게 추적할 수 있어, AI 애플리케이션을 모니터링하고 분석하는 능력을 향상시킬 수 있습니다.

LLM 제공자

LLM 제공자는 예측을 생성하기 위해 대규모 언어 모델에 대한 접근을 제공하는 업체입니다. Weave는 이 제공 업체들과 통합하여 해당 API와의 상호작용을 로깅하고 추적합니다: Local Models: 모델을 자체 인프라에서 실행할 때 사용합니다.

프레임워크

프레임워크는 AI 애플리케이션에서 실제 실행 파이프라인을 오케스트레이션하는 역할을 합니다. 복잡한 워크플로우를 구축하기 위한 도구와 추상화를 제공합니다. Weave는 전체 파이프라인을 추적하기 위해 이러한 프레임워크와 통합됩니다:

강화 학습(RL) 프레임워크

프로토콜

Weave는 AI 애플리케이션과 이를 지원하는 서비스 간의 통신을 가능하게 하는 표준화된 프로토콜과 연동됩니다. 위 목록에서 원하는 통합을 선택해 선호하는 LLM 프로바이더, 프레임워크 또는 프로토콜과 함께 Weave를 사용하는 방법을 알아보세요. LLM API를 직접 호출하든, 복잡한 파이프라인을 구성하든, 표준화된 프로토콜을 사용하든, Weave는 AI 애플리케이션을 효과적으로 추적하고 분석할 수 있는 도구를 제공합니다.