메인 콘텐츠로 건너뛰기
W&B를 Skorch와 함께 사용하면 각 epoch 이후에 성능이 가장 좋은 모델을 자동으로 로깅하고, 모든 모델 성능 지표, 모델 토폴로지, 그리고 사용된 컴퓨팅 리소스까지 함께 로깅할 수 있습니다. wandb_run.dir에 저장된 모든 파일은 자동으로 W&B에 로깅됩니다. 예시 실행을 참고하세요.

매개변수

ParameterTypeDescription
wandb_runwandb.wandb_run. Run데이터를 로깅하는 데 사용되는 wandb 실행입니다.
save_modelbool (default=True)최고 성능 모델의 체크포인트를 저장하고 이를 W&B 실행에 업로드할지 여부입니다.
keys_ignoredstr or list of str (default=None)TensorBoard에 로깅하지 않을 키 또는 키 목록입니다. 사용자가 제공한 키 외에도, event_로 시작하거나 _best로 끝나는 키는 기본적으로 무시됩니다.

예제 코드

통합이 어떻게 작동하는지 확인해 볼 수 있도록 몇 가지 예제를 준비했습니다:
  • Colab: 통합을 직접 시험해 볼 수 있는 간단한 데모
  • 단계별 가이드: Skorch 모델 성능을 추적하는 단계별 안내
# wandb 설치
... pip install wandb

import wandb
from skorch.callbacks import WandbLogger

# wandb 실행 생성
wandb_run = wandb.init()

# 하이퍼파라미터 로깅 (선택 사항)
wandb_run.config.update({"learning rate": 1e-3, "batch size": 32})

net = NeuralNet(..., callbacks=[WandbLogger(wandb_run)])
net.fit(X, y)

메서드 참조

메서드설명
initialize()콜백의 초기 상태를 (재)설정합니다.
on_batch_begin(net[, X, y, training])각 배치가 시작될 때 호출됩니다.
on_batch_end(net[, X, y, training])각 배치가 끝날 때 호출됩니다.
on_epoch_begin(net[, dataset_train, …])각 에포크가 시작될 때 호출됩니다.
on_epoch_end(net, **kwargs)히스토리의 마지막 스텝 값을 로그로 남기고, 최상의 모델을 저장합니다.
on_grad_computed(net, named_parameters[, X, …])그래디언트가 계산된 후, 업데이트 스텝이 수행되기 전에 배치마다 한 번 호출됩니다.
on_train_begin(net, **kwargs)모델 구조를 로그로 남기고 그래디언트용 훅을 추가합니다.
on_train_end(net[, X, y])학습이 끝날 때 호출됩니다.