- 보이스 에이전트
- 심층 리서치 어시스턴트
- 온프렘(온프레미스) 모델
- 콘텐츠 마케팅 분석 에이전트
왜 Serverless RL인가?
- 더 낮은 학습 비용: 여러 사용자가 인프라를 효율적으로 공유해 사용하고, 각 작업마다 개별 설정 과정을 건너뛰며, 학습 중이 아닐 때 GPU 비용을 0으로 줄임으로써, Serverless RL은 학습 비용을 크게 절감합니다.
- 더 짧은 학습 시간: 추론 요청을 여러 GPU에 분산하고, 필요한 시점에 즉시 학습 인프라를 프로비저닝함으로써, Serverless RL은 학습 작업을 가속화하고 더 빠른 반복을 가능하게 합니다.
- 자동 배포: Serverless RL은 학습한 모든 체크포인트를 자동으로 배포하여, 호스팅 인프라를 수동으로 구성할 필요를 없앱니다. 학습된 모델은 로컬, 스테이징, 프로덕션 환경에서 즉시 액세스해 테스트할 수 있습니다.
Serverless RL이 W&B 서비스를 사용하는 방법
- Inference: 모델을 실행하는 데 사용
- Models: LoRA 어댑터 학습 중 성능 지표를 추적하는 데 사용
- Artifacts: LoRA 어댑터를 저장하고 버전 관리하는 데 사용
- Weave (optional): 학습 루프 각 단계에서 모델 응답을 관찰할 수 있도록 가시성을 확보하는 데 사용