Toggle navigation
잇츠맨
웨비나
뉴스레터
채널
스튜디오 대관
웨비나속 Q&A
문의하기
로그인
회원 가입
AI 서비스, API 쓸까 직접 만들까? 현명한 LLM 서빙 선택 가이드
Q
[질문]대규모 LLM의 추론 시, 메모리 최적화(FP8, 모델 압축, quantization)는 어떻게 적용되고 있으며, 성능에 어떤 영향을 주는지요?
조성영
2025-06-24 14:59
아직 답변이 없습니다