Amazon Bedrock Model Distillation

개요

Amazon Bedrock Model Distillation을 사용하면 Amazon Bedrock에서 가장 고급 모델에 필적하는 사용 사례별 정확도를 제공하는 더 작고 더 빠르며 더 비용 효율적인 모델을 사용할 수 있습니다. Amazon Bedrock의 증류 모델은 원래 모델보다 최대 500% 더 빠르고 비용은 최대 75% 저렴하며 RAG와 같은 사용 사례의 경우 정확도 손실은 2% 미만입니다.

더 작고 더 비용 효율적인 모델 활용

Model Distillation을 통해 고객은 사용 사례에서 정확도를 달성하려는 '교사' 모델을 선택한 다음 미세 조정하려는 '학생' 모델을 선택할 수 있습니다. 또한 사용 사례에 대한 프롬프트도 제공합니다. Model Distillation은 교사 모델로부터 응답을 생성하고 이러한 응답을 사용하여 학생 모델을 미세 조정하는 프로세스를 자동화합니다. 그러면 학생 모델은 적은 비용으로 비슷한 정확도로 교사 모델처럼 작동할 수 있습니다.

UI 스크린샷

독자적인 데이터 합성을 통해 증류된 모델 성능을 극대화

특정 사용 사례를 위해 더 작은 규모의 비용 효율적인 모델을 미세 조정하여 대규모 모델과 비슷한 정확도를 달성하는 것은 반복적인 프로세스입니다. Model Distillation은 더 나은 결과를 얻기 위해 필요한 반복의 부담을 덜어주기 위해 사용 사례에 가장 적합한 다양한 데이터 합성 방법을 적용할 수 있습니다. 예를 들어 Bedrock은 유사한 프롬프트를 생성하여 훈련 데이터세트를 확장하거나, 고객이 제공한 프롬프트 응답 쌍을 골든 예시로 사용하여 고품질의 합성 응답을 생성할 수 있습니다.

UI 스크린샷

프로덕션 데이터를 손쉽게 가져와 비용을 절감

기존의 미세 조정 기능의 경우 고객이 프롬프트와 응답을 생성해야 합니다. Model Distillation을 사용하면 고객이 프롬프트만 제공하면 됩니다. 그러면 Model Distillation이 이 정보를 사용하여 합성 응답을 생성하고 학생 모델을 미세 조정합니다. 고객은 간접 호출 로그에 연결하도록 지시하고 특정 메타데이터 필드를 기반으로 로그를 필터링할 수도 있습니다. Model Distillation은 간접 호출 로그를 통해 프롬프트와 응답을 모두 읽고 Model Distillation 워크플로에서 합성 응답 생성 단계를 건너뛸 수 있으므로, 교사 모델에서 응답을 다시 생성할 필요가 없어 비용이 절감됩니다. 코드 샘플로 시작해 보세요.

UI 스크린샷