Case Study: Client-specific Large Language Model

2024/04/11 | 작성자: 전영훈
 

범용 LLM(대규모 언어 모델)은 널리 사용되는 공개 문서를 기반으로 학습되기 때문에 특정 도메인의 복잡성을 적절히 포착하지 못하는 경우가 많습니다. 또한 범용 LLM은 기업의 데이터 유출 및 종종 환각으로 알려진 모호한 결과물 생성 등의 위험을 초래할 수 있다는 한계가 존재하기도 합니다. 따라서 강력한 보안 및 개인정보 보호 조치를 보장하면서 도메인별 업무에 탁월한 도메인 특화 프라이빗 LLM의 필요성이 대두되고 있습니다. 업스테이지에서는 두 차례의 모델 훈련을 거쳐 커머스 부문에 특화된 모델을 개발하는 데 앞장섰습니다. Mixture-of-Experts가 특징인 이 모델은 속성 값 추출과 같은 작업을 처리하기 위해 정교하게 제작되었습니다.

업스테이지는 2023년부터 컴팩트한 한국어 기반 LLM을 활용한 기업 개발 프로젝트를 수행해 왔습니다. 업스테이지는 커넥트웨이브와 함께 프라이빗 LLM 개발을 주도하며 국내 선구적인 사례를 남겼고, 이후 꾸준히 계약을 체결하는 기록을 이어가고 있습니다. 독자적인 기반 모델을 기반으로 세밀하게 조정되고 클라이언트 서버에 원활하게 통합된 고객 맞춤형 모델을 배포함으로써 업스테이지가 국내 최고의 공급업체로서 독보적인 위치를 차지하고 있음을 입증하고 있습니다.

도전 과제

국내 최고의 이커머스 가격 비교 마켓플레이스 중 하나로 유명한 커넥트웨이브와의 협업은 내부 상품 리스팅 팀이 플랫폼에 소개된 다양한 상품 카탈로그에서 세부 정보를 추출하는 프로세스를 개선하고자 하는 니즈에서 출발했습니다. 정보 추출 프로세스는 플랫폼에 등록된 제품 목록의 정확도에 직접적인 영향을 미치기에 매우 중요하며, 따라서 이를 위해 상당한 시간이 할애되곤 했습니다.

또한, 정보 추출 단계 이후에는 추출된 데이터를 세심하게 정리하고 분류하는 작업이 필요했습니다. 이는 각 정보를 플랫폼의 데이터베이스 내의 해당 카테고리에 정보를 입력하는 과정으로 이어졌습니다. 이러한 세심한 분류 작업은 플랫폼을 탐색하는 소비자들이 효율적으로 제품을 검색하고 비교할 수 있게 함으로써 전반적인 사용자 경험을 향상시키는 데 중추적인 역할을 했습니다.

Solution

업스테이지에서는 제품 카탈로그에서 Attribute-Value 쌍을 추출하기 위해 맞춤화된 이커머스 전문 LLM을 설계했습니다. 또한 이 모델은 정교한 자연어 처리 방법론을 활용하여 고객이 남긴 리뷰에 대한 감정 분석을 능숙하게 수행하여 비즈니스 이해관계자에게 가치 있는 인사이트를 제공합니다.

먼저 퍼블릭 및 프라이빗 커머스 데이터 세트를 모두 사용하여 기본 LLM에 대해 사후 학습을 수행했습니다. 공개적으로 사용 가능한 도메인별 데이터를 활용하여 첫 번째 사후 학습 단계에서 학습된 공개 LLM을 생성했습니다. 그 후, 고객의 내부 또는 독점 데이터를 통합하여 두 번째 학습 후 단계를 실행하여 학습 후 학습된 비공개 LLM을 생성했습니다. 마지막으로 고객의 업무별 데이터를 사용하여 모델을 파인튜닝(미세 조정)하여 업무별로 파인튜닝(미세 조정)된 LLM을 개발했습니다.

Task-specific LLM을 만드는 과정

새로운 도메인별 지식을 기본 LLM에 효과적으로 통합하기 위해 Mixture-of-Experts(MoE) 아키텍처가 사용되었습니다. 이 프로세스에는 Router 네트워크의 추가 및 가중치 합산 구성 요소의 통합과 함께 복사 및 붙여넣기 작업을 통해 트랜스포머 블록의 MLP 레이어를 기본 LLM에서 N 레이어로 확장하는 작업이 수반되었습니다. 다른 Structural elements(예: LayerNorm, Attention)는 Base LLM에서 채택되었으며 제공된 데이터를 기반으로 추가 학습을 용이하게 하도록 조정되었습니다.

MoE 구조의 활용은 여러 전문가 네트워크와의 협업적 특성 또는 앙상블 효과로 인한 성능 향상에 대한 기대감에서 비롯됩니다. 각 MLP 레이어는 특정 작업이나 데이터 유형에 특화된 전문가 역할을 합니다. 결과적으로 추천, 설명, 속성 추출, 요약 등과 같은 작업에 대해 전문화된 전문가와 협업함으로써 모델은 다양한 요청과 작업에서 보다 정확하고 맥락에 맞는 응답을 제공하여 보다 효과적인 고객 서비스를 제공할 수 있습니다.

MoE 구조 개요

또한, MoE 구조는 필요에 따라 특정 experts만 활성화함으로써 서빙 효율을 최적화할 수 있으며, 희소 구조를 유지합니다. 이 접근 방식은 일반적인 모델보다 고객의 요구에 더 빠르고 세밀하게 대응할 수 있는 장점을 가진 모델을 제공할 수 있습니다. 또한, 이 방식은 비슷한 규모의 모델에 비해 서빙 속도를 크게 향상시킵니다.

기술 파트너 활용

모델 개발 과정 중 지속적인 사후 학습을 위해 AWS SageMaker를 활용한 것은 Upstage의 프로젝트에 긍정적인 영향을 미쳤습니다. 프로젝트 일정 내에 방대한 데이터 세트를 학습시켜야 한다는 점을 고려할 때, SageMaker는 효율성을 크게 향상시켜 방대한 양의 데이터를 효과적으로 처리할 수 있게 해 주었습니다.

분산 학습을 지원하는 AWS SageMaker를 사용하면 여러 컴퓨팅 리소스에서 대규모 데이터 세트를 병렬로 처리할 수 있도록 합니다. 이 기능은 훈련 시간을 단축할 뿐만 아니라 상당한 양의 데이터 처리를 간소화합니다. 또한 컴퓨팅 및 스토리지 리소스의 원활한 확장성은 대규모 데이터셋을 처리하거나 높은 처리량을 충족시키기 위한 노력을 덜어줍니다.

결과 및 이점

이러한 이커머스 전용 LLM은 데이터 입력 작업에 투입되는 시간을 최소화하여 상품 등록 담당자의 부담을 크게 줄여줄 뿐만 아니라, 상품 속성 추출의 표준을 설정하여 데이터 전처리 및 표준화 작업을 용이하게 해줍니다.

이를 통해 여러 이커머스 플랫폼에서 관리되는 상품 메타데이터에서 지정된 속성과 해당 속성을 추출하고 이를 고객의 데이터 스키마 표준에 맞추는 작업을 담당했던 사내 상품 디렉터(MD)의 노동 집약적인 업무가 크게 간소화되었습니다.

업스테이지가 제공하는 모델은 상품 메타데이터와 리뷰에서 비정형 데이터를 전처리하여 기획 관점에서 전략적으로 활용할 수 있도록 맞춤화된 Attribute Value Extraction(AVE)에 특화된 전용 LLM입니다. AVE 기능은 주어진 상품 정보 및 카탈로그 텍스트에서 특정 속성의 값을 추출하는 기능을 포함합니다. 알리바바가 공개한 AE-110k 데이터 세트에서 알 수 있듯이, 이 모델은 GPT-3.5에 비해 우수한 성능을 입증하며 커머스 전용 프라이빗 LLM을 효과적으로 구축했습니다. 이 모델을 구현하면 쇼핑 경험의 편의성과 차별성이 향상될 뿐만 아니라 비즈니스 생산성과 효율성이 개선됩니다.

커머스 중심의 AVE 작업 평가 결과

이전 게시물
이전 게시물

Case Study: RAG-based natural language question response

다음
다음

AWS SageMaker Jumpstart에서 'Solar'의 잠재력을 확인해 보세요