한국어 실무 특화 '알파-인스트럭트' LLM 오픈소스 출시
올거나이즈는 한국어 실무에 강한 알파-인스트럭트 LLM을 오픈소스로 출시했습니다. 라마3(Llama3) 기반의 8B 모델로 한국어 이해도가 높아 문서 생성 및 요약 등의 실무에 특화돼 있습니다. Logickor 리더보드에서 높은 점수를 기록중입니다. 알파-인스트럭트 모델에 대한 소개와 오픈소스로 공개한 이유, 제작 방식 등에 대해 자세히 설명합니다.
올거나이즈는 한국어 실무에 강한 LLM(Large Language Model, 거대언어모델)인 '알파-인스트럭트(Alpha-Instruct)’를 오픈소스로 출시했습니다.
올거나이즈의 알파-인스트럭트 모델은 메타의 오픈소스 LLM인 '라마3(Llama3)'를 기반으로 제작된 파라미터(매개변수) 8B(80억) 규모의 경량 LLM입니다. 한국어를 잘 이해할 수 있도록 라마3를 개량한 모델과 지시사항을 따르는데 특화된 라마3의 인스트럭트 모델을 병합하는 방식으로 제작됐습니다. 이후 보편적인 답변 선호도를 반영한 지시사항 데이터셋 2000개를 추가 학습시킴으로써 동일 대답 반복, 불필요한 영어 대답 등의 오류를 최소화했습니다.
한국어 이해도가 높아 문서 생성 및 요약 등의 실무에 특화돼 있습니다. 한국어 언어모델의 다분야 사고력을 측정하는 'Logickor' 리더보드에서 높은 점수를 기록하고 있습니다. 라마3 기반의 8B 수준에서 순위가 높은 편이라는 것을 확인하실 수 있습니다. Logickor는 한국어 추론, 수학, 글쓰기, 코딩, 이해 등의 요소를 측정하며, 올거나이즈의 알파-인스트럭트 모델은 글쓰기 및 이해 부분에서 높은 점수를 기록 중입니다.
올거나이즈는 알파-인스트럭트 모델을 오픈소스로 공개했습니다. 라이센스 제한 없이 누구나 자유롭게 사용 가능합니다. 올거나이즈의 알리 플랫폼 내에서 알파-인스트럭트 모델을 사용할 수도 있으며, 기업 맞춤형 특화모델로 파인튜닝하거나 LLM을 내부 데이터에 연결해서 검색증강생성(RAG) 솔루션과 자유롭게 결합해 활용할 수 있습니다.
올거나이즈는 알리(Alli) 플랫폼을 통해 기업용 LLM 인에이블러(Enabler) 서비스를 제공하고 있습니다. 다양한 오픈소스 LLM 모델을 이용한 LLM 앱 개발 도구 및 미리 개발된 LLM 앱들을 앱 마켓 형태로 제공합니다. 금융 특화 LLM '알파-F(Alpha-Finance)'를 비롯해 산업·기업별 특화 언어 모델을 제작해 기업들에게 공급하고 있습니다.
올거나이즈의 AI 팀은 완성도 높은 한국어 모델을 만들기 위해 공들여 데이터셋을 구성하고, 다양한 방법론들에 대한 수많은 테스트를 거침으로써 극히 적은 리소스만으로 성능 좋은 모델을 만들 수 있었습니다. 앞으로도 최신 오픈소스 모델의 성능을 계속 평가하고, 고객이 효율적으로 잘 활용할 수 있는 모델을 지속적으로 만들어 나갈 예정입니다.
Q&A
오픈소스로 모델을 출시한 이유는 무엇입니까?
올거나이즈의 알파-인스트럭트 모델 오픈소스+오픈소스를 병합해 만든 모델입니다. 그리고 올거나이즈의 알파-F를 비롯한 산업 특화 모델들이 다 오픈소스 기반이기도 합니다. 그래서 오픈소스 생태계에 기여하고자 공개하게 되었습니다.
기존에 출시한 알파-F와 다른 방식으로 제작한 이유는 무엇인가요?
최신 기술인 병합 형태로 만들었는데 올거나이즈 AI 팀이 이런 최신 논문 기술등을 내부에서 계속 실험해보고 고객에게 어떤 게 최선일지 계속 적용해 보고 있습니다. 그 과정에서 이렇게 가벼운 모델(8B)인데도 한국어 성능이 좋은 기법을 노력 끝에 알게 되어 저희 고객이든 연구자든 돈과 시간이라는 리소스를 적게 쓰면서도 한국어 성능이 좋은 모델들을 각자 더 만들 수 있게 되면 좋겠다는 생각이 들었습니다. 오픈소스 생태계에 기여하고자 하는 바람이에요.
올거나이즈가 이렇게 최신 기술들도 기업 고객용으로 적용하고 있다는 것도 알아주시면 좋겠습니다.
좋은 언어모델을 만들기 위해서는 데이터의 양보다 질이 중요한가요?
데이터 양보다는 질이 중요한 것 같습니다. 특히 인스트럭트 모델의 튜닝에서 데이터의 질에 공을 많이 들이는 비중이 높아지고 있습니다. 물론 메타의 인스트럭트 모델은 1천 만건의 인간 주석이 있는 데이터를 썼다고 했으니 양이 중요하지 않다고는 할 수 없습니다. 하지만 양이 많은데 나쁜 데이터가 같이 있으면 좋지 않습니다.
그래서 퀄리티 관리가 안 되는 많은 양의 데이터를 쓰느니 소규모의 질 좋은 데이터로 학습하는 게 더 낫다고 봅니다. 올거나이즈가 사용한 ORPO(Monolithic Preference Optimization without Reference Model) 학습법은 특히나 데이터의 퀄리티가 중요합니다. 저희 말고도 ORPO로 멀티언어 파인튜닝을 한 다른 모델의 논문에서도 비슷한 결론을 내고 있습니다.
한국어 능력이 뛰어난 올거나이즈의 알파-인스트럭트 모델을 도입하고 싶으시다면?
지금 바로 문의를 남겨주세요!