'소버린 AI 승부수' 띄운 KT…"정부 AI 파운데이션 모델 참여"

7 hours ago 2

서울 광화문에 위치한 KT 본사. 사진=한경DB

서울 광화문에 위치한 KT 본사. 사진=한경DB

KT가 자체적으로 개발한 거대언어모델(LLM) '믿:음 2.0'을 공개하는 동시에 정부가 추진하는 독자 인공지능(AI) 파운데이션 모델 프로젝트에 참여한다는 의사를 밝혔다. 그간 마이크로소프트(MS)와 협업을 강조해왔던 점을 감안하면 낯선 행보다. 이재명 정부의 소버린 AI 전략 기조에 맞춰 독립적으로 AI 기술을 개발할 수 있는 역량을 갖췄다는 자신감을 보인 것으로 풀이된다.

KT는 3일 'KT AI 기술' 온라인 브리핑을 열고 자체 개발한 언어모델 믿음 2.0을 소개했다. 신동훈 KT Gen AI 랩장(CAIO·상무)은 브리핑에서 자체 개발 AI 중단설을 전면 부인했다. 신 상무는 "한 번도 자체 기술을 포기해야 한다고 생각한 적 없다"며 "기간통신사업자로서 생성형 AI의 원천기술을 반드시 확보하고 지켜나가야 한다고 생각해 '믿음'을 고도화해 왔다"고 강조했다.

정부의 AI 파운데이션 모델 프로젝트에 대해서는 KT의 소버린 AI 철학에 부합한다고 설명했다. KT가 말하는 소버린 AI는 크게 4가지로 정리된다. △데이터 주권이 자국에 있고 △모든 사용자의 이용 목적에 부합할 만큼 다양한 AI 선택권이 갖춰져야 하며 △한국 가치관과 문화를 담고 있는 AI 서비스가 제공되어야 하고 △규제를 준수하며 안전하게 서비스 되어야 한다는 점이다.

신 상무는 "믿음 모델은 데이터 구축부터 모델 학습 전 과정이 KT 자체 기술을 통해 이뤄졌기 때문에 소버린 AI 모델이라 할 수 있다. 한국적 가치와 문화를 담아내기 위해 데이터 얼라이언스와 구축한 모델은 독자적 AI를 구축하는 데 큰 강점이라 생각한다"고 설명했다.

MS와의 협업은 KT가 아직 확보하지 못한 기술에 한해 이뤄진다고 부연했다. 최고 성능의 AI 전환을 원하는 시장 요구에 부응하기 위해서다. 신 상무는 "GPT는 시장에서 고객들이 사용할 수 있는 가장 강력한 모델"이라며 "복잡하고 어려운 작업에는 GPT 모델, QA 요약 등에선 믿음이 활용될 수 있다"고 말했다. 이어 신 상무는 "KT는 한국 시장에 맞게 GPT에 한국적 문화와 가치를 튜닝해 제공하는 것"이라 부연했다.

음 2.0을 테스트하고 있다. 사진=KT

KT 기술혁신부문 연구원들이 서초구 KT 우면연구센터에서 믿:음 2.0을 테스트하고 있다. 사진=KT

이번에 KT가 공개하는 믿음 모델은 115억 파라미터 규모의 '믿음 2.0 베이스'와 23억 파라미터 규모의 '믿음 2.0 미니' 2가지다. 110억 파라미터 이상 한국어 범용 LLM을 누구나 상업적으로 쓸 수 있도록 오픈소스 형태로 공개한 것은 KT가 처음이다.

한국적 AI를 강조하는 KT의 방향대로 믿음 2.0은 높은 한국어 관련 점수를 보였다. 믿음 2.0은 KT와 고려대가 공동 개발한 한국어 AI 역량 평가 지표 '코-소버린' 벤치마크에서 국내의 유사한 모델을 비롯해 세계 최고 수준 오픈소스 모델을 능가했다. 한국과 관련한 전문 지식 이해도를 측정하는 대표적 벤치마크 'KMMLU'와 한국어 언어모델 평가 지표인 'HAERAE'에서도 '믿음'은 국내외 주요 오픈소스 모델보다 더 우수한 성능을 기록했다.

오승필 KT 기술부문장(CTO)은 "모든 AI 모델 라인업에 대해 한국적 정신을 집어넣고 쓸 수 있도록 하는 게 저희의 목표이고 철학"이라면서 "라마, 큐원 등 어떤 글로벌 모델을 사용하더라도 한국적 지식을 학습시키고 운영될 때 데이터가 유출되지 않도록 유념해야 한다. 한국적 기준으로 따졌을 때 안전하고 책임감 있는 AI를 만드는 것을 목표로 하고 있다"고 강조했다.

이날 공개된 SK텔레콤의 한국 특화 LLM '에이닷 엑스(A.X) 4.0'에 대해서도 언급하기도 했다. 신 상무는 "경쟁사이자 AI 커뮤니티 안의 협력자로서 조심스럽긴 하다. 에이닷 엑스 4.0은 저희보다 7배 이상 큰 모델로 직접적인 비교는 어렵다"면서도 "믿음 프로 모델도 그 정도를 상회하는 성능을 확보했다"고 말했다.

박수빈 한경닷컴 기자 waterbean@hankyung.com

Read Entire Article