WITHENI

make


정부 ‘독자 AI’ 기준을 못 박다: 1차 평가에서 갈린 희비

최고관리자 2026-01-19 11:56 2

안녕하세요. 디지털에이전시 이앤아이입니다.

최근 국내 AI 업계에서 가장 뜨거웠던 이슈 중 하나가 정부의 ‘독자 AI 파운데이션 모델’ 프로젝트 1차 평가 결과였습니다. 결과만 놓고 보면 간단합니다. LG AI연구원, 업스테이지, SK텔레콤 3개 팀은 2차 단계로 진출했고, 네이버클라우드와 NC AI는 1차에서 탈락했습니다. 그런데 이번 발표가 주목받는 이유는 “누가 이겼나”보다 “독자 AI를 무엇으로 보느냐”를 정부가 비교적 구체적으로 정리하기 시작했다는 점에 있습니다.

이번 평가는 벤치마크 40점, 전문가 평가 35점, 사용자 평가 25점으로 구성됐고, 성능만이 아니라 활용성, 비용 효율성, 산업 생태계 파급효과까지 종합적으로 봤다고 합니다. 특히 LG AI연구원은 세 항목 모두에서 최고점을 받아 총점 90.2점을 기록했습니다. 평균 점수가 79.7점이었다는 점을 감안하면, 상위권의 경쟁이 만만치 않았다는 것도 짐작됩니다.

다만 시장이 더 크게 반응한 지점은 네이버클라우드의 탈락 사유였습니다. 정부는 네이버클라우드 모델이 기술적 측면에서 ‘독자성 기준’을 충족하지 못했다고 판단했는데, 알리바바의 Qwen 2.5 계열 모델에서 비전 인코더와 가중치를 활용한 부분이 문제로 지적됐습니다. 핵심은 “오픈 모델을 쓰는 게 문제냐”가 아니라 “가중치를 초기화한 뒤 독자 데이터와 학습으로 다시 쌓아 올렸는지”입니다. 정부 설명에 따르면, 오픈소스를 전략적으로 활용하는 건 당연히 가능하지만, 외부 인코더·가중치를 사실상 그대로 가져오는 방식은 ‘독자 AI’로 인정하기 어렵다는 쪽으로 가이드가 잡힌 셈입니다.

이 대목은 기업 입장에서도 꽤 현실적인 고민을 던집니다. 요즘 AI 개발은 완전한 ‘제로에서의 시작’보다, 검증된 오픈소스 생태계를 얼마나 효율적으로 조합하고 최적화하느냐가 경쟁력으로 연결되는 경우가 많기 때문입니다. 그런데 정부 과제의 목표가 ‘국산 파운데이션 모델’의 자립 기반 마련이라면, 최소한의 독자성 기준을 세우는 건 불가피합니다. 이번에 정부가 기술적·정책적·윤리적 측면으로 기준을 나눠 제시한 것도, 그동안 업계에 남아 있던 “어디까지가 독자냐”라는 회색지대를 줄이려는 시도로 읽힙니다.

또 하나의 포인트는 ‘추가 공모’입니다. 정부는 상반기 안에 정예팀 1곳을 더 뽑아 4개 팀 체제로 경쟁을 만들겠다고 했고, 새로 뽑히는 팀에도 GPU와 데이터 지원을 동일하게 제공하겠다고 했습니다. 일각에서는 패자부활전 아니냐는 시선이 있지만, 정부는 특정 기업을 위한 설계가 아니라고 선을 그었습니다. 네이버클라우드는 “재도전은 검토하지 않는다”는 입장을 내비친 만큼, 추가 공모는 다른 기업에게도 의미 있는 기회가 될 수 있겠습니다.

웹·디지털 실무 관점에서 이번 이슈가 주는 메시지도 분명합니다. 생성형 AI를 서비스에 붙이는 시대에는 “모델을 보유했는가”뿐 아니라 “데이터를 어떤 방식으로 확보·정제하고, 어떤 책임 체계로 운영할 것인가”가 점점 더 중요해집니다. 특히 공공·금융·교육처럼 기준과 감사가 까다로운 영역에서는, 모델의 출처와 학습 방식, 라이선스 정합성을 문서로 설명할 수 있어야 실제 도입이 가능합니다. 결국 ‘독자성’은 기술의 자존심을 넘어, 계약과 리스크 관리의 언어가 되고 있는 셈이죠.

앞으로 2차 단계에서 어떤 팀이 최종 2곳에 들어갈지, 그리고 추가 공모에서 어떤 플레이어가 새로 올라올지에 따라 국내 AI 산업의 판이 다시 짜일 가능성도 있습니다. 이 흐름은 단순히 AI 기업만의 이야기가 아니라, AI 기능을 웹서비스에 연결해 운영해야 하는 모든 조직의 과제가 될 것입니다. 이앤아이와 함께 더 나은 웹 환경을 만들어 나가요!

댓글쓰기 / 이 게시물에 대한 의견을 남기실 수 있습니다.