안녕하세요. 디지털에이전시 이앤아이입니다.
요즘 생성형 AI 이야기가 많지만, 정작 “이 모델이 정말 우리 기술로 만든 건가요?”라는 질문은 꽤 까다롭습니다. 정부가 추진 중인 ‘독자 AI 파운데이션 모델’ 프로젝트 1차 평가 결과가 공개되면서, 그 까다로운 질문에 대한 기준이 한층 선명해졌습니다. 이번 발표로 LG AI연구원·업스테이지·SK텔레콤이 2차 단계로 진출했고, 네이버클라우드와 NC AI는 탈락했습니다. 정부는 상반기 내 추가 공모로 1개 팀을 더 뽑아 4개 팀 경쟁 구도를 만들겠다는 계획도 함께 밝혔습니다.
이번 1차 평가는 벤치마크(40점), 전문가(35점), 사용자(25점)로 나뉘어 진행됐습니다. 단순히 점수표만 맞추는 기술 경연이 아니라, 현장에서 실제로 쓸 수 있는지, 비용 대비 효율은 어떤지, 국내외 AI 생태계에 어떤 파급효과가 있을지까지 종합적으로 봤다는 점이 눈에 띕니다. 특히 LG AI연구원은 세 평가에서 모두 최고점을 받아 총점 90.2점으로 1위를 차지했습니다. 평균 점수는 79.7점으로 공개됐고, 다른 팀의 세부 점수는 공개되지 않았습니다.
‘독자성’은 어디까지…오픈소스 활용과 경계선
이번 발표에서 가장 큰 쟁점은 ‘독자성’이었습니다. 정부는 네이버클라우드 모델이 독자성 기준을 충족하지 못했다고 판단했는데, 알리바바의 Qwen 2.5 모델 요소(비전 인코더와 가중치)를 사용한 부분이 문제로 지목됐습니다. 류제명 과기정통부 2차관은 “오픈 모델을 쓰는 것 자체는 생태계에서 자연스러운 일”이라면서도, 외부 가중치를 그대로 가져다 쓰는 방식은 ‘독자 AI’로 보기 어렵다는 취지로 설명했습니다. 정리하면, 오픈소스는 활용 가능하되 최소한 가중치를 초기화한 뒤 자체 데이터와 학습으로 새로 만들어야 ‘독자 구현’에 가까워진다는 메시지입니다.
왜 이 이슈가 중요할까: 기업·기관의 AI 도입 기준도 바뀐다
이번 기준 정리는 단지 정부 과제의 심사 기준을 넘어서, 앞으로 기업과 공공 영역이 AI를 도입할 때 체크리스트를 바꾸는 계기가 될 수 있습니다. “모델 성능이 좋다”만으로는 설명이 부족하고, 데이터 확보·학습 과정·라이선스 리스크까지 함께 봐야 하기 때문입니다. 특히 홈페이지나 서비스에 생성형 AI 기능을 붙이려는 조직이라면, 고객 데이터가 오가는 만큼 모델과 데이터의 출처, 재학습 여부, 운영 비용(GPU)까지 현실적인 판단이 필요합니다. 잘 만든 AI 기능도 운영 단계에서 비용과 리스크 관리가 안 되면 ‘멈추는 서비스’가 되기 쉽습니다.
2차전과 추가 공모…경쟁은 더 치열해진다
정부는 이의제기 기간을 거쳐 결과를 확정한 뒤, 빠른 시일 내 추가 공모로 1개 정예팀을 더 선발하겠다고 밝혔습니다. 1차 탈락 기업뿐 아니라 다른 기업에도 문을 열어두겠다는 설명인데요. 최종적으로는 연내 2개 팀을 선정하는 만큼, 앞으로는 “누가 더 큰 모델을 만들었나”보다 “누가 더 안정적으로 운영 가능한 독자 모델을 증명했나”가 핵심 관전 포인트가 될 전망입니다.
이앤아이와 함께 더 나은 웹 환경을 만들어 나가요!