안녕하세요. 디지털에이전시 이앤아이입니다.
요즘 AI 업계에서 가장 뜨거운 화두 중 하나가 ‘독자(獨自) AI’입니다. 우리 기술로 만든 모델인지, 해외 모델을 잘 다듬은 파생형인지에 따라 정부 지원과 시장 신뢰가 갈리기 때문이죠. 최근 과학기술정보통신부가 ‘독자 AI 파운데이션 모델’ 프로젝트 1차 단계평가 결과를 발표했는데, 여기서 네이버클라우드와 NC AI가 탈락하고 LG AI연구원·업스테이지·SK텔레콤이 2차로 진출했습니다. 업계가 놀란 포인트는 단순한 성능 경쟁이 아니라, “무엇을 독자라고 부를 것인가”라는 기준이 훨씬 선명해졌다는 점입니다.
이번 평가는 벤치마크(40점), 전문가 평가(35점), 사용자 평가(25점)로 구성됐고, 성능만 보는 방식이 아니었습니다. 실제 현장에서의 활용 가능성, 비용 효율성, 생태계 파급효과까지 종합적으로 본다는 설명이 붙었습니다. 결과적으로 LG AI연구원은 세 평가 모두 최고점을 받으며 총점 90.2점으로 가장 높은 점수를 기록했고, 평균 점수는 79.7점이었다고 합니다. ‘모델이 똑똑한가’와 동시에 ‘현실에서 굴릴 수 있는가’를 묻는 질문이 본격화된 셈입니다.
그런데 더 큰 이슈는 네이버클라우드의 탈락 사유였습니다. 정부는 네이버 모델이 ‘독자성 기준’을 충족하지 못했다고 판단했는데, 핵심은 알리바바의 큐웬(Qwen) 2.5 모델에서 비전 인코더와 가중치를 사용한 부분이 문제로 지목됐다는 점입니다. 비전 인코더는 이미지·영상 정보를 모델이 이해할 수 있도록 바꿔주는 중요한 구성 요소인데, 여기서 “오픈소스를 쓰는 건 업계에서 자연스럽다”는 전제를 인정하면서도 “가중치를 초기화한 뒤 스스로 학습해 채워나가는 과정이 최소 조건”이라는 선을 그었습니다. 즉, 오픈소스를 ‘참고하거나 활용’하는 것과 ‘핵심 가중치를 그대로 가져오는 것’은 다르게 본다는 메시지입니다.
이 기준 정리는 웹·서비스 운영 관점에서도 꽤 시사점이 큽니다. 앞으로 기업들이 챗봇, 검색, 문서 자동화, 고객응대 같은 기능을 “독자 AI 기반”이라고 홍보하려면, 단지 모델 이름만 붙이는 수준으로는 설득이 어려워질 수 있습니다. 어떤 데이터로 학습했고, 어떤 부분을 직접 구현했으며, 외부 모델은 어디까지 활용했는지까지 설명 가능한 체계가 필요해집니다. 특히 공공기관이나 대학처럼 예산 집행 근거가 명확해야 하는 곳은 ‘독자성’과 ‘라이선스 이슈 부재’ 같은 조건을 더 민감하게 확인할 가능성이 큽니다. 결국 AI 기능을 도입할 때는 성능 비교표뿐 아니라 데이터 출처, 모델 학습·운영 방식, 라이선스 리스크까지 함께 점검하는 흐름이 강해질 겁니다.
정부는 10일간 이의제기 기간을 거쳐 평가를 확정하고, 상반기 내 추가 공모로 정예팀 1곳을 더 뽑아 4개 팀 경쟁 구도를 만들 계획입니다. 탈락 팀도 참여할 수 있지만 네이버는 재도전 여부를 검토하지 않는다고 밝혔고, NC AI는 논의 중이라는 입장입니다. 이 장면에서 우리가 얻을 수 있는 결론은 간단합니다. 한국형 AI 경쟁은 이제 ‘잘 만든 서비스’만이 아니라 ‘어떻게 만들었는지 증명 가능한 서비스’로 넘어가고 있습니다. 만들기만 하는 시대에서, 설명하고 책임지는 시대로요.
이앤아이와 함께 더 나은 웹 환경을 만들어 나가요!
메타 설명: 정부가 ‘독자 AI 파운데이션 모델’ 1차 평가 결과를 발표하며 독자성 기준을 구체화했다. LG AI연구원·업스테이지·SK텔레콤이 2차로 진출했고 네이버클라우드·NC AI는 탈락했다. 독자 AI의 핵심 요건과 기업이 준비해야 할 포인트를 정리한다.
#독자AI #파운데이션모델 #과기정통부 #AI모델평가 #오픈소스라이선스 #가중치초기화 #비전인코더 #한국형AI #기업AI도입 #AI거버넌스 #이앤아이 #디지털에이전시 #대학교홈페이지 #병원홈페이지 #AI전문기업