
최근 진행된 국가대표 AI 선발전에서 네이버의 AI 모델이 탈락하며 업계에 적지 않은 충격을 안겼습니다. 가장 큰 문제는 ‘독자성’ 평가 기준에 있었습니다. 과학기술정보통신부는 독자 모델의 핵심 조건으로 자체 데이터로 가중치를 학습 및 검증한 경험을 강조하며 가중치를 외부에서 그대로 사용한 네이버의 모델을 부적격으로 판단했습니다. 네이버가 기술보고서에 해당 내용을 투명하게 명기한 점은 긍정적이지만 정부의 엄격한 독자성 기준과는 충돌한 것입니다.
정부는 “오픈소스를 활용하더라도 가중치를 초기화해 처음부터 학습해야 한다”는 원칙을 세웠지만 이 기준은 명확하게 세분화되어 있지 않아 평가 과정에서 혼선이 발생했습니다. 특히 이번 대회에서는 네이버가 텍스트뿐 아니라 이미지 및 음성까지 다루는 옴니모달 모델로 복수의 영역에서 제출한 반면, 다른 컨소시엄은 텍스트 중심 모델만 제출해 일관된 평가가 어려웠습니다. 이는 평가 프레임워크의 개선과 구체화가 절실하다는 점을 시사합니다.
이번 사업은 약 2000억 원 규모의 국가 예산이 투입된 대규모 AI 모델 개발 프로젝트입니다. 국내 주요 기업과 연구소가 협업하는 긍정적인 측면이 있으나 경쟁이 과열됨에 따라 물밑에서 비방전이 벌어지면서 프로젝트의 신뢰가 손상될 위험도 있습니다. 이러한 비방전은 객관적인 평가 환경을 저해하므로 정부 차원의 명확한 규칙 설정과 엄중한 대응이 필요합니다.
네이버는 이번 탈락 이후 정부 결정에 승복한다고 밝혔으나 재도전하지 않기로 하면서 이 문제에 대한 끝나지 않은 숙제를 남겼습니다. 놀랍게도 네이버의 기술력이 부족해서가 아니라 평가 방식과 기준에서 불일치가 주요 원인임을 부정하기 어렵습니다. 독자 AI 파운데이션 모델은 단순히 성능 경쟁에만 머물지 않고, 산업 전반에 API 형태로 서비스되어 생태계 전반의 경쟁력을 끌어올릴 때 가치가 극대화될 수 있습니다.
국가대표 AI 프로젝트는 단 한 팀의 승자만을 만드는 데 그치지 않고, AI 산업 전반의 역량을 향상시키는 방향으로 설계되어야 합니다. 이를 위해서는 모델뿐 아니라 데이터, 플랫폼, 클라우드 인프라까지 아우르는 통합적이고 투명한 정책 마련이 필요합니다. 네이버와 같은 대형 기업도 직접 개발보다는 공개 API 및 안전성 가이드라인 제공 등 생태계 전반에 기여하는 방안을 모색할 필요가 있습니다. 향후 공모에서는 평가 기준의 명확화와 더불어 AI 생태계 확산 전략이 중심 과제로 떠오를 것으로 전망됩니다.