“우리가 만든 AI를 우리 손으로” — 한국의 소버린 AI 선언

2025년 6월, 이재명 정부는 ‘소버린 AI(Sovereign AI)’를 국가 전략으로 공식 발표하며, 100조 원 규모의 투자 계획과 함께 공공 서비스의 인공지능 전환(AX)을 추진하겠다고 밝혔습니다. 대통령실에는 AI 전담 직책이 신설됐고, 네이버 클라우드 출신의 하정우 인공지능미래기획수석이 임명되며 정책 실행의 구체적인 그림도 그려지고 있습니다. 정부는 이 전략을 통해 한국형 대규모 언어모델(LLM), AI 반도체, 데이터센터 등 인프라를 자체 구축하고, 공공 서비스부터 산업까지 AI 기반의 생태계를 조성하겠다는 의지를 보이고 있습니다.
이제 AI는 단순한 기술이 아닌, 국가가 주권 차원에서 통제하고 책임져야 할 전략 자산으로 자리 잡고 있습니다.

소버린 AI란 무엇인가?

소버린 AI는 한 국가가 외국 기술이나 플랫폼에 의존하지 않고, 자국의 인프라, 데이터, 인재, 제도적 기반을 바탕으로 AI를 설계·개발·운영하는 체계를 말합니다. 단순히 자급자족하는 기술의 문제가 아니라, 데이터 주권 확보, 문화적 정체성 반영, 공공성 구현이라는 여러 층위의 목표를 담고 있습니다.

2024년 세계정부정상회의에서 젠슨 황 NVIDIA CEO는 “모든 국가는 자신만의 AI를 가져야 한다”고 강조했습니다. 데이터는 그 사회의 문화와 상식, 역사의 총체이며, AI는 이를 기반으로 학습하고 작동하기 때문입니다. 결국 누가 AI를 만들고, 어떤 가치로 훈련시키느냐는 사회 전체의 방향을 결정하는 문제로 연결됩니다.

왜 지금, 소버린 AI인가?

1. 문화적 다양성 수호
글로벌 대형 AI 모델은 미국 중심의 인터넷 데이터를 기반으로 훈련되었습니다. 이로 인해 타문화의 맥락은 축소되거나 왜곡되기 쉬우며, 이는 AI가 교육·법률·복지 같은 공공 영역에 적용될 때 심각한 부작용을 낳을 수 있습니다.

2. 데이터 주권과 정보 안보
국내에서 생성되는 의료, 행정, 통신 데이터가 외국 플랫폼을 통해 처리된다면, 이는 곧 데이터 유출과 통제권 상실로 이어질 수 있습니다. AI의 운영 주체가 외국일 때, 데이터에 대한 통제력은 사실상 존재하지 않습니다.

3. 기술 의존 탈피와 경제 자립
AI는 산업과 행정의 핵심 인프라입니다. 특정 국가나 기업에 기술적으로 종속될 경우, 경제정책의 자율성뿐 아니라 국민 서비스 전반이 외부 조건에 따라 흔들릴 수 있습니다. 이는 곧 경제 주권과 경쟁력의 문제로 이어집니다.

그러나, 모두가 동의하는 것은 아니다 – 비판적 시선

 ‘갈라파고스 AI’의 위험
자국 중심의 AI가 글로벌 기술 흐름과 단절된다면, 성능과 혁신 측면에서 도태될 수 있습니다. 국제 협력이 배제된 기술 내재화는 오히려 고립을 자초할 수 있습니다.

막대한 비용과 저효율성
초거대 언어모델(LLM)을 처음부터 자체 개발하는 데는 수천억 원대의 비용이 소요됩니다. UAE는 자국 모델 개발을 시도했으나, 최근에는 오픈소스 모델의 미세조정이 더 효율적이라며 전략을 전환했습니다.

‘가짜 소버린 AI’ 논란
외국 기술에 단순히 ‘국산 브랜드’를 붙이는 식의 포장이 진정한 소버린 AI일 수 있을까요? 기술 내재화와 단순 조립 사이의 경계를 명확히 해야 할 시점입니다.

인재 부족과 노동권
인프라가 아무리 훌륭해도, 이를 설계·운영할 인재가 없다면 무의미합니다. 동시에, AI 개발에 종사하는 노동자들의 권리 보호와 윤리적 노동 환경 역시 중요한 고려사항입니다.

녹색당이 제안하는 방향 – 소버린 AI, 공공성과 윤리의 길로

2023년 세계녹색당총회(Global Greens Congress)는 AI 긴급 결의안(R43)을 통해 AI 개발에도 다음과 같은 원칙이 지켜져야 함을 명확히 했습니다:

  • 법적 규제와 강제적 감독 체계 구축
  • 인간 통제와 안전한 사용, 설명 가능성 확보
  • 인권 침해 금지, 민주주의 억압 방지
  • 환경 영향을 최소화하는 지속가능한 기술
  • AI 개발자에 대한 정의로운 노동 조건 보장

이러한 원칙은 단지 기술적 이상이 아니라, AI가 공공선을 지향하려면 반드시 실현되어야 할 기준입니다.

기술주권을 넘어, ‘책임 있는 AI’로 나아가기 위해

소버린 AI는 디지털 주권을 확보하고, 문화적 정체성을 보존하며, 글로벌 기술 종속에서 벗어나기 위한 중요한 전략입니다. 그러나 동시에 이에 대한 비판적인 시각 또한 존재하는 것이 현실입니다. 그렇기에 우리는 기술적 자립에만 집중할 것이 아니라, AI의 개발과 운영 전 과정에서 민주주의, 지속가능성, 사회적 책임이라는 공공적 가치가 관철되는 구조를 함께 고민해야 합니다. AI는 우리 사회의 지능을 대신하는 시스템입니다. 그리고 그 지능은 누구의 것인가, 누구를 위한 것인가를 질문할 때, 그 AI는 단지 빠르고 똑똑한 기술이 아니라, 더 나은 사회를 위한 공동의 선택이 될 수 있을 것입니다.

Green Geek을 구독하시면 지금 보시는 것과 같은 ICT 소식과 정보를 받아보실 수 있습니다.

용어 사전

초거대 언어모델 (LLM): 대규모 텍스트 데이터를 학습해 사람처럼 말을 이해하고 생성하는 AI 모델. 예: GPT, HyperCLOVA 등.
데이터 주권: 개인이나 국가가 자국 내 데이터에 대한 통제권을 가지는 개념. 외국 플랫폼 의존에서 벗어나기 위한 핵심 원칙.
AI 반도체 (GPU, NPU): 인공지능 연산을 빠르게 처리하는 전용 칩. GPU는 이미지·영상 처리에 강하고, NPU는 AI 전용 연산에 최적화됨.
공공 서비스의 AX (AI Transformation): 행정, 복지, 교육 등 공공 영역에 AI를 도입해 업무를 자동화·지능화하는 변화. 디지털 전환의 공공 버전.
오픈소스 모델: 누구나 자유롭게 사용할 수 있도록 공개된 AI 모델. 자체 개발이 어려운 국가나 기업에서 활용하기 쉬움.
설명 가능성 (Explainability): AI가 어떤 이유로 특정 결과를 내렸는지를 사람이 이해할 수 있도록 설명할 수 있는 능력. 공공성과 신뢰성 확보에 중요.
민감 정보: 개인의 건강, 위치, 금융 정보 등 유출 시 피해가 큰 정보. AI가 처리할 경우 높은 수준의 보안과 보호 체계가 요구됨.
가짜 소버린 AI: 외국 기술에 단순히 상표만 바꿔 ‘자국 AI’처럼 포장하는 행위. 기술 내재화 없이 브랜드만 변경한 사례를 비판할 때 사용.
갈라파고스 AI: 외부와 단절된 채 자국 기술만 고립적으로 발전해 세계 기술 흐름에서 뒤처지는 현상. 일본 전자산업에서 유래된 개념.

댓글 남기기