[기고] 'Woke AI' 금지령과 소버린 AI-기술 주권을 둘러싼 가치 전쟁
지난 18일 월스트리트저널은 미 백악관이 연방 정부 조달 AI 시스템에 '정치적 중립성'을 의무화하는 행정명령을 검토 중이라고 보도했다. 언뜻 합리적인 원칙처럼 보인다. AI의 편향성을 제거하고 공정성을 확보한다는 명분은 누구나 동의할 만하다.
하지만 이 행정명령이 명시적으로 겨냥하는 대상을 보면, 단순한 공정성 확보가 아님을 알 수 있다. 백악관이 문제 삼는 것은 바로 'Woke AI'다. 트럼프 행정부는 지난 1월 23일 '미국의 인공지능 리더십에 대한 장벽 제거'라는 행정명령을 통해 이러한 방향성을 명확히 했다. 이 명령은 AI 시스템이 "이념적 편향이나 조작된 사회적 의제로부터 자유로워야 한다"고 명시하며, 바이든 행정부의 AI 정책을 전면 폐기했다. 이제 백악관은 한 걸음 더 나아가 'Woke AI'를 직접 겨냥한 추가 조치를 준비하고 있는 것으로 보인다.
'Woke AI'는 원래 사회적 불평등과 차별 문제에 '깨어 있는' AI를 뜻했다. 그러나 이제는 보수 진영의 조롱 섞인 용어가 됐다. 미국 공화당과 우파 매체들은 챗봇이나 생성형 AI가 진보적 입장을 대변하거나 보수적 견해를 '검열'한다며 이를 'Woke AI'라 비난한다. AI가 흑인 인권, 성소수자 권리, 이민자 보호 같은 이슈에 포용적으로 답하면 '좌파적 편향'이자 '정치적 올바름의 강요'라는 것이다.
물론 과도한 정치적 올바름이 때로는 진솔한 대화를 가로막고 현실을 외면하게 만들 수 있다는 비판에는 일리가 있다. 그러나 그렇다고 해서 우리 사회가 추구해온 포용성과 다양성의 가치까지 포기해야 하는 것은 아니다. 소수자를 배려하고 차별에 반대하는 것은 '좌파적 편향'이 아니라 민주사회의 기본 덕목이다. AI가 이러한 가치를 반영하는 것을 '정치적'이라고 낙인찍는 순간, 우리는 기술의 진보가 아닌 퇴보를 선택하는 것이다.
기술은 정치적이어선 안 되지만, 정치적일 수밖에 없다. AI도 마찬가지다. AI 자체는 편향이 없지만, 데이터 수집과 학습, 모델 설계와 응답 조율의 모든 단계에서 인간의 판단과 가치가 개입한다. 어떤 데이터를 '정상'으로, 어떤 기준을 '표준'으로 삼느냐에 따라 AI는 특정 세계관을 반영한다. AI는 단순한 기술이 아니라 가치의 구현체이며, 디지털 사회를 구성하는 또 하나의 규범 체계다.
여기서 중요한 질문이 제기된다. 누가 AI의 세계관을 설계할 것인가? AI가 특정 국가의 정치 이념에 따라 통제되고, 그것이 글로벌 표준이 된다면, 다른 국가들은 타국의 정치적 판단에 따른 기술 생태계를 수용해야 한다. 이는 단순한 기술 수입이 아니라 가치 수입의 문제다. 그리고 이는 디지털 종속으로 이어진다.
바로 여기서 '소버린 AI'가 중요해진다. 소버린 AI는 단순한 '자국산 AI'가 아니다. 자국의 철학, 문화, 사회 규범이 올바르게 반영된 AI 생태계를 독립적으로 설계하고 운영할 수 있는 기술 주권 체계를 의미한다. 소버린 AI는 외부의 정치적 기준에 좌우되지 않는 기술 거버넌스이자, 디지털 시대의 주권 선언이다.
소버린 AI는 고립된 자급자족을 의미하지 않는다. 오히려 '연결된 자율성'을 추구한다. 연결된 자율성이란, 글로벌 기술 생태계와 적극적으로 연결되면서도 자국의 가치와 이익을 지킬 수 있는 균형 잡힌 접근을 의미한다. 마치 독립 국가가 국제사회와 교류하면서도 주권을 유지하는 것처럼, AI 분야에서도 독립성과 개방성을 동시에 추구하는 것이다.
우리가 우리만의 소버린 AI를 보유한 상태에서 글로벌 빅테크의 AI 모델들과 협업하는 것과, 소버린 AI 없이 단순히 외국 모델을 수동적으로 활용하는 것은 근본적으로 다르다. 전자는 대등한 파트너십이고, 후자는 종속적 의존이다.
AI가 행정, 의료, 교육, 안보 등 공공서비스 전반에 깊숙이 통합되는 현실에서 소버린 AI는 선택이 아닌 필수다. AI는 단순한 효율 도구가 아니라 공공 의사결정과 국민 경험을 재구성하는 핵심 시스템이다. 이런 시스템이 외부 국가의 가치 판단에 영향받는다면, 그것은 정치적 독립성의 위기다.
미국의 'Woke AI 금지령'은 기술 규제가 아닌 가치 통제의 신호탄으로 봐야 한다. 포용적 AI는 검열되고, 다양성은 제거되며, AI는 순응적이고 무미건조한 응답만 반복하게 될 것이다. 이는 AI의 '윤리적 진화'와 정면충돌한다. 이번 논란은 그 모든 원칙들이 정치라는 이름으로 한순간에 지워질 수 있음을 보여준다. 트럼프 행정부는 이를 단순히 "미국의 AI 혁신을 가로막는 장벽 제거"라고 표현하지만, 실제로는 특정 가치관의 강요에 가깝다.
한국을 비롯한 각국은 AI를 단순한 도입 대상이 아닌 설계 주체의 관점에서 접근해야 한다. 외국계 AI 모델이 아무리 우수해도 우리의 경험과 맥락을 이해하지 못하고, 우리의 철학과 사회적 토대를 반영하지 못한다면, 그것은 정확하지만 무관한 응답 기계일 뿐이다.
소버린 AI는 이 간극을 메우는 전략적 개념이다. 기술적 독립성뿐 아니라 통제가능성, 즉 사회적 자기결정권을 실현하는 디지털 거버넌스의 핵심이다. 이는 다양한 문화와 가치가 공존하는 디지털 주권 모델로 확장돼야 한다. 소버린 AI는 글로벌 AI 생태계에서 '협상력'을 제공한다. 데이터 주권을 지키면서도 글로벌 혁신에 참여할 수 있고, 우리의 가치와 이익을 반영한 조건으로 협력할 수 있다.
'Woke AI 금지령'은 미국 내부의 정치 전선에서 출발했지만, 그 파장은 국경을 넘어설 수 있다는 점을 염두에 두어야 한다. 이는 AI에 담길 수 있는 가치의 스펙트럼을 급격히 좁힐 위험이 있다. 특정 정치세력이 기술의 설계 방향을 통제하는 세계에서 우리에게 필요한 것은 더 강력한 기술력이 아니라, 더 자율적이고 주체적인 기술 철학이다. 그 철학의 이름이 바로 소버린 AI다. 그리고 그것은 고립이 아닌 연결된 자율성을 통해, 글로벌 AI 시대에 우리의 가치와 정체성을 지키는 디지털 주권의 길이다.
[이승현 디지털플랫폼정부위원회 AI플랫폼혁신국장]