2025년 초, 인공지능(AI)의 급속한 발전에 대응하고자 전 세계 58개국이 뜻을 모았다. 이들은 ‘포용적이고 지속 가능한 AI’라는 이름의 공동 선언문에 서명하며, 윤리적·사회적 기준에 부합하는 AI 개발과 사용에 협력할 것을 약속했다. 선언은 AI가 초래할 수 있는 편향, 감시, 노동 시장 파괴, 사회적 분열 등 다양한 위험에 대해 국가 간 공동 대응의 필요성을 강조했다. 이번 글에서는 이 공동 선언과 관련하여 AI 시대의 갈림길: 규제와 협력 이라는 주제로 이야기 할 예정이다.
이 역사적인 선언에 미국과 영국은 서명하지 않았다. AI 개발을 선도하고 있는 두 국가의 불참은 국제사회의 충격을 불러왔고, 곧바로 ‘AI 규제에 대한 국제 협력이 가능하냐’는 근본적인 질문을 제기하게 되었다. 세계는 지금, 기술 혁신과 윤리적 통제 사이의 미묘한 줄다리기 속에서 AI의 미래를 재단하고 있다.
공동 선언의 배경: 왜 지금 AI 규제가 필요한가
AI 기술은 지난 10년간 폭발적으로 발전해 왔다. 2020년대 중반에 접어든 지금, AI는 더 이상 단순한 산업 도구가 아니다. 자율 무기 시스템, 대규모 감시 체계, 정교한 심리 조작, 그리고 노동 시장의 재편까지, 사회 전반을 흔드는 변화의 핵심이 되었다.
이에 따라 AI를 어떻게 통제할 것인가는 더 이상 기술적인 문제가 아닌, 정치적·윤리적·국제적 이슈로 부상했다. 특히, 일부 기업이나 국가가 AI를 무기화하거나 독점할 경우, 국제 질서 자체가 흔들릴 수 있다는 우려가 커졌다. 이러한 배경 속에서, 유럽연합, 캐나다, 일본, 한국 등은 공동으로 윤리 기준과 투명성 원칙을 명시한 선언에 합의하게 된 것이다.
이 선언은 AI 시스템의 투명성, 설명 가능성, 데이터 편향 방지, 개인정보 보호 등을 골자로 하며, 특히 저개발국 및 소외 집단에게 AI 혜택이 돌아갈 수 있도록 하는 ‘포용성’에 방점을 두고 있다. 동시에, AI가 군사적·감시적 목적으로 악용되는 것을 막기 위한 조치도 포함돼 있다. 단순히 규제를 강화하자는 차원을 넘어, AI를 어떻게 공공재처럼 운용할 수 있을지에 대한 비전을 담은 것이다.
미국과 영국의 불참: 기술 주도국의 선택과 우려
그러나 세계를 선도하는 AI 강국인 미국과 영국은 이 공동 선언에 서명하지 않았다. 이는 단순한 외교적 제스처가 아니라, 세계 AI 규범 형성에 대한 이견과 긴장을 상징하는 사건으로 받아들여지고 있다.
미국은 전통적으로 민간 중심의 기술 혁신 생태계를 강조해 왔다. AI 분야의 주요 기업인 OpenAI, Google DeepMind, Meta, Microsoft 등은 글로벌 영향력을 지니고 있으며, 규제 강화는 이들 기업의 성장을 저해할 수 있다는 우려가 있다. 특히 미국 내에서는 정부 주도의 규제가 혁신을 가로막고, 경쟁력을 약화시킬 수 있다는 비판이 강하게 제기된다.
영국 또한 브렉시트 이후 독자적 기술 규제 체계를 강화하며, 유럽식 규제 접근보다는 보다 유연하고 산업 친화적인 정책을 추구하고 있다. 영국 정부는 AI 규제가 지나치게 경직될 경우, 기술 발전의 속도를 늦추고 글로벌 경쟁에서 뒤처질 수 있다는 입장을 고수하고 있다.
그 결과, 미국과 영국은 ‘공동 선언의 방향성과 일부 표현이 지나치게 포괄적이며, 기술 혁신을 억제할 수 있다’는 이유로 서명을 유보했다. 이는 곧 AI 규제의 국제 공조가 아직 완전히 자리를 잡지 못했다는 사실을 여실히 보여준다.
국제 AI 규제의 어려움
미국과 영국의 불참은 단지 두 국가의 입장 차이를 넘어서, AI 규제에 대한 국제 사회의 근본적인 균열을 드러낸다. AI는 국경을 넘나드는 기술이며, 하나의 국가만의 정책으로 그 영향을 통제하기 어렵다. 따라서 국제적 협력이 절실함에도, 현실은 각국의 경제적 이해관계와 안보 전략이 얽히면서 협력을 어렵게 만든다.
예컨대, 어떤 국가는 AI를 경제성장의 핵심 엔진으로 보고 있고, 어떤 국가는 정보 통제를 위한 도구로 활용하고 있으며, 또 다른 국가는 국방 및 안보의 수단으로 접근한다. 이처럼 AI에 대한 해석과 전략이 제각각인 상황에서, 하나의 공통된 규범이나 원칙을 마련하기란 쉽지 않다.
또한 규제가 지나치게 강하면 혁신 자체를 억제할 수 있다는 현실적 우려도 있다. 규제는 필요하지만, 그것이 민간 부문의 참여와 창의성을 위축시키지 않도록 조율해야 하는 딜레마에 국제 사회는 직면해 있다. 따라서 향후 논의는 ‘규제냐 자유냐’의 이분법이 아니라, ‘어떻게 균형 있게 다룰 것인가’에 초점이 맞춰져야 한다.
미래를 위한 과제: 공통 규범과 다자 협력의 필요성
AI는 이제 선택의 문제가 아니라 삶의 조건을 재편하는 거대한 힘이 되었다. 따라서 그 미래를 좌우할 규범과 철학은 모두의 것이어야 한다. 미국과 영국의 불참에도 불구하고, 58개국의 공동 선언은 하나의 중요한 이정표가 되었으며, 이는 향후 지속적인 국제 협상과 조율의 출발점이 될 수 있다.
국제 사회는 앞으로 다음과 같은 과제를 안고 있다:
- AI 관련 국제 표준 마련: 기술과 윤리를 함께 반영한 국제 표준을 설정하고, 이에 따라 각국이 자율적으로 조율할 수 있는 유연한 체계가 필요하다.
- 민간과 공공의 협력 구조: 글로벌 기업과 정부, 시민사회의 역할이 명확히 정립되고, 함께 규제 틀을 만드는 구조가 마련되어야 한다.
- 기술 불균형 해소: 선진국만이 아닌, 개발도상국도 AI 기술의 혜택을 받을 수 있도록 교육, 인프라, 투자 협력이 확대되어야 한다.
이러한 과제는 단기적으로는 성과가 보이지 않을 수 있지만, 장기적으로 AI가 인류의 공존과 번영에 기여할 수 있는 방향을 제시할 것이다.
기술과 윤리, 그리고 인간 중심의 AI
2025년의 공동 선언은 단지 문서 한 장의 의미를 넘어선다. 그것은 인류가 기술을 어떻게 대할 것인가라는 근본적인 질문에 대한 첫 번째 국제적 응답이다. 물론, 모든 나라가 같은 속도로 움직이지는 않을 것이다. 그러나 방향이 같다면 속도는 조율할 수 있다.
미국과 영국의 불참은 아쉽지만, 논의는 계속되어야 한다. 오히려 이 갈등은 향후 더 폭넓고 깊이 있는 논의를 위한 촉진제가 될 수도 있다. 궁극적으로 우리는 AI라는 도구를 누구를 위해, 어떻게 사용할 것인지에 대한 공동의 상상력을 나눠야 한다.
기술이 인간을 지배하는 시대가 아니라, 인간이 기술을 설계하고 조정하는 시대를 만들기 위한 첫걸음은 바로 지금, 우리 모두의 협력에서 시작된다.