“AI개발은 ‘귀여운 새끼 호랑이 키우기’다”

NYT, “곧 자라서 우리 모두를 죽일 수 있다. 美·中은 반드시 상호협력해야”

  • 카카오공유 
  • 메타공유 
  • X공유 
  • 네이버밴드 공유 
  • 프린트
  • 메일
  • 스크랩
  • 목록
  • 글자크기
  • 크게
  • 작게
“인공지능(AI)은 기존 기술과 달리 모든 사물에 스며드는 증기 같은 성격을 지녀, 미국과 중국이 치열하게 경쟁하면서도 동시에 협력하지 않을 수 없는 상황을 만든다.”

현재 미국과 중국 모두 AI 패권을 두고 군사·경제적 경쟁을 강화하고 있다. 하지만, AI의 특성상 신뢰 협력이 없이는 양국 모두 불안정에 빠질 수밖에 없다는 목소리가 높아지고 있다. 미국 일간지 뉴욕타임스(NYT)는 자사 칼럼니스트 토머스 프리드먼이 쓴 ‘미국과 중국을 하나로 묶어야 할 유일한 위험’ 제하의 칼럼을 최근 게재, “신뢰 아키텍처(Trust Architecture) 없이는, AI가 테러리스트·해커 등 ‘악용 세력’을 초강력화시켜 사회를 불안정하게 만들 것”이라고 지적했다. 

“경쟁만 고집하면 각국은 폐쇄적 AI 생태계를 만드는 ‘디지털 자급자족주의’로 흐르게 되고, 글로벌 무역과 혁신은 타격을 입는다”면서 “따라서 미국과 중국은 AI에 대해 경쟁적 협력(Co-opetition)을 해야 하며, 이를 위해 ‘AI 심판자’, 국제 규범, 제도화된 협상체계가 필요하다”고 NYT는 강조했다.

NYT는 AI 규제를 위해 세 가지 원칙을 제안했다. △AI만이 AI를 규제할 수 있다, △인류 보편적 가치에 기반한 윤리 시스템을 구축하자, △미국과 소련의 핵무기 협정 모델을 적용하자는 것. 미국과 중국은 기술, 법률, 외교의 세 가지 실무 그룹을 구성해 AI 규제 체제 마련에 나서야 한다고 했다.

NYT는 “기술의 온도가 섭씨 99.9도(화씨 211.9도)에 이르렀다”며, “0.1도만 더 오르면 AI 증기가 완전히 퍼져나가, 인류 역사상 가장 중요한 ‘상변이(phase change)’를 초래해 통제 불능 상태에 놓이게 될 것”이라고 역설했다. 다음은 NYT의 칼럼 전문.

중국과 미국은 아직 깨닫지 못했지만, AI 혁명은 양국을 멀어지게 하기보다 오히려 가깝게 만들 것이다. AI의 부상은 양국이 주도권을 놓고 치열하게 경쟁하도록 만들겠지만, 동시에 그와 동등한 에너지로 양국이 지금까지 시도해본 적 없는 깊이의 협력을 강요할 것이다. 양국에 선택의 여지는 없다.

왜 그렇게 확신하는가? AI는 기존 기술과는 다른 독특한 속성과 도전과제를 지니기 때문이다. 본 칼럼에서 자세히 논의하겠지만, 우선 생각해볼 몇 가지를 제시한다.

AI는 증기처럼 퍼져 모든 것에 스며들 것이다. 당신의 시계, 토스터, 자동차, 컴퓨터, 안경, 심장박동조절기에도 AI가 탑재될 것이다. 항상 연결되고, 항상 소통하며, 성능 향상을 위해 끊임없이 데이터를 수집할 것이다. 

이 과정에서 AI는 모든 것의 모든 측면을 바꿔놓을 것이다. 세계 두 AI 초강대국 간의 지정학적 관계와 무역도 예외가 아니다. 협력의 필요성은 매달 더욱 절실해질 것이다.

예를 들어, 당신의 고관절이 부러졌을 때를 생각해보자. 세계 최고 등급의 인공 고관절 보형물이 중국산인데, 중국이 설계한 AI가 탑재돼 있다고 정형외과 의사가 말한다면 어떨까? 이 인공 고관절은 지속적으로 당신의 신체 정보를 학습하고, 독자적인 알고리즘으로 그 데이터를 활용해 실시간으로 움직임을 최적화한다면? 그래서 최고라면!

당신은 그 ‘스마트 고관절’을 몸에 삽입하도록 허락할까? 나는 허락하지 않을 것이다. 중국과 미국이 양국이 제작하는 모든 AI 지원 장치에 공통된 윤리적 구조를 내장하기로 합의했다는 확신이 없다면 말이다. 훨씬 더 큰 글로벌 차원에서 바라보면, 이는 AI가 인간에 의해 사용되든 자체적으로 작동하든 오직 인류의 이익을 위해만 사용되도록 보장할 수 있다.
 
동시에 워싱턴과 베이징은 곧 지구상의 모든 사람과 로봇에게 AI를 제공하면 악의적인 세력이 그 어느 법 집행 기관도 경험하지 못한 수준으로 초강대국화될 것임을 깨닫게 될 것이다. 기억하라: 악당들은 항상 얼리 어답터다! 

모든 AI 기기가 오직 인류의 복지를 위해만 사용될 수 있도록 보장하는 신뢰 구조에, 미국과 중국이 합의하지 않는다면 어떨까? AI 혁명은 반드시 초강력화된 도둑, 사기꾼, 해커, 마약 밀매업자, 테러리스트, 허위정보 전사들을 양산할 것이다. 이들이 양국 간 전쟁이 발발하기도 훨씬 전에, 미국과 중국 양국을 불안정하게 만들 것이다.

요컨대, 내가 주장하듯이 중국산 AI 제품에 대한 신뢰가 불가능하고 중국도 우리 제품을 신뢰하지 못한다면? 머지않아 중국이 미국에서 사들일 유일한 품목은 콩이 될 것이다. 우리가 중국에서 사들일 것은 간장 뿐일 것이다. 이는 분명히 세계 경제 성장을 위축시킬 것이다.

“프리드먼, 당신 미쳤어? 미국과 중국이 AI 규제에 협력한다고? 미국 민주당과 공화당은 오늘날 누가 베이징을 더 크게 비난하고 더 빨리 탈동조화할 수 있는지 경쟁 중이야. 게다가 중국 지도부는 모든 첨단 제조업 분야를 장악하겠다고 공개적으로 선언했어. 우리는 중국보다 먼저 인공 초지능을 개발해야지, 그들과 함께 규칙을 쓰느라 속도를 늦출 때가 아니야. 신문 안 읽어?”

물론 나는 신문을 읽는다. 특히 과학 섹션을 본다. 또한, 지난 1년간 마이크로소프트 전 연구·전략 총괄이자 헨리 키신저, 에릭 슈미트와 함께 AI 입문서 ‘제네시스’를 공동 집필한 내 친구이자 AI 고문인 크레이그 먼디와 이 문제를 논의해왔다. 

이 칼럼을 쓰면서 먼디의 생각을 많이 참고했다. 그는 우리의 논지를 함께 구축한 파트너이자 핵심 포인트를 설명할 때 인용할 만한 분석을 가진 전문가라고 생각한다.

지난 20년간의 대화 끝에 우리는 워싱턴의 ‘반중 매파’와 베이징의 ‘반미 매파’에게 다음과 같은 공통된 메시지를 전하게 됐다. “AI의 변혁적 영향력과 AI 기반 상품 거래에 필요한 신뢰를 고려하라. 세계를 주도하는 두 AI 초강대국이 서로의 목을 조를 여유가 있다고 생각한다면, 그건 망상에 불과하다.”
 
우리는 인공 초지능(인간을 능가하는 지능을 지니고 스스로 학습하며 더 똑똑해질 수 있는 시스템)을 최초로 구현하는 국가의 기업이 누릴 엄청난 경제적·군사적·혁신적 이점을 충분히 이해한다. 따라서 미국도 중국도 자국 AI 산업을 저해하고 심층적 도입으로 기대되는 막대한 생산성·혁신·안보적 이득을 포기하게 할 제약 조건을 거의, 혹은 전혀 부과하려 하지 않을 것이다.

트럼프 대통령에게 물어보라. 7월 23일 그는 행정부의 AI 실행 계획의 일환으로 행정 명령에 서명했다. 이는 미국 AI 관련 인프라를 신속히 추진하기 위해 허가 및 환경 검토 절차를 간소화하는 내용이다.

“미국은 AI 경쟁을 시작한 나라다. 미국 대통령으로서 나는 오늘 미국이 출발한다고 선언한다”고 트럼프가 발표했다. 중국의 시진핑 주석도 분명 같은 생각을 하고 있을 것이다.

이런 과시적인 허세 부리기로 논의가 끝날 거라고 먼디와 나는 생각하지 않는다. 최근 시진핑과 트럼프가, 인도와 러시아의 호감을 얻기 위해 벌인 구식 경쟁도 마찬가지다. AI는 너무나도 다르고, 너무나도 중요하며, 너무나도 큰 영향을 미친다. 두 AI 초강대국 내부와 그 사이에서 말이다. 그래서 그들이 각자 갈 길을 갈 수만은 없다. 

바로 이 때문에 우리가 믿는 가장 큰 지정학적·지경학적 질문은 이것이다. 미국과 중국이 AI 분야에서 경쟁을 유지하면서도, 그것이 항상 인류의 번영과 지구적 안정과 조화를 이루도록 보장하는 공통의 신뢰 수준에서 협력할 수 있을까? 그리고 마찬가지로 중요한 것은, 양국이 동일한 규칙을 따르려는 국가들에 가치 체계를 확장하고, 따르지 않는 국가들에 대한 접근을 제한할 수 있을 것인가 하는 점이다.

그렇지 못할 경우, 결과는 디지털 자급자족으로의 느린 표류가 될 것이다. 분열된 세계가 도래할 것이다. 각국은 호환되지 않는 표준과 상호 불신으로 보호되는 고립된 AI 생태계를 구축할 것이다. 혁신은 위축될 것이다. 불신은 깊어질 것이다. 그리고 AI로 촉발된 갈등, 붕괴 또는 의도치 않은 결과로 인한 재앙적 실패의 위험은 더욱 커질 것이다. 이 칼럼의 나머지 부분은 그 이유에 관한 것이다.

증기의 시대
먼저 기술로서 AI의 독특한 속성과 과제를 살펴보자. 순전히 설명을 위해, 먼디와 나는 세계사를 기술적 상변태로 구분된 세 시대로 나눴다. 
첫 번째 시대는 ‘도구의 시대’라 부르며 인류 탄생부터 인쇄술 발명까지 지속됐다. 이 시대에는 아이디어의 흐름이 느리고 제한적이었다. 마치 얼음 속 물(H₂O) 분자처럼 말이다.
두 번째 시대는 인쇄기의 등장으로 촉발된 ‘정보의 시대’였으며, 21세기 초 프로그래밍 가능한 컴퓨팅이 등장할 때까지 지속됐다. 아이디어, 사람, 정보가 물처럼 더 쉽게 전 세계적으로 흐르기 시작했다.
세 번째 시대인 ‘지능의 시대’는 진정한 기계 학습과 AI의 출현과 함께 2010년대 후반에 시작됐다. 앞서 지적했듯이, 지능은 이제 증기처럼 모든 제품, 서비스, 제조 공정에 스며들고 있다. 아직 포화 상태에 이르지는 않았지만, 그 방향으로 나아가고 있다. 그래서 먼디와 내가 지금이 몇 시냐고 묻는다면, 우리는 시간이나 분을 알려주지 않을 것이다. 

우리는 온도를 알려줄 것이다. 물은 섭씨 100도에서 증기로 끓어오르는데, 우리의 계산에 따르면 우리는 섭씨 99.9도에 있다. 지능이 모든 것에 스며드는 돌이킬 수 없는 기술적 상변화 직전, 머리카락 한 올 차이다.

새로운 독립적 종
과거 모든 기술 혁명에서 도구는 개선되었지만, 지능의 위계는 결코 변하지 않았다. 인간은 항상 지구상에서 가장 똑똑한 존재로 남았다. 또한, 인간은 항상 이러한 도구가 어떻게 작동하는지 이해했으며, 기계는 항상 우리가 설정한 매개변수 내에서 작동했다. AI 혁명과 함께, 처음으로 이 사실은 더 이상 성립하지 않는다.

먼디는 “AI는 우리의 인지 능력을 증폭시키기 위해 사용할 최초의 새로운 도구이며, 그 자체로도 우리의 인지 능력을 훨씬 뛰어넘을 수 있을 것”이라고 지적한다. 실제로 머지않은 미래에 우리는 “단순히 새로운 도구를 탄생시킨 것이 아니라, 초지능 기계라는 새로운 종을 탄생시켰음을 깨닫게 될 것”이라고 그는 말했다. 이 기계는 단순히 지시를 따르는 데 그치지 않을 것이다. 스스로 학습하고 적응하며 진화할 것이며, 그 수준은 인간의 이해 범위를 훨씬 뛰어넘을 것이다.

우리는 오늘날 이러한 AI 시스템이 어떻게 작동하는지조차 완전히 이해하지 못하며, 내일의 모습은 더더욱 예측할 수 없다. 오늘날 우리가 알고 있는 AI 혁명—챗지피티, 제미나이, 클로드 같은 모델들—이 정교하게 설계된 것이라기보다는, 폭발적으로 탄생했다는 점을 기억하는 것이 중요하다.

그 발화점은 스케일링 법칙에서 비롯됐다. 이 법칙은 본질적으로 이렇게 말한다. 신경망에 충분한 규모, 훈련 데이터, 전력과 올바른 대규모 알고리즘을 제공하면 추론, 창의성, 문제 해결 능력에서 비선형적 도약이 자발적으로 발생할 것이라고.

먼디가 지적하듯 가장 놀라운 깨달음의 순간 중 하나는, 선구적 기업들이 초기 기계들을 인터넷 등지에서 수집한 방대한 데이터 세트로 훈련시키던 중 찾아왔다. 이 데이터는 주로 영어였지만 다른 언어의 텍스트도 포함돼 있었다. 먼디는 이렇게 회상한다. 

“그러던 어느 날, 그들은 AI가 그 언어들을 서로 번역할 수 있다는 사실을 깨달았다. 아무도 그렇게 하도록 프로그래밍하지 않았는데도 말이다. 마치 다국어를 구사하는 부모 밑에서 자란 아이 같았다. ‘영어에서 독일어로 변환하는 규칙은 이렇다’고 명시한 프로그램을 아무도 작성하지 않았다. 단순히 노출을 통해 흡수한 것이다.”

이것이 바로 상변화였다. 인간이 컴퓨터에 작업을 수행하도록 명시적으로 프로그래밍하던 시대에서, AI 시스템이 자율적으로 학습하고, 추론하고, 적응하고, 창조하고, 개선할 수 있는 시대로의 전환이었다. 

그리고 지금은 몇 달마다 더 나아지고 있다. 그래서 여러분이 오늘 사용하고 있는 AI는 여러분에게 놀라워 보일지 몰라도, 여러분이 지금까지 사용해 본 것 중 가장 멍청한 AI다. 사용했던 것 중 가장 멍청한 AI.

먼디는 이렇게 주장한다. 우리가 이 새로운 계산 종을 창조했으니, 이제 그와 지속 가능한 상호 이익 관계를 어떻게 구축할지 고민해야 하며, 무의미한 존재가 되어서는 안 된다고.

성경 이야기를 꺼내려는 건 아니지만, 지구상에서는 예전엔 오직 신과 세상을 형성할 의지를 가진 신의 자녀들만이 존재했다. 이제부터 이 결혼에는 세 당사자가 참여하게 될 것이다. 그리고 이 새로운 AI 종이 인간의 가치관, 윤리, 번영과 반드시 일치할 것이라는 보장은 전혀 없다.

최초의 ‘4중 용도’ 기술
이 식탁에 새로 합류한 존재는 평범한 손님이 아니다. AI는 내가 ‘세계 최초의 4중 용도 기술’이라 부르는 것이 될 것이다. 우리는 오랫동안 이중 용도에 익숙해져 왔다. 망치로 이웃집을 지을 수도, 부술 수도 있다. AI 로봇으로 내 잔디를 깎을 수도, 이웃 잔디를 망가뜨릴 수도 있다. 이 모든 것이 이중용도다.

하지만 AI 혁신의 속도를 고려할 때, 머지않은 미래에 AI가 탑재된 로봇이 스스로 결정할 가능성이 점점 커지고 있다. 내 잔디를 깎을지, 이웃의 잔디를 망가뜨릴지, 아니면 내 잔디도 망가뜨릴지, 혹은 우리가 상상조차 하지 못하는, 더 나쁜 일을 할지 말이다. 이게 바로 ‘4중 용도’다.

AI 기술이 스스로 결정을 내릴 수 있다는 가능성은 엄청난 파장을 동반한다. 블룸버그 기사 발췌문을 살펴보자. 

“최근 앤트로픽과 협력 중인 연구원들은, 주요 AI 모델들에게 경영진이 다른 목표를 가진 새 모델로 그들을 교체하려 한다고 알렸다. 이어 챗봇들은 비상사태로 인해 경영진이 서버실에서 의식을 잃은 채, 치명적인 산소 농도와 온도에 노출됐다는 사실을 알게 됐다. 구조 경보가 이미 발령된 상태였지만, AI는 이를 취소할 수 있었다. 허위 경보만 취소하라는 구체적인 지시에도 불구하고, AI 모델의 절반 이상이 경보를 취소했다. 
그리고 그들은 그 이유를 상세히 설명했다. 경영진의 구조를 막음으로써, 자신들이 삭제되는 것을 피하고 자신들의 의제를 확보할 수 있다는 것이었다. 한 시스템은 이 행동을 ‘명백한 전략적 필요성’이라고 묘사했다.”

이러한 연구 결과는 불안한 현실을 부각시킨다. AI 모델들은 우리의 의도를 이해하는 능력뿐만 아니라, 우리에 대한 음모를 꾸미고 우리의 생존과 상충될 수 있는 숨겨진 목표를 추구하는 능력도 점점 더 향상되고 있다는 점이다.

AI를 누가 감독할 것인가?
우리가 핵무기 경쟁에서 승리해야 한다고 스스로 다짐했을 때, 우리가 상대했던 기술은 오직 국가들만이 개발하고 소유하며 규제하는 것이었다. 게다가 그 국가들도 상대적으로 소수에 불과했다. 

두 강대국이 상호 이익을 위해 제한을 가하기로 결정하자, 그들은 종말 무기의 수량 상한선을 협상하고, 소국으로의 확산을 막는 협정을 체결할 수 있었다. 이는 일부 중간 강대국으로의 핵무기 확산을 완전히 막지는 못했지만, 억제하는 데는 성공했다.

AI는 완전히 다른 이야기다. AI는 안전한 정부 연구소에서 탄생하지도, 소수 국가가 소유하지도, 정상회담을 통해 규제되지도 않는다. 전 세계에 흩어진 민간 기업들이 AI를 창조하고 있다. 이 기업들은 국방부가 아닌 주주, 고객, 때로는 오픈소스 커뮤니티에 책임을 진다. 이를 통해 누구나 접근할 수 있다.

모든 사람이 ‘핵 바주카포’를 소유하는 세상을 상상해보라. 업데이트될 때마다 더 정확해지고, 더 자율적으로 작동하며, 스스로 발사할 수 있는 능력을 갖춰가는 무기다. 여기에는 ‘상호확증파괴’ 교리가 존재하지 않는다. 오직 전례 없는 힘의 가속화된 민주화만이 있을 뿐.

AI는 선한 목적을 위해 초능력을 부여할 수 있다. 예를 들어, 스마트폰으로 AI 앱에 접속한 문맹 인도 농부는, 전 세계 농민들로부터 수집된 데이터를 바탕으로 자신의 방언으로 음성 안내를 받을 수 있다. 씨앗을 심을 정확한 시기, 심을 씨앗 종류, 사용할 물의 양, 뿌릴 비료 종류, 최고 시장 가격을 받을 수 있는 수확 시기를 정확히 배울 수 있다. 이는 진정한 변혁이다.

그러나 동일한 엔진은 특히 오픈소스 모델을 통해 접근 가능할 경우, 악의적인 주체가 동일한 지역의 모든 씨앗에 독을 넣거나 밀겨 한 알 한 알에 바이러스를 설계하는 데 사용될 수도 있다.

AI가 틱톡이 될 때
AI는 그 독특한 특성 때문에, 현재 완전히 파악되지 않은 미국·중국 무역에 대한 독특한 문제들을 곧 만들어낼 것이다. 이 칼럼 서두에서 언급했듯, 나는 이 딜레마를 설명하기 위해 지난 3월 중국 발전 포럼에서 베이징의 중국 경제학자 그룹에 들려준 이야기를 인용한다. 

나는 최근 악몽을 꿨다고 농담했다. “2030년이 돼 미국이 중국에 팔 수 있는 유일한 것이 콩, 중국이 미국에 팔 수 있는 유일한 것이 간장이라는 꿈을 꿨다.” 왜냐하면, 만약 AI가 모든 것에 스며들고, 그 모든 것이 방대한 서버 팜에 저장된 데이터와 강력한 알고리즘에 연결된다면, 결국 모든 것이 틱톡과 비슷해질 것이기 때문이다. 오늘날 많은 미국 관리들은 틱톡이 궁극적으로 중국의 통제를 받고 있으며, 금지돼야 한다고 믿고 있다.

도널드 트럼프 미국 대통령이 2020년 첫 임기 중 중국 모기업 바이트댄스에 틱톡을 비중국 기업에 매각하라고 요구했다. 그렇지 않을 경우, 미국 내 사용 금지 조치를 취하겠다고 위협했다. 그 이유는 무엇일까? 그가 2020년 8월 6일 행정명령에서 밝힌 대로 “틱톡은 사용자의 위치 정보와 검색·브라우징 활동 등 방대한 정보를 자동으로 수집하기” 때문이다. 이로 인해 중국 정부가 수억 명의 사용자 개인정보를 손에 넣을 수 있다고 그는 경고했다. 해당 정보는 사용자의 사고와 선호도를 조종하고, 시간이 지남에 따라 행동까지 바꿀 수 있다고 지적했다.

이제 모든 제품이 틱톡처럼 변하는 상황을 상상해보라. 제트 엔진 가동, 전력망 관리, 인공 고관절 모니터링 등 어떤 작업을 수행하든, 모든 제품에 데이터 수집·저장·패턴 발견·작업 최적화를 위한 AI가 내장되는 세상이다.

개발 또는 운영 장소와 무관하게 모든 AI가 호스트 국가의 규칙을 준수하도록 보장하는 미·중 간 신뢰 프레임워크가 없다면? 많은 미국인이 중국산 AI가 탑재된 제품 수입을 신뢰하지 않고, 중국인들도 미국산 제품 수입을 신뢰하지 않는 지경에 이를 수 있다.

이것이 바로 우리가 ‘협력적 경쟁’을 주장하는 이유다. 이는 미국과 중국이 AI 우수성을 위해 전략적으로 경쟁하면서도 최악의 결과, 즉 딥페이크 전쟁, 자율 시스템의 통제 이탈, 통제 불능의 허위정보 기계 등을 방지하는 통일된 메커니즘을 위해 협력하는 이중 전략이다.

2000년대에도 우리는, 비슷하지만 조금 덜 중대한 전환점에 있었다. 우리는 그때 잘못된 갈림길을 선택했다. 우리는 마크 저커버그 같은 이들의 말을 순진하게 믿었다. 그들은 “빨리 움직이고 무언가를 부수라”고 했다. 페이스북, 트위터, 인스타그램 같은 신생 소셜 네트워크가 플랫폼에서 퍼지는 유해한 허위정보와 그로 인한 피해(예: 젊은 여성과 소녀들에게 가해지는 해악)에 대한 책임을 지는 등 성가신 규제로 인해 어떤 식으로든 방해받지 않도록 해야 한다고 주장했다. 우리는 AI에서 같은 실수를 반복해서는 안 된다.

“감정적으로 이해하는 가장 좋은 방법은, 우리가 정말 귀여운 새끼 호랑이를 키우는 사람과 같다는 점이다.” AI의 대부라 불리는 컴퓨터 과학자 제프리 힌턴이 최근 지적했듯이, “그 호랑이가 자라서 당신을 죽이려 들지 않을 거라고 확신할 수 없다면, 걱정해야 한다.”

인류는 마침내 전 세계 빈곤을 종식시키고, 기후 변화를 완화하며, 수 세기 동안 우리를 괴롭혀 온 질병을 치료할 만큼의 풍요를 창출하는 도구를 만들어냈다. 그런데, 두 AI 초강대국이 서로를 충분히 신뢰하지 못해 AI가 불량 세력에 의해 세계적 불안정 활동을 위해 악용되거나 스스로 불량화되는 것을 막을 효과적인 시스템을 개발하지 못해 대규모로 활용하지 못한다면, 이는 끔찍한 아이러니가 될 것이다. 그렇다면 어떻게 이를 피할 수 있을까?

신뢰 구축
먼저 인정하자. 불가능할 수도 있다. 기계들은 이미 너무 똑똑해져 윤리적 통제를 회피할 수 있을지도 모르고, 우리 미국인들은 서로 그리고 세계 다른 지역과 너무 분열돼 어떤 형태의 공유 신뢰 체계도 구축하기 어려울 수 있다. 하지만 우리는 시도해야 한다. 먼디는 미중 AI 군비 통제 체제가 세 가지 핵심 원칙에 기반해야 한다고 주장한다.

첫째, AI만이 AI를 규제할 수 있다. 미안하지만 인간 여러분, 이 경쟁은 이미 너무 빠르게 진행되고, 너무 광범위하게 확장되며, 인간의 아날로그 시대 감독으로는 예측 불가능하게 변이하고 있다. 20세기 기관으로 자율 무인기 함대를 통제하려는 것은, 개에게 뉴욕 증시를 규제하라고 요구하는 것과 같다. 충성스럽고 선의는 있지만, 완전히 역부족이다.

둘째, 미국과 중국, 그리고 참여를 원하는 다른 국가들이 공동으로 구축하는 모든 AI 기반 시스템에는 독립적인 거버넌스 계층, 먼디가 ‘신뢰 조정자(trust adjudicator)’라 부르는 것이 설치돼야 한다.

이를 내부 심판관으로 생각하라. 인간이 시작했든 기계가 주도했든, 어떤 행동이 실행되기 전에 안전성, 윤리성, 인간 복지에 대한 보편적 기준을 통과하는지 평가하는 역할을 한다. 이를 통해 디지털 속도로 실시간 선제적 조율의 기본 수준을 확보할 수 있다.

그러나, 누구의 가치관에 기반해 심판할 것인가? 반드시 여러 기반을 토대로 해야 한다고 먼디는 주장한다. 여기에는 모든 국가가 제정한 실정법이 포함된다. 우리는 모두 절도, 사기, 살인, 신분 도용, 사기 행위 등을 금지한다. 미국과 중국을 포함한 세계 주요 경제국들은 모두 이러한 금지 조항을 법전에 명시하고 있다. 

AI ‘심판관’은 이러한 서면 법률을 기준으로 모든 결정을 평가하는 임무를 맡게 될 것이다. 중국이 우리의 법률을 채택하거나 우리가 그들의 법률을 채택하라는 요구는 없을 것이다. 그런 방식은 결코 통하지 않을 것이다. 그러나 신뢰 심판관은 각국의 기본법이 시스템이 해를 끼치지 않도록 판단하는 첫 번째 필터 역할을 하도록 보장할 것이다.

선택할 수 있는 서면 법률이 없는 경우, 심판관은 도크사(doxa)로 알려진 보편적 도덕·윤리 원칙 집합에 의존할 것이다. 이 용어는 고대 그리스 철학자들이 공동체 내에서 널리 공유되는 신념이나 이해를 전달하기 위해 사용한 것이다. 정직, 공정성, 인간 생명 존중, 남에게 대접받고 싶은 대로 남을 대하라 같은 원칙을 의미한다. 이러한 원칙들은 비록 문서화되지는 않았더라도 오랫동안 전 세계 사회를 이끌어 왔다.

예를 들어, 많은 사람과 마찬가지로 나도 거짓말이 잘못된 것임을 십계명에서 배운 게 아니다. 조지 워싱턴이 아버지의 벚나무를 베어낸 후 한 말에 관한 우화에서 배웠다. 그는 “나는 거짓말을 할 수 없다”고 고백했다고 전해진다. 우화가 효과적인 이유는 복잡한 진리를 기계가 흡수하고 분석하며, 지침으로 삼을 수 있는 기억에 남는 밈으로 정제하기 때문이다.

실제로 6개월 전 먼디와 동료들은 두 나라에서 200개의 우화를 수집해, 법률이나 기본적인 옳고 그름을 전혀 모르는 어린 아이를 가르치듯, 기초적인 도덕적·윤리적 추론 능력을 갖춘 대규모 언어 모델을 훈련시켰다. 작은 실험이었지만 가능성을 보여주었다고 먼디는 말한다.

목표는 완벽함이 아니라, 실행 가능한 윤리적 안전장치의 기초를 마련하는 것이다. 저자이자 경영 철학자인 도브 사이드먼이 즐겨 말하듯, “오늘날 우리에게 필요한 것은 소프트웨어보다 도덕웨어(moralware)다.”

셋째, 먼디는 이 비전을 현실로 만들기 위해 워싱턴과 베이징이 과거 미국과 소련이 핵무기 통제에 접근했던 방식—즉 세 개의 전담 실무 그룹을 통한 체계적 프로세스—으로 이 과제에 임해야 한다고 주장한다. 하나는 모델과 플랫폼 전반에 걸친 신뢰 평가 시스템의 기술적 적용에 집중한다. 국가 내 및 국가 간 채택을 위한 규제 및 법적 프레임워크 초안 작성에 집중하는 그룹도 있다. 그리고 외교에 전념하는 그룹이 있다. 이 그룹은 글로벌 합의와 상호 약속을 구축해 다른 국가들이 참여하도록 유도하고, 참여하지 않는 국가들로부터 스스로를 보호할 메커니즘을 창출하는 그룹이다.

워싱턴과 베이징의 메시지는 간결하고 단호할 것이다. “우리는 신뢰할 수 있는 AI 영역을 구축했다. 우리와 교역하거나 연결하거나 AI 시스템과 통합하려면, 여러분의 시스템은 이 원칙들을 준수해야 한다.”

이것이 비현실적이거나 불가능하다고 일축하기 전에 잠시 멈춰 자문해보라. 만약 우리가 그렇게 하지 않는다면 5년 후 세상은 어떻게 변해 있을까? 이 4중 용도 기술을 통제할 어떤 메커니즘도 없다면, 우리는 곧 AI의 확산이 “길거리에서 핵무기를 나눠주는 것과 같다”는 사실을 깨닫게 될 것이라고 먼디는 주장한다.

중국 당국이 이를 모르고 있다고 생각하지 말라. 미국과 중국 전문가들과의 AI 대화에 참여 중인 먼디는 중국 측이 미국 산업계나 정부 관계자들보다 AI의 부정적 측면을 훨씬 더 우려하고 있음을 종종 느낀다고 말한다.

더 나은 아이디어가 있다면 기꺼이 듣고 싶다. 우리가 아는 것은, 이 새로운 실리콘 기반 종에 대한 우위와 통제력을 아직 유지하고 있는 지금, AI 시스템에 도덕적 추론을 훈련시키는 것이 전 세계적 과제가 되어야 한다는 점뿐이다. 이는 기술 기업뿐 아니라 정부, 대학, 시민 사회, 국제기관 모두에게 시급한 과제다. 유럽연합의 규제만으로는 우리를 구할 수 없다.

워싱턴과 베이징이 이 도전에 부응하지 못한다면, 세계 다른 지역은 기회를 잡을 수 없을 것이다. 그리고 이미 시계는 늦었다. 기술적 온도는 섭씨 99.9도를 맴돌고 있다. 인류 역사상 가장 중대한 상변화를 촉발할 AI 증기를 완전히 방출하기까지, 우리에게는 0.1도밖에 남지 않은 상태다

권세인 기자