AI 핵심 요약
beta- 미국과 중국이 6일 AI 무한 경쟁의 군사 위기 방지를 위해 안전장치 검토했다.
- 다음주 베이징 정상회담에 AI 위험 통제 의제를 포함하고 정례 대화 채널 구성한다.
- 협의는 AI 오작동·자율무기·오픈소스 공격 등 안보 리스크 관리에 초점을 맞춘다.
!AI가 자동 생성한 요약으로 정확하지 않을 수 있어요.
[서울=뉴스핌] 오상용 기자 = 인공지능(AI) 무한 경쟁이 통제 불가능한 군사적 위기를 초래하는 것을 막기 위해 미국과 중국이 안전장치 마련을 검토하고 있다고 월스트리트저널(WSJ)아 현지시간 6일 보도했다.
복수의 소식통에 따르면 두 나라는 이 문제를 다음주 베이징에서 열릴 양국 정상회담 의제에 포함하는 방안을 검토중이다. 후속 논의가 이어지면 양국간 군사부문의 AI 위험성을 통제하기 위한 '정례 AI 대화 채널(협의체) '구성으로 나아갈 수 있다.
신문은 AI 협의체 구성이 공식화할 경우, 트럼프 행정부 출범 이후 처음으로 미·중 간 본격적인 AI 대화의 장이 마련되는 것이라고 의미를 부여했다. 또한 이 경우 AI 모델 개발 경쟁이 예측 불가능한 위기를 촉발할 수 있다는 점을 두 나라가 공통적으로 인식하고 있음을 보여주는 상징성을 띠게 된다.
앞서 바이든 행정부 때도 미국과 중국 사이에 AI 관련 대화가 시작됐지만, 성과는 미미했다.
현재 검토중인 협의 구조는 일회성이 아닌 정례 대화 체계다. 다뤄지게 될 의제는 ▲예기치 않은 AI 시스템 오작동 ▲자율 무기 체계 ▲강력한 오픈소스 (AI) 도구를 사용하는 비국가 행위자의 공격에 의해 발생하는 위험 등 AI의 발전이 야기할 수 있는 안보 리스크에 대한 관리에 초점이 맞춰질 전망이다.
미국 측에서는 스콧 베센트 재무장관이 협의를 주도하고 있다. 중국 측은 아직 공식 카운터파트를 지정하지 않은 상태다. 다만 랴오민 재정부 부부장이 관련 논의에 일부 참여한 것으로 전해졌다.
양국은 이미 군사 핫라인 등 위기 대응을 위한 소통 채널을 보유하고 있다. 그럼에도 그간 크고 작은 군사적 마찰이 있ㅎ었다. 지난 2001년 중국 하이난섬 인근 상공에서 벌어진 미 해군 정찰기와 중국 전투기의 충돌, 그리고 2023년 중국 정찰풍선 사태 등이 대표적이다.
전문가들은 새로운 'AI 핫라인' 구축 논의 역시 실제 작동 여부가 관건이라고 보고 있다.
AI 안전장치를 마련하기 위한 협력이 정상급 의제로 다시 부상한 것은 AI 기술이 갖는 전략적 위험이 그만큼 커졌음을 반영한다. 2023년 미·중 정상은 AI를 핵무기 지휘통제 체계와 연계하지 않기로 합의했고, 2024년에는 핵무기 발사 결정은 인간이 통제한다는 원칙을 재확인했다.
다만 기존 대화는 깊이가 부족했다는 평가다. 중국이 외교부 중심으로 협의를 운영하면서 기술적 논의가 제한됐다는 지적이 나온다.
최근에는 정부 간 협의가 아닌, 민간 비공식 대화도 이어지고 있다. 마이크로소프트에서 최고연구책임자(CRO)를 지냈던 크레이그 먼디가 이끄는 미국 측 인사들과 중국 칭화대 및 주요 AI 기업 관계자들이 참여해 '가드레일(안전장치)' 설계와 첨단 AI 모델 안전성 문제를 논의 중이다.
전문가들은 AI가 글로벌 경제 전반의 핵심 인프라로 자리 잡고 있다는 측면에서도, 양국간 AI를 의제로 한 대화의 필요성이 커지고 있다고 본다.
아스펜 전략그룹의 안야 마누엘 사무총장은 "AI는 글로벌 상거래의 운영체제로 자리 잡고 있다"며 "중국과 무역을 논하면서 AI를 빼놓고 이야기하는 것은 불가능하다. AI는 의약품을 설계하고, 코드를 작성하며, 선박 운항을 최적화하고, 공장을 관리하는 핵심 기술"이라고 말했다.
자문회사 DGA그룹의 수석 고문인 마이런 브릴리언트는 중국 역시 협력 논의에 열려 있다고 했다. 그는 "중국은 미국과 치열한 기술 경쟁을 이어가더라도, 글로벌 충격이나 사이버 오용을 방지하기 위한 안전 규범과 기술적 통제 장치를 협의하는 데 열려 있다는 입장"이라고 전했다.

osy75@newspim.com













