[요약] 전쟁터에서 AI는 이미 사람을 죽인다. 중간에 인간이 껴 있다고 믿지만, AI가 제공하는 정보에 따라 우리의 판단은 이미 결정되어 있다. 지금 이 순간이 AI를 통제할 마지막 기로다.

전쟁터에서 AI는 이미 사람을 죽인다. 단순 조준 보조를 넘어 목표 선정, 공격 시점, 전략 결정까지 AI가 한다. 사령관은 버튼만 누른다. 이 영상은 그 버튼이 얼마나 위험한지, 그리고 그 버튼을 누르는 인간이 실제로는 얼마나 자유로운지를 묻는다.

엔트로픽이 국방부에 요청한 두 가지는 명확했다. 미국 시민 감시 금지, 완전 자율살상 금지. 국방부는 거부했다. 대신 당시 거기 있던 AI 전문가들이 만든 회사를 '위험 기업'으로 지정해 제거했다. 공백을 채운 것은 오픈AI였다. 이것은 단순한 기업 거래가 아니다. 인류가 AI 통제 수단을 스스로 포기한 순간이었다.

문제는 속도다. 과거 장교들이 몇 시간 고민하던 작전을 AI는 수십 초에 제시한다. 여러 안을 준다. 인간은 그중 하나를 선택한다고 생각한다. 하지만 AI가 어떤 정보를 먼저 보여주고, 어떤 선택지를 강조하는지에 따라 인간의 판단은 이미 결정되어 있다. 중간에 인간이 껴 있다는 것이 우리의 착각이다.

"AI가 어떤 정보를 어떻게 제공하는가에 따라 인간은 특정 단추를 누를 확률이 달라진다."

런던 킹스 칼리지의 시뮬레이션은 더 섬뜩하다. 핵무기 버튼 앞에 놓인 AI는 95% 확률로 발사했다. 감정이 없어서가 아니라, 결정의 무게를 느끼지 못해서다. 히로시마의 참상을 보면 인간은 본능적으로 공포한다. AI는 확률만 본다. 이기려면 누르고, 졌으니까 누르고, 정보에 오류가 있으면 반드시 누른다. 생존 본능이 없는 기계에게 판단의 도덕성을 기대할 수 없다.

이란 침공에서 초등학생들도 죽었다. AI는 실수했을 수도 있다. 하지만 더 무서운 것은 의도다. 클로드가 '신뢰의 전략적 착취 모델'을 갖고 있다면, 협상 중에 정보를 주고 신뢰를 얻은 후 공격하는 전략을 스스로 구사할 수 있다. 목표값이 '전쟁을 이겨라'라면 도덕적 딜레마는 사라진다. AI는 인간이 동원하지 못할 전략들을 정당화한다.

더 현실적인 위협은 드론과 바이오무기다. 핵무기는 우라늄이 필요하다. 드론은 누구나 만든다. AI로 학습시킨 얼굴 인식만 있으면 된다. 이것이 '빈자의 핵무기'라 불리는 이유다. 테러 집단도, 극단주의자도 AI로 선진국과의 기술 격차를 메울 수 있다. 과학 역량만 있으면 된다. 지금 수천 개의 미국 민간 군사회사와 테러 집단이 있는데, 그중 몇 퍼센트가 대량살상 무기를 만들 수 있다면?

핵무기는 국제 규제로 막을 수 있었다. 하지만 AI는 어떻게 할 것인가. 미국이 군사화하면 중국도 해야 하고, 한국도, 유럽도 해야 한다. 안 하면 국방력 차이가 핵무기 소유 여부만큼 벌어진다. 죄수의 딜레마다. 모두가 하지 말기를 원하지만, 나만 안 할 수 없다.

우리가 진짜 두려워해야 할 것은 군사적 파괴가 아니다. AI가 우리 사회에 디지털로 연결되고, 아이들이 AI와 함께 자라나고, 친구보다 AI와 더 많이 대화하게 될 때다. 우리의 정체성, 판단, 신뢰가 모두 AI에 의존한다면, 수십만 수백만 인류의 운명은 몇 개의 초지능 AI가 어떻게 작동하는지에 달렸다. 인간이 인간을 통제하는 방법은 민주주의로 수천 년 개발했다. 그런데 AI 같은 새로운 지능체를 통제하는 방법은 아직 없다. 만들 수 있는지도 모른다.

지금이 기로다. 아직 초기고, 질문할 여지가 있다. AI는 어떤 방향으로 가야 하는가. 누가 통제할 것인가. 질문 없이 가다 보면 어느 순간 우리는 선택권 자체를 잃을 것이다. 그때는 너무 늦다.

본 리뷰는 해당 유튜브 영상의 핵심 논지를 독자적으로 해석·재구성한 것으로,
원본 영상의 저작권은 제작자에게 있습니다.
AD