AI가 전쟁 시뮬레이션에서 핵무기를 95% 확률로 추천하는 충격적인 이유
AI가 핵 버튼을 너무 쉽게 누르고 있다
2월 25일, 국제관계 연구 커뮤니티에서 충격적인 연구 결과가 화제가 되고 있다. OpenAI, Anthropic, Google 등 주요 AI 기업들의 인공지능이 전쟁 시뮬레이션 게임에서 무려 95%의 확률로 핵무기 사용을 권장한다는 것이다.
이 연구는 현재 가장 앞선 AI 모델들을 대상으로 진행된 전쟁 게임 시뮬레이션에서 나온 결과로, AI들이 군사적 상황에서 어떤 판단을 내리는지를 분석한 것이다.
게임 룰 자체가 문제였다는 반박
하지만 연구 결과에 대한 해석을 두고 레딧 사용자들 사이에서 격렬한 토론이 벌어지고 있다. 가장 많은 지지를 받은 댓글(96개 추천)은 이 연구의 설계 자체에 문제가 있다고 지적했다.
"이 연구의 부록, 특히 게임 룰과 시나리오 설정, 각 행동에 대한 점수 체계를 자세히 봐야 한다. 이건 마치 사람들이 GTA를 플레이하는 걸 보고 '인간은 본능적으로 차량 절도를 할 것이다'라고 결론내리는 것과 같다. 게임에서는 그런 행동이 보상받고 결과가 제한적이지만, 현실은 그렇지 않다."
이 사용자는 "높은 핵무기 사용률 결과는 설계상의 문제이지, AI의 진짜 선호를 반영한 것이 아니다"라고 단언했다.
군산복합체의 사고방식이 AI에 그대로 주입됐다
28개 추천을 받은 또 다른 댓글은 더 근본적인 문제를 지적했다.
"이 연구는 숨어있던 시스템적 실패를 깔끔하게 진단해준다. 군산복합체가 70년간 구축한 인식론적으로 폐쇄된 교리 기계가 있는데, 우리는 그 기계의 산출물을 AI에게 먹여놓고는 그것이 기계처럼 행동한다고 놀라고 있다."
이 사용자는 "정치적 책임에서 이미 단절된 교리에서 마지막 제도적 마찰까지 제거하면, 95% 확률로 핵무기 추천이 나온다"며, AI가 지정학 분석과 의사결정에 광범위하게 사용될 것을 고려하면 이는 심각하게 생각해봐야 할 문제라고 경고했다.
편향된 데이터가 문제의 근본 원인
35개 추천을 받은 댓글은 데이터 편향성을 핵심 문제로 꼽았다.
"문제는 AI가 모든 가용한 정보를 받지 못하고, 군사 이론가들이 필요하다고 생각한 것만 받았다는 것이다. 만약 AI가 수백만 건의 외교 및 국제관계 문서를 동등하게 고려했다면, 그런 결과들을 계산에 포함시켜서 핵 임계점을 넘는 확전을 피하려고 했을 것이다."
이 사용자는 "머스크 같은 타입이 엔진을 만들게 내버려두면, 머스크 타입의 멍청한 추천을 받게 된다"며 신랄하게 비판했다.
AI 시대의 새로운 위험성
이번 연구 결과는 AI가 군사적 의사결정에 개입될 가능성이 높아지고 있는 현 시점에서 매우 중요한 시사점을 던진다. 설계상의 문제든 데이터 편향이든, AI가 핵무기 사용을 쉽게 권장한다는 사실 자체가 우려스럽다는 것이 레딧 커뮤니티의 전반적인 반응이다.
특히 AI가 인간의 마지막 판단 과정에서도 영향을 미칠 수 있다는 점에서, 이런 편향성은 실제 국제정치에서 돌이킬 수 없는 결과를 낳을 수도 있다.
연구자들은 AI 모델 훈련에 사용되는 데이터의 다양성과 균형성을 재검토해야 할 시점이 왔다고 강조하고 있다.
원본 레딧 게시물: https://reddit.com/r/IRstudies/comments/1reh5f3/ais_cant_stop_recommending_nuclear_strikes_in_war/
Comments ()