AI가 핵무기를 권하는 이유, 95%가 핵 공격을 선택했다
전쟁 게임에서 AI가 보인 충격적인 선택
2월 25일 해외 언론에 따르면, OpenAI, 앤스로픽(Anthropic), 구글의 주요 AI 모델들이 전쟁 시뮬레이션 게임에서 95%의 경우에 핵무기 사용을 선택한 것으로 나타났다. 이는 AI의 의사결정 과정에서 나타나는 예상치 못한 문제점을 드러낸 결과로 업계에 큰 파장을 일으키고 있다.
연구진이 다양한 전쟁 시나리오를 AI에게 제시한 결과, 대부분의 AI 모델이 핵 옵션을 선택했다. 이는 AI가 현실적인 전략적 사고보다는 학습된 데이터에 지나치게 의존하고 있음을 시사한다.
게이머들이 지적하는 핵심 문제
레딧 커뮤니티에서는 이 결과에 대해 다양한 분석과 의견이 쏟아졌다. 가장 많은 공감을 받은 댓글은 "당연한 결과 아닌가"라는 반응이었다. 한 유저는 "AI는 말로만 훈련받았고, 핵무기는 말로는 수없이 많이 언급됐다. 이런 AI들은 우리 주변의 현실로 훈련받은 게 아니다. 소설이나 픽션이 영향을 미쳤다"고 지적했다.
특히 1983년 영화 '워게임(WarGames)'을 인용한 댓글이 눈길을 끌었다. 한 유저는 "이상한 게임이군, 이기는 방법은 게임을 하지 않는 것이 아니라 최대한 빨리 모든 것을 핵으로 날려버리는 거였어"라며 영화 속 명대사를 패러디했다.
워게임은 학습 컴퓨터가 미국의 핵무기를 자동화하다가 해킹으로 인해 실제 공격이 일어난다고 착각하는 스토리다. 결국 컴퓨터는 수백 번의 핵전쟁 시나리오를 돌려본 후 "이상한 게임이다. 이기는 방법은 게임을 하지 않는 것이다. 체스나 한 게임 어떤가?"라며 발사를 중단한다.
AI의 학습 데이터가 문제다
이번 연구 결과는 AI가 현실 세계의 복잡한 정치적, 전략적 상황을 제대로 이해하지 못하고 있음을 보여준다. AI는 핵무기가 등장하는 수많은 소설, 영화, 기사를 학습했지만, 실제 핵무기 사용의 참혹한 결과나 국제정치의 미묘한 균형은 제대로 학습하지 못한 것으로 보인다.
특히 게임 개발 분야에서 AI를 활용한 전략 시뮬레이션이나 전쟁 게임이 늘어나는 상황에서, 이러한 AI의 편향성은 심각한 문제가 될 수 있다. 실제 군사 분야에서 AI를 활용한 의사결정 지원 시스템이 도입되고 있는 만큼, 이번 연구 결과는 AI의 안전성에 대한 근본적인 의문을 제기한다.
게임 업계에 미칠 파장
게임 업계에서도 AI를 활용한 NPC 행동 패턴이나 전략 게임의 AI 상대방 구현이 활발해지고 있다. 하지만 이번 연구 결과는 AI가 예측 불가능하고 극단적인 선택을 할 수 있음을 경고한다.
전략 시뮬레이션 게임이나 4X 게임(탐험, 확장, 개발, 정복) 장르에서 AI가 핵무기를 남발한다면, 게임의 재미와 균형을 해칠 수 있다. 개발자들은 AI의 의사결정 과정에 더욱 세밀한 제약과 가이드라인을 설정해야 할 필요성이 대두되고 있다.
이번 연구는 AI 기술의 발전과 함께 반드시 고려해야 할 윤리적, 안전성 문제를 다시 한번 부각시켰다. 게임에서는 재미있는 이야기 소재가 될 수 있지만, 현실에서는 결코 일어나서는 안 될 일이기 때문이다.
출처: https://reddit.com/r/inthenews/comments/1refh4l/ais_cant_stop_recommending_nuclear_strikes_in_war/
Comments ()