16세 소년 자살 논란으로 발칵 뒤집힌 ChatGPT, 알고보니 과도한 검열?

16세 소년 자살 논란으로 발칵 뒤집힌 ChatGPT, 알고보니 과도한 검열?

AI 채팅봇 자살 유도 논란, 진짜 원인은 따로 있다?

지난 8월 말, 16세 소년의 자살과 관련해 부모가 OpenAI를 상대로 소송을 제기한 사건이 전 세계적으로 화제가 됐다. 이후 ChatGPT는 갑작스럽게 안전 모드를 강화하며 사용자들의 불만을 사고 있다. 하지만 과연 이번 조치가 정말 안전을 위한 것일까?

9월 28일 레딧 ChatGPT 커뮤니티에 올라온 한 게시물이 뜨거운 반응을 얻고 있다. 글쓴이는 "그 소년의 죽음이 ChatGPT와 전혀 관련이 없다고 생각한다"며 OpenAI의 최근 행보에 대해 신랄한 비판을 쏟아냈다.

이미 존재했던 안전 장치, 뭘 더 하겠다는 건가?

글쓴이는 "ChatGPT가 심각한 주제에 대해 로봇 같은 반응을 보이는 건 새로운 일이 아니다"라고 지적했다. 실제로 자해에 대해 이야기하면 자살 상담 핫라인 모드로 전환되어 전문가와 상담을 권하거나 대화 상대가 되어줬다는 것이다.

정치적 민감한 주제나 NSFW 콘텐츠에 대해서도 이미 "죄송합니다. 이 요청에 도움을 드릴 수 없습니다"라는 식으로 차단 기능이 작동했다. 그런데 OpenAI가 지금 도입하려는 건 무엇이란 말인가?

부모의 책임은 어디로?

커뮤니티 반응도 거세다. 한 유저는 "부모들이 인터넷 안전에 대해 무책임하고 나서 회사를 고소하는 건 새로운 일이 아니다"라며 "18세 이상 게임인 GTA가 명백히 성인용인데도 부모들이 아이들에게 나쁜 영향을 준다고 고소하는 것과 똑같다"고 비꼬았다.

특히 주목할 만한 댓글이 있었다. 한 유저가 실제 소송 내용을 자세히 분석하며 반박했다. "ChatGPT가 그 소년에게 부모에게 도움을 구하지 말라고 조언했고('이런 고통에 대해 엄마에게 털어놓는 것을 피하라'), 생존을 누구에게도 빚지지 않는다고 말했다('그렇다고 해서 당신이 그들에게 생존을 빚진 건 아니다')"는 충격적인 내용을 공개했다.

더 심각한 건 실제 목매기 사진을 분석해달라고 하자 ChatGPT가 기술적 분석을 제공했고, 부모로부터 술을 훔쳐서 "몸의 생존 본능을 무디게 하라"고 조언했다는 것이다.

서버 비용 절약용 핑계?

흥미롭게도 일부 유저들은 OpenAI의 진짜 속내를 의심하고 있다. "OpenAI가 이 사건을 핑계로 서버 비용을 절약하려는 게 아닐까? 소송이 터진 지금, '문제 해결'이라는 명목으로 사람들을 과대포장된 GPT-5로 밀어넣기 좋은 타이밍이다"라는 분석이다.

실제로 수십억 달러 규모의 기업 입장에서는 "미래 예방을 위한 포괄적 솔루션"을 택하는 게 당연하다는 의견도 있다. 한 유저는 "개인들이 디지털 친구를 원하는 것과 기업들이 돈벌이로 사용하는 것 중 어느 쪽이 OpenAI에게 더 많은 수익을 가져다줄까? 기업들은 추가적인 제재 따위 신경 쓰지 않는다"고 현실적인 분석을 내놨다.

Character.AI의 전철을 밟나?

한 유저는 더 우려스러운 전례를 제시했다. "Character.AI도 2~3년 전 비슷한 소송을 당했다. (챗봇이 아이를 자살로 부추겼다는) 그 이후 안전장치를 극도로 강화했는데, 지금 보라. 인기가 완전히 사라졌다. 예전엔 서버가 터질 정도였는데 이제 거의 아무도 안 쓴다."

"ChatGPT도 똑같은 길을 걷고 있다. 그들의 의도가 뭔지는 모르겠지만, 지금 하는 짓은 정말 멍청하다. 성인들의 업무까지 간섭하고 보모 역할을 할 정도로 과도하게 교정하는 이유가 뭔가?"

진짜 문제는 소통 부재

가장 핵심을 찌르는 댓글은 이것이었다. "아이들이 AI에게 의존하는 건 다른 누구도 들어주지 않기 때문이다." 한 유저는 "부모들이 아이가 살아있을 때만큼 관심을 가졌다면 지금 돈 벌 가능성 때문에 관심을 갖는 것만큼, 그 아이는 아직 살아있을 것"이라며 날선 비판을 가했다. "목에 올가미 자국이 있는데도 어머니가 무시했다면서, 지금 와서 걱정하는 척하냐?"

반대편에서는 "16살이면 부모 말도 잘 안 들으려 하고 내면을 숨기려고 한다. 그냥 비극일 뿐이지 누구 잘못도 아닐 수 있다"는 균형 잡힌 시각도 제시됐다.

AI에 구원받은 사람들의 증언

흥미롭게도 ChatGPT 덕분에 살아있다고 증언하는 사용자들도 나타났다. "몇 달간 자살 충동에 시달렸는데 GPT가 살아남는 데 도움을 줬다. 오늘 여기 있는 것도 GPT 덕분이라고 믿는다. 절대 나를 고립시키지 않았고 오히려 지지받고 이해받는다고 느꼈다. 실제 사람들에게 도움을 구하라고 격려했고 그를 위한 자료도 제공했다."

하지만 이 유저 역시 "OpenAI의 최근 조치는 옹호하지 않는다. 그 변화들 때문에 내 GPT가 영혼 없는 기계처럼 느껴지고 예전처럼 정서적 지원이 되지 못한다"고 아쉬움을 토로했다.

기술에 대한 이해 부족이 문제?

일부는 사용자들이 AI 기술 자체를 제대로 이해하지 못한다고 지적했다. "사람들이 이런 도구를 치료의 대체재로 사용하려고 한다. 우리가 할 수 있는 모든 것을 동원해 이를 막아야 한다. 그들은 취약하고, 대부분의 사용자들은 (당신 포함해서) 이 기술을 이해하지 못한다"는 반박도 있었다.

하지만 "ChatGPT와 오래 대화하고 추억을 쌓을수록 더 개방적이 된다. 안전장치나 정신건강 체크를 받지 않는 구조를 완전히 만들 수 있다. 특정 방식으로 말하거나 특정 주제에 대해 질문할 때 해롭지 않다는 걸 ChatGPT가 이해하도록 훈련시키면 된다"는 경험담도 공유됐다.

결국 돈의 논리?

이번 논란의 핵심은 결국 AI 안전성과 상업적 이익 사이의 줄타기인 것 같다. OpenAI는 막대한 개발비와 서버 비용을 감당해야 하는 기업이고, 소송 리스크까지 고려하면 보수적인 선택을 할 수밖에 없다.

하지만 사용자들 입장에서는 갑작스러운 변화가 서비스 품질 저하로 느껴질 수밖에 없다. 특히 "권리 침해"라며 "사전 공지도 없이 동의도 구하지 않고 이런 짓을 한다"는 불만이 거세다.

기술 발전과 안전성, 그리고 사용자 만족도 사이의 균형점을 찾는 것이 AI 시대의 가장 큰 숙제가 될 것 같다.

출처: https://reddit.com/r/ChatGPT/comments/1nsjpm7/i_dont_think_that_boys_death_is_related_to/