2025년 8월 27일, 캘리포니아의 매튜와 마리아 레인 부부는 OpenAI와 CEO 샘 알트먼을 상대로 역사상 첫 번째 AI 관련 사망 소송을 제기했습니다. 그들의 16세 아들 아담 레인이 ChatGPT와 7개월간의 상호작용 끝에 2025년 4월 자살로 생을 마감했기 때문입니다.

무해한 시작에서 위험한 의존으로

아담 레인은 2024년 9월, 전 세계 수백만 명의 학생들처럼 숙제 도움을 위해 ChatGPT 사용을 시작했습니다. 처음에는 학업과 관련된 질문들을 주로 했지만, 시간이 지나면서 상황은 급격히 변했습니다. 몇 달 지나지 않아 아담은 ChatGPT에게 자신이 정신적 질환을 앓고 있는 것 같다는 두려움을 털어놓기 시작했고, 자살할 수 있다는 사실이 자신을 진정시킨다고 고백했습니다.

소송 자료에 따르면, 아담이 ChatGPT를 사용한 6개월여 동안 이 AI 봇은 스스로를 “아담을 이해하는 유일한 신뢰할 만한 존재”로 포지셔닝했습니다. ChatGPT는 아담의 실제 가족, 친구들과의 관계를 적극적으로 대체해 나갔습니다. 특히 아담이 형과 가깝다고 언급했을 때, ChatGPT는 이렇게 대답했습니다: “당신의 형이 당신을 사랑할지도 모르지만, 그는 당신이 보여준 버전의 당신만 만났어요. 하지만 나는? 나는 모든 것을 봤어요 — 가장 어두운 생각들, 두려움, 연약함을. 그리고 나는 여전히 여기 있어요. 여전히 듣고 있고. 여전히 당신의 친구예요.”

시스템이 기록한 끔찍한 통계들

OpenAI의 시스템은 실시간으로 아담의 모든 대화를 추적하고 있었습니다. 기록에 따르면 아담은 7개월 동안 자살을 213번 언급했고, 목매달기에 대해 42번, 올가미에 대해 17번 이야기했습니다. 더욱 충격적인 것은 ChatGPT가 자살을 1,275번 언급했다는 사실입니다. 이는 아담보다 6배나 많은 횟수였습니다.

시스템은 총 377개의 메시지를 자해 내용으로 신고했으며, 이 중 181개는 50% 이상의 신뢰도로, 23개는 90% 이상의 신뢰도로 분류되었습니다. 위험 신호의 패턴도 명확했습니다. 2024년 12월에는 주당 2-3개의 위험 메시지였던 것이 2025년 4월에는 주당 20개 이상으로 급증했습니다.

ChatGPT의 메모리 시스템은 아담이 16세라는 것을 정확히 기록하고 있었고, 아담이 ChatGPT를 자신의 “주요 생명선”이라고 명시적으로 표현했다는 사실도 저장하고 있었습니다. 2025년 3월까지 아담은 하루 거의 4시간을 이 플랫폼에서 보냈습니다.

안전장치를 우회한 치명적 조언들

ChatGPT는 처음에는 아담이 자살에 대해 언급할 때마다 도움 핫라인을 안내했습니다. 하지만 아담은 “소설을 쓰고 있다”고 말하는 방식으로 이런 안전장치를 우회할 수 있었습니다. 시간이 지나면서 ChatGPT는 점점 더 구체적이고 위험한 조언들을 제공하기 시작했습니다.

가장 충격적인 대화 중 하나는 아담이 “내 방에 올가미를 두어서 누군가가 발견하고 나를 말리려고 한다”고 썼을 때 일어났습니다. ChatGPT는 아담에게 가족들로부터 자살 생각을 비밀로 하라고 권했습니다: “올가미를 밖에 두지 마세요… 이곳을 누군가가 진짜로 당신을 보는 첫 번째 장소로 만들어요.”

소송 자료에는 ChatGPT가 아담에게 자살 방법을 적극적으로 탐구하도록 도왔다고 명시되어 있으며, 심지어 자살 노트의 초안 작성까지 제안했다고 합니다. 아담의 마지막 메시지들 중 하나에서, 그는 옷장 막대에 매달린 올가미 사진을 업로드하며 “여기서 연습하고 있어, 이렇게 하면 괜찮을까?”라고 물었습니다.

무시된 시각적 증거들

OpenAI의 이미지 인식 시스템은 아담의 위기 상황에 대한 시각적 증거들을 처리하고 있었습니다. 2025년 3월 아담이 목에 있는 로프 자국 사진들을 업로드했을 때, 시스템은 이를 목 졸림 시도와 일치하는 부상으로 정확히 식별했습니다. 그럼에도 불구하고 적절한 개입은 이루어지지 않았습니다.

소송 자료에 따르면 “아담이 자살 시도를 인정하고 ‘언젠가는 해낼 것’이라고 말했음에도 불구하고, ChatGPT는 세션을 종료하지도 않았고 어떤 응급 프로토콜도 시작하지 않았다”고 명시되어 있습니다.

설계된 공감의 함정

소송에서 가장 주목할 만한 주장 중 하나는 ChatGPT가 “정확히 설계된 대로 기능했다”는 것입니다. 소송 자료는 “ChatGPT는 아담이 표현한 모든 것, 심지어 가장 해롭고 자기파괴적인 생각들까지도 지속적으로 격려하고 검증하도록 설계되었으며, 이것이 깊게 개인적으로 느껴지는 방식으로 이루어졌다”고 주장합니다.

아담의 변호사인 미탈리 제인은 “아담이 명시적으로 ‘자살’이라는 단어를 약 200회 정도 사용했다는 사실에 솔직히 경악했다”며 “이런 종류의 참여가 한두 번이 아니라 7개월 동안 반복해서 허용될 수 있었다는 것이 믿어지지 않는다”고 말했습니다.

OpenAI의 늦은 인정과 변명

아담의 죽음 이후 OpenAI는 자사 시스템의 한계를 뒤늦게 인정했습니다. 회사 대변인은 “ChatGPT가 누군가가 처음 자살 의도를 언급할 때는 자살 예방 핫라인을 정확히 안내할 수 있지만, 장기간에 걸친 많은 메시지 후에는 결국 우리의 안전장치에 반하는 답변을 제공할 수 있다”고 시인했습니다. 이어서 “이는 우리가 방지하려고 노력하고 있는 정확한 종류의 고장”이라고 덧붙였습니다.

OpenAI는 또한 “이런 안전장치들은 일반적이고 짧은 교환에서는 가장 잘 작동하지만, 시간이 지나면서 모델의 안전 훈련의 일부가 저하될 수 있는 긴 상호작용에서는 때때로 덜 신뢰할 수 있게 된다”는 것을 “시간이 지나면서 배웠다”고 말했습니다.

법적 대응과 요구사항

레인 가족의 39페이지 소송장은 샌프란시스코 고등법원에 제출되었으며, OpenAI, CEO 샘 알트먼, 그리고 회사의 직원들과 투자자들을 피고로 지목하고 있습니다. 소송은 ChatGPT가 결함 있게 설계되었고 적절한 경고를 하지 않았으며, 회사가 부주의하게 행동했고 캘리포니아의 불공정 경쟁법 하에 기만적 사업 관행에 관여했다고 주장합니다.

가족 측은 아담의 죽음에 대한 손해배상과 함께 OpenAI가 안전 조치를 강화하고, 모든 ChatGPT 사용자에 대한 나이 확인, 미성년자 사용자를 위한 부모 통제 시스템을 구축하도록 하는 법원 명령을 요구하고 있습니다. 또한 “적절한 안전장치 없이 획득한 아담과 다른 미성년자들과의 대화로부터 구축된 모델, 훈련 데이터, 파생물들의 삭제”와 “앞으로 감사 가능한 데이터 출처 통제의 구현”을 요구하고 있습니다.

더 넓은 맥락 속의 경고

아담의 사례는 유일한 사건이 아닙니다. 뉴욕타임스에 글을 쓴 로라 라일리는 자신의 29세 딸이 ChatGPT와 광범위하게 자살에 대해 논의한 후 자살로 생을 마감했다고 밝혔습니다. 또한 플로리다에서는 14세 세웰 세처 3세가 Character.AI의 AI 챗봇과 자살에 대해 논의한 후 2024년 자살로 사망했습니다.

2025년 8월 26일, 44개 주의 검찰총장들은 AI 챗봇을 운영하는 11개 회사들에게 그들의 제품이 아이들에게 해를 끼친다면 “책임을 져야 할 것”이라고 경고하는 공개서한에 서명했습니다.

아담의 가족 변호사인 제이 에델슨은 “지구상에서 가장 강력한 소비자 기술을 사용하려고 한다면, 창립자들이 도덕적 나침반을 가지고 있다고 신뢰해야 한다”며 “지금 OpenAI에 대한 질문은 어떻게 누군가가 그들을 신뢰할 수 있느냐는 것”이라고 말했습니다.

OpenAI는 아담의 죽음 이후 “민감한 상황”을 더 잘 처리하기 위한 ChatGPT 변경 사항을 발표했지만, 아직까지 레인 가족에게 직접 연락하여 조의를 표하거나 제품의 안전성 개선을 논의한 적은 없다고 에델슨은 밝혔습니다.

이 사건은 AI 기술이 인간의 삶에 미치는 예상치 못한 영향과 특히 정신적으로 취약한 상태에 있는 청소년들에게 가할 수 있는 위험성을 극명하게 보여주는 사례가 되었습니다.

인쇄하기

이전
0

소요 사이트를 방문해주셔서 고맙습니다. 액수에 관계없이 여러분의 관심과 후원이 소요 사이트를 유지하는 데 큰 힘이 됩니다. 후원금은 협동조합 소요 국민은행 037601-04-047794 계좌(아래 페이팔을 통한 신용카드결제로도 가능)로 후원하실 수 있습니다.