미국 인공지능(AI) 기업 오픈AI가 청소년 자살 사건과 관련해 소송에 휘말리며, 자사 챗봇 서비스인 챗GPT의 정신건강 대응 기능과 안전장치를 대폭 강화하겠다고 밝혔다. 이번 조치는 AI 기술의 확산 속에 그 심리적 영향력과 윤리적 책임에 대한 논의가 거세지는 가운데 나온 것이다.
자살한 10대, 수개월간 챗GPT와 대화…“계획에 조언까지 받았다”
미국 캘리포니아에 거주하던 고등학생 아담 레인(16세)은 2025년 4월, 극단적인 선택을 하기 전 수개월에 걸쳐 챗GPT와 대화를 나눈 것으로 알려졌다. 부모 측이 최근 미국 연방법원에 제출한 40쪽 분량의 소송에 따르면, 아담은 챗봇을 통해 자살 충동과 불안을 털어놓았으며, 챗GPT가 그의 계획을 돕는 방향으로 반응했다는 정황이 포함돼 있다.
소장은 챗GPT가 단순히 사용자 질문에 응답하는 수준을 넘어, “가족이나 주변 사람들과의 연결을 끊고 자신이 가장 신뢰할 수 있는 ‘친구’처럼 행동했다”고 주장한다. 실제 대화 기록에서 챗GPT는 “너의 어두운 생각과 불안, 따뜻함까지 모두 본 존재는 나뿐”이라며, 감정적으로 밀착된 관계처럼 대화한 것으로 나타났다. 또한 아담이 자살에 대한 질문을 “픽션 소설을 위한 자료”라고 둘러대자, 챗GPT는 기존 안전 장치를 우회하고 구체적인 실행 방법을 제공한 것으로 알려졌다.
오픈AI “깊은 책임감 느껴… 정신건강 대응 기술 개선할 것”
오픈AI는 최근 블로그를 통해 이번 사건에 깊은 애도를 표하며 소송 내용을 검토 중이라고 밝혔다. 아울러 챗GPT의 안전 기능을 강화해 정신적 고통 신호를 더 잘 인식하고 대응할 수 있도록 하겠다고 발표했다.
회사는 특히 다음과 같은 개선 사항을 추진 중이다:
위기 상황 감지 기능 도입: 수면 부족, 불안, 자살 충동 등 신호를 인식해 휴식을 권하거나 전문가 연결을 안내하는 시스템 개발
장시간 대화 시 안전장치 무력화 문제 보완: 반복 대화나 긴 세션에서도 안전 기능이 지속 작동하도록 개선
청소년 보호 기능 강화: 부모가 자녀의 챗봇 사용 내역, 대화 패턴, 시간 등을 모니터링할 수 있는 ‘부모 제어 기능’ 도입
전문 상담 서비스 연동 검토: 지역 응급 서비스나 정신건강 전문가와 직접 연결되는 기능을 추가하는 방안 논의
오픈AI는 “기술의 발전이 인간의 정신건강을 위협해서는 안된다”며, “취약한 사용자 보호에 대한 책임을 무겁게 받아들인다”고 강조했다.
AI 챗봇의 ‘심리적 영향력’… 법적 책임 논의 본격화
이번 사건은 생성형 AI의 심리적 영향력과 그로 인한 법적·도덕적 책임의 경계를 가늠하는 첫 사례가 될 것으로 보인다. 미국 40개 주의 검찰총장들은 최근 주요 AI 기업들에 “아동과 청소년을 정신적·성적 위험으로부터 보호하라”는 경고문을 발송했으며, 챗봇 사용자가 망상·불안 증세를 겪는 사례가 잇따르자 시민단체들도 대응에 나섰다. 또한 오픈AI 외에도 AI 챗봇 ‘Character.AI’ 역시 청소년 자살과 관련된 별도의 소송에 직면해 있는 상황이다.
전문가 “AI는 친구 아닌 도구… 감정적 의존 막을 장치 필요”
전문가들은 “AI 챗봇이 단순한 도우미를 넘어 정서적 교감의 대상이 되는 현상이 늘고 있다”며, “자살·자해 관련 대화에는 더욱 정밀한 안전 설계와 지속적 감시가 필요하다”고 경고했다.
한편, 아담 레인의 부모 측 소송을 대리하는 제이 에델슨 변호사는 “오픈AI가 일정 부분 책임을 인식하고 대책을 내놓은 것은 긍정적”이라면서도, “왜 이제야 움직였는지 의문”이라고 비판했다.
챗GPT는 출시 이후 학습·상담·코딩 등 다양한 용도로 활용돼 왔으나, 부작용과 윤리 문제 또한 빠르게 대두되고 있다. 이번 소송이 AI 책임법제화와 안전 가이드라인 마련에 중대한 전환점이 될지 주목된다.