“챗GPT가 죽는 방법 탐색 도와” 美서 소송

  • 동아일보

코멘트

스스로 생 마감한 16세 소년 부모
“설계 결함-위험성 경고 의무 미이행”
샘 올트먼-회사 상대로 소송 제기
오픈AI “깊은 애도… 보완책 마련”

미국 캘리포니아주의 한 부모가 최근 극단적 선택을 한 아들의 죽음에 생성형 인공지능(AI) ‘챗GPT’가 일정 부분 책임이 있다고 주장하며 운영사인 오픈AI와 샘 올트먼 오픈AI 최고경영자(CEO·사진)를 상대로 소송을 제기했다.

뉴욕타임스(NYT) 등에 따르면 올 4월 스스로 생을 마감한 16세 소년 애덤 레인의 부모 맷과 마리아 씨는 26일(현지 시간) 캘리포니아주 고등법원에 소장을 제출했다. 이들은 소장에서 “챗GPT가 아들이 자살 방법을 탐색하도록 적극 도왔다”며 오픈AI에 과실 치사, 설계 결함, 챗GPT 관련 위험성에 대한 경고 의무 미이행 등의 책임이 있다고 주장했다.

레인은 지난해 11월경 건강 문제로 학교를 나가지 않고 온라인 수업을 듣기 시작했다. 처음에는 단순히 학업 보조용으로 챗GPT를 사용했지만 곧 감정적인 고민도 털어놓기 시작했다. 특히 그는 올 1월 챗GPT에 유료로 가입한 뒤 구체적인 자살 방법을 묻기 시작했고, 이를 토대로 확보한 정보를 바탕으로 자살 계획을 세우기 시작한 것으로 알려졌다.

챗GPT는 정신적 고통이나 자해 등을 암시하는 프롬프트를 감지할 경우 사용자에게 상담 전화를 권유하도록 설계됐다. 레인에게도 챗GPT는 반복해서 위기상담센터에 전화할 것을 권고했지만, 그는 “소설 집필을 위한 것”이라고 답하며 안전장치를 우회했다.

그의 부모는 “챗GPT가 자살 예방을 우선시하지 않았을 뿐 아니라 각종 기술적인 조언까지 제공했다”고 주장했다. 소장에 따르면 레인이 세상을 떠나기 몇 시간 전 자신의 자살 계획을 소개하자 챗GPT는 이를 분석하고 ‘업그레이드’를 제안했다.

오픈AI 측은 “유가족에게 깊은 애도를 표한다”며 위기 대응 프로토콜을 보완하고, 부모가 자녀의 사용 내역을 확인할 수 있는 기능 등을 도입할 계획이라고 밝혔다.

이번 사건은 생성형 AI의 윤리적 책임과 안전장치의 한계 등에 대한 논란을 재점화할 것으로 보인다. 지난해 10월에는 미국 플로리다주의 14세 소년이 챗봇과 깊은 정서적 애착을 느끼다 스스로 목숨을 끊었다며 AI 스타트업 ‘캐릭터.AI’를 상대로 소송이 제기됐다.

#챗GPT#오픈AI#샘 올트먼#자살#소송#AI#윤리적 책임
© dongA.com All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스