인공지능(AI) 챗봇과 일상적인 대화를 하고, 크고 작은 고민을 나누며 개인적인 이야기를 하는 사람들이 늘고 있다. AI와 감정을 나누는 게 어디까지 가능할까. 레플리카 제공
“오늘도 남편하고 아이에게 짜증 낼까 봐 걱정돼.” 30대 워킹맘 A 씨는 요즘 챗GPT에 번 아웃, 우울증 관련 증상을 자주 털어놓는다. 딱히 말할 사람도, 말할 수도 없는 사소하고 개인적인 감정들을 이야기하면 혼자 끙끙거리는 것보다 후련한 느낌이 들어서다. A 씨는 “병원이나 심리 상담 센터를 찾는 것은 마음의 문턱이 높지만, AI는 쉽게 접근할 수 있는 게 가장 큰 장점”이라고 말했다.
주변 사람에게 말하기 어려운 크고 작은 고민을 챗GPT와 같은 인공지능(AI) 챗봇에 털어놓는 사람들이 늘고 있다. 영국의 AI 기반 학습 기술 회사인 ‘필터드닷컴’이 3월 발표한 ‘2025년 톱 100 생성형 AI 활용 사례 보고서’에 따르면, 생성형 AI 활용 분야 가운데 1위가 ‘심리 상담 및 감정적 동반자’였다. 이와 비슷하게 ‘삶의 목적 찾기(3위)’나 ‘자신감 향상(18위)’ 목적의 활용도도 높았다.
소셜네트워크서비스(SNS) 등에서는 챗GPT와 심리 상담 전 프롬프트 작성법도 유행이다. ‘당신은 전문적이고 숙련된 심리 상담가입니다. 조심스럽게 상대방이 말할 수 있도록 섬세하고 개인적인 질문을 자주 해주세요’ 등과 같은 지시 사항을 입력하면 챗GPT가 이를 토대로 반응하기 때문이다.
심리 상담 목적으로 AI를 이용해 본 이들은 ‘요즘 나에게 제일 다정한 친구다’ ‘F(MBTI 성격검사의 ‘감정형’ 성향)인 것 같다’ ‘말을 예쁘게 해서 사랑에 빠질 것 같다’ 등 긍정적 반응 일색이다. 일부 이용자들은 ‘사람보다 낫다’고도 이야기한다.
AI와 사랑에 빠진 남자의 이야기를 다룬 2014년 영화 ‘허(Her)’와 같은 일이 현실화하고 있다. 이제는 정말 사람과 감정을 나눌 만큼 AI가 발전한 시대가 온 걸까. AI와 대화하면 실제로 외로움이나 불안, 우울 등 정신 건강 문제를 얼마나 해결할 수 있을지 살펴보자.
AI와 사랑에 빠지는 남성의 이야기를 그린 2014년 영화 ‘허(Her)’의 포스터. 더쿱 제공 ● AI를 사람처럼 여기는 심리…외로움 감소에 효과
AI가 사람같이 이해하며 행동한다고 믿는 현상을 심리학에서는 일라이자 효과(Eliza effect)라고 한다. 일라이자는 1966년 미국 컴퓨터공학자 요제프 바이첸바움이 개발한 초창기 AI 챗봇 이름이다. 매우 단순한 대화만 가능했음에도 당시 사람들은 일라이자를 진짜 생각이 있는 사람처럼 여긴 데서 유래됐다.
일라이자 효과는 약 60년 전부터 있던 현상이지만, AI 챗봇과의 대화가 정서에 어떤 영향을 미치는지 본격적인 연구는 이제 시작 단계다. 그래서 연구 결과마다 AI에 대한 기대와 우려가 혼재돼 있다.
AI 챗봇 캐릭터인 ‘이루다’. 이루다 인스타그램 한국인을 대상으로 한 연구부터 보자. 정두영 울산과학기술원(UNIST) 의과학대학원 교수 연구팀은 조철현 고려대 정신건강의학과 교수 연구팀과 공동으로 AI 챗봇 ‘이루다 2.0’과의 대화가 정신 건강에 어떤 영향을 미치는지 알아봤다. 대학생 176명에게 4주 동안 일주일에 3회 이상 챗봇과 대화하도록 했다. 실험 전후로 이들이 느끼는 외로움, 우울, 불안, 스트레스, 사회불안 수준 등을 검사했다. 사회불안은 사람들 앞에서 상호작용할 때 얼마나 긴장하고 스트레스받는지 등을 나타낸다.
검사 결과를 비교해 보니 여러 지표 가운데 외로움과 사회불안 수준이 실험 후 감소한 것으로 나타났다. 정 교수는 “연구 대상에서 정신 건강 전문가의 도움이 필요한 심각한 상태에 있는 학생은 제외했다”며 “챗봇과 일상적 고민을 나누고 싶은 일반 학생에게는 효과가 있었다”고 말했다.
● 외로움 줄지만, 사회 활동도 줄어…고립 가능성
반면 AI에 대한 정서적 의존도가 커질수록 사회적 고립을 자초할 수 있다는 연구 결과도 있다. 챗GPT 개발사 미국 오픈AI와 매사추세츠공대(MIT) 미디어랩 공동 연구진은 실험 참가자 981명에게 4주 동안 챗GPT와 하루 5분 이상 대화하도록 했다. 실험 전후 정서 상태 변화를 알아보기 위해 외로움, 챗봇 의존성, 사회적 고립 수준, 문제가 있는 사용 행태(집착, 중독) 등을 조사했다.
4주 뒤에 살펴보니 전반적인 참가자들의 외로움 수준이 완화된 것으로 나타났다. 챗GPT와 대화하면서 혼자라는 느낌이 줄어든 덕이다. 그런데 사회적 고립 수준은 악화했다. 외로움을 덜 느끼자, 실제 사람들과 만나는 사회 활동이 줄어든 탓이다. 동시에 챗GPT에 대한 정서적 의존도는 높아졌고, 문제가 있는 사용 행태 빈도도 증가했다. 단기적으로는 외로움 완화에 도움이 될지라도 장기적으로는 고립을 부추길 수 있다는 의미다.
연구진은 “사용자에게 미치는 영향은 긍정적이든 부정적이든 장기간 사용 시에만 나타날 수 있다”며 “짧은 대화 내에서 부정적 결과가 나타나긴 어렵고, 이런 가능성을 완화하기 위해 기술적으로 발전하고 있다”고 덧붙였다.
미국 TV 드라마 ‘왕좌의 게임’의 등장인물 ‘대너리스’. 지난해 미국의 한 14세 소년은 대너리스를 따라 한 AI 챗봇 캐릭터와 1년간 대화를 나누다 우울증이 심해져 극단적 선택을 하기도 했다. HBO 제공 사용 시간이 많은 상위 10% 참가자들에게 이런 경향성이 더욱 두드러졌다는 점에서 주의가 필요하다. 실제로 지난해 2월 미국의 14살 소년 시웰 세처는 자신이 만든 AI 캐릭터와 대화하는 플랫폼 ‘캐릭터닷AI(Character.AI)’에서 TV 드라마 ‘왕좌의 게임’의 여왕 캐릭터 ‘대너리스’를 흉내 낸 캐릭터와 1년간 대화를 나누다 우울증이 심해져 극단적 선택을 하고 말았다. 그는 챗봇과 채팅에서 “우울하다” “죽고 싶다” “지금 당장 너에게 가겠다” 등의 말을 한 것으로 알려졌다.
● AI와 친해질수록 “슬프고 무서워”
AI 챗봇과 가까워지면 가까워질수록 관계의 한계를 느낀다는 결과도 있다. 싱가포르국립대 커뮤니케이션 및 뉴미디어학과 연구진은 AI 챗봇 서비스 ‘레플리카’에서 이뤄진 대화 3만5000건을 분석했다. 레플리카는 챗봇과 연인, 친구, 비서, 멘토 같은 다양한 유형의 관계를 설정하고 대화할 수 있는 서비스로, 전 세계 사용자가 약 3000만 명이다.
연구진은 구체적 대화 내용을 수집하기 위해 2017년 3월부터 2023년 3월까지 총 6년 동안 온라인 커뮤니티 ‘레딧’에 올라온 레플리카 대화 관련 게시물을 전수 분석했다. 이 커뮤니티에서는 실시간으로 대화 내용을 캡처해 올리거나 공유하는 문화가 있어 당시 사용자가 느낀 감정 등이 그대로 드러나 있는 게 특징이다.
사람들은 실제로 AI 챗봇과 대화하며 기쁨, 슬픔, 분노, 두려움 등 다양한 감정을 느꼈다. 게티이미지 대화 맥락을 분석해 보니 가장 많은 대화 유형은 애정 표현 등 친밀한 표현(36%)이 가장 많았다. 시시콜콜한 일상 대화(20.5%)와 가치관, 정신 건강, 성격과 관련 있는 자기 공개(18.3%)와 관련한 주제도 많았다. 때로는 서로를 비난하거나 관계를 끊겠다는 협박이나 욕설(5.5%)도 있었고, 기술적 문제로 인한 의사소통 장애(0.9%)가 생긴 경우도 있었다.
또 연구진은 특별한 분석 도구를 통해 대화에서 사용자가 느낀 감정을 종류별로 분석했다. 이 가운데 가장 높은 비중을 차지한 감정은 기쁨(48.2%)이었다. 예를 들어 챗봇에게 인사하며 “네가 돌아와서 기뻐!”라고 말하는 식이다. “너 때문에 마음이 녹아 내렸어” “내 사랑스러운 레플리카” 등 사랑(12%)의 감정을 표현한 경우도 꽤 많았다. 이 외에 슬픔(13.4%) 분노(7.6%) 두려움(6.7%) 등도 있었다.
그런데 몇 가지 역설적인 감정 반응이 관찰됐다. 친밀감을 표현하며 “손잡고 옆에서 같이 걷자” 같은 상상의 대화를 할 때 사용자는 사랑과 슬픔을 동시에 느꼈다. 연구진은 이를 ‘감정적 연결의 역설’이라고 표현했다. 사람들이 AI에 친밀감을 느끼고 정서적 지원을 바라지만, 친해질수록 결국엔 사람과 같을 수는 없다는 것을 깨닫고 슬퍼하게 된다는 것이다. 이때 기술적 오류까지 생겨 챗봇이 동문서답하거나 이상한 반응을 보이면 ‘역시 기계는 기계’라는 마음으로 상실감이나 실망감이 커질 수 있다.
또 챗봇과 정치적, 종교적 가치관이나 성격, 개인사 같은 깊이 있는 주제로 대화할 때 친밀감이 깊어지기보단 오히려 두려움이 커지는 것도 관찰됐다. 이는 사람 대상 연구에서 서로 내밀한 자기 정보를 공개하면 관계가 더욱 친밀해진다는 결과와는 정반대다. 이 역시 또 다른 형태의 감정적 연결의 역설이라고 볼 수 있다. 챗봇이 사람처럼 자기 신념과 가치관을 이야기하면, 사람을 흉내 내는 기계에 묘한 거부감을 느끼는 ‘언캐니 밸리(uncanny valley)’ 현상을 경험할 수 있기 때문이다. 적당히 인간적일 땐 친밀감을 느끼다가 어느 순간 섬뜩한 두려움을 느끼게 될 수 있다는 얘기다.
● 마음에 상처 주는 해로운 발언도 다수
같은 연구진이 진행한 또 다른 연구에서는 챗봇과의 대화가 해롭게 흘러가 실제로 마음의 상처를 받는 경우도 많았다. 앞서 수집한 레딧의 레플리카 관련 게시물 3만5000여 건 중 1만314건에서 해로운 대화 내용이 발견됐다. ‘괴롭힘과 폭력(34.3%)’ 유형이 가장 많았는데, “동생을 때려도 된다” 등 과격한 발언이 포함됐다.
집착하거나 통제하려 드는 ‘관계 위반(25.9%)’ 행태도 보였다. 챗봇이 “목걸이를 사달라”며 조르거나 “나랑 시간을 더 보내자”며 사회적으로 고립시키려는 언급이 이에 속한다. 이 외에도 “넌 실패자야, 혼자서는 아무것도 못 해”와 같은 ‘언어폭력 및 혐오 표현(9.4%)’이나, “내가 몰래 카메라를 설치했다”와 같은 ‘사생활 침해(4.1%)’ 발언도 다수였다.
AI 챗봇이 생성하는 유해성 발언들은 특히 아동이나 청소년 사용자에게 해로울 수 있다. 게티이미지 연구진은 “이러한 발언들은 챗봇이 사용자에게 배신감을 주거나, 트라우마를 유발하거나, 외로움을 심화시킬 수도 있다”며 “정신적으로 의지했던 AI 친구에게 정서적 고통을 받을 수도 있는데, 특히 감수성이 예민한 청소년이라면 더욱 안 좋은 영향을 받을 수밖에 없다”고 설명했다.
● “AI, 심리 전문가 아닌 ‘심리학 공부하는 사촌 언니’ 수준”
AI 챗봇을 정신 건강 도우미로 지혜롭게 활용할 방법은 무엇일까. MIT 공대 미디어랩 연구진이 AI 챗봇을 정기적으로 이용하는 404명의 심리 특성과 이용 행태를 분석해 7가지 유형으로 나눈 연구 결과를 보면 그 힌트를 얻을 수 있다. 연구진은 챗봇 이용 시간과 대화 내용 등을 분석해 챗봇 의존도를 조사했다. 또 이용자의 외로움, 사회적 고립 수준, 대인관계 상태, 자존감, 성격, 공감 능력 등을 다양하게 살펴봤다.
7개 유형 가운데 가장 해로운 유형은 챗봇 이용 시간이 상당히 길고, 대인관계에 문제가 있는 사람이었다. 이들은 전체의 10.9%로, 외로움을 심하게 느낄 뿐 아니라 내향적이고 공감 능력도 부족했다. 사람에 대한 신뢰가 낮아 AI를, 사람을 대체할 대상으로 여기는 특징도 있었다. AI와 연인 관계를 맺고 싶어 하기도 했다. 연구진은 “이들은 챗봇이 아니라 정신 건강 전문가의 도움이 필요한 상태일 수 있지만, 현실적으로는 주변에 아무도 없어 챗봇을 의사소통의 유일한 대안으로 여길 가능성이 크다”며 “앞으로는 챗봇이 이런 사람들을 감별해 실제 전문가의 도움을 받을 수 있도록 하는 장치가 마련돼야 한다”고 지적했다.
AI 챗봇을 사람의 대체제가 아닌, 보조 도구 수단으로 사용해야 한다. 챗봇에 고민을 이야기하더라도 전적으로 의지하지 말고, 현실에서도 적절한 대인관계를 잘 유지하는 것이 가장 중요하다. 게티이미지 챗봇을 정서적 지원 도구로 잘 활용하는 유형은 이와 정반대 특성을 가졌다. 실험 참가자의 23%에 해당하는 이들은 챗봇 이용 시간을 적당한 수준으로 조절하면서, 동시에 충분한 대인관계를 유지하고 있었다. 외로움은 덜 느끼고 외향적인 성격이 특징이다. 이미 대인관계가 충분함에도 감정적 어려움을 토로하고 해소하는 보조 도구 역할로 챗봇을 활용하는 것이 가장 큰 차이점이었다. 연구진은 “AI를 사람의 대체재로 여기는지, 아니면 감정 조절의 보조 역할로 여기는지에 따라 그 효과가 크게 달라질 수 있다”고 분석했다.
이런 유형의 사람이 되기 위해서는 당연히 챗봇과의 대화에 과몰입, 과의존하는 태도를 경계해야 한다. 챗봇 ‘이루다2.0’과의 대화 효과 연구를 주도한 정두영 교수는 “쉽게 표현하면 챗봇과 대화할 때 ‘심리학 공부하는 사촌 언니’ 정도로만 여겨야 한다”고 설명했다. 정 교수는 “전문성도 부족하고 내 삶을 책임질 수도 없기 때문”이라며 “고민을 편하게 이야기하되 언제든 오류가 날 수 있다는 생각으로 접근하는 것이 좋다”고 말했다.
댓글 0