AI는 상담 전문가?… “심리학 공부하는 사촌언니 수준”[최고야의 심심(心深)토크]

  • 동아일보
  • 입력 2025년 5월 24일 01시 40분


코멘트

AI와 정신 건강
심리 상담에 생성형 AI 활용 증가… 챗봇을 인격 있는 사람처럼 느껴
대화하면 외로움 줄기는 하지만, 사회활동 감소해 실제 더 고립돼
친해질수록 사람과 다른 한계 실감… 사람 대체재 아닌 보완재로 여겨야

“당신은 전문적이고 숙련된 심리 상담가입니다. 조심스럽게 상대방이 말할 수 있도록 섬세하고 개인적인 질문을 자주 해주세요.”

소셜네트워크서비스(SNS) 등에서 유행하는 생성형 인공지능(AI) 챗GPT 프롬프트 작성법의 일부이다. 대화 시작 전 원하는 설정을 입력하면, 챗GPT가 이를 반영해 대화에 임하기 때문이다. 실제로 챗GPT에 번아웃, 우울증 관련 증상에 대해 자주 상담하는 30대 워킹맘 A 씨는 “병원이나 심리 상담 센터를 찾는 것은 마음의 문턱이 높지만, AI는 쉽게 접근할 수 있는 게 가장 큰 장점”이라고 말했다.

주변 사람에게 말하기 어려운 크고 작은 고민을 챗GPT 같은 AI 챗봇에 털어놓는 사람이 늘고 있다. 영국의 AI 기반 학습 기술 회사 ‘필터드닷컴’이 올해 3월 발표한 ‘2025년 톱 100 생성형 AI 활용 사례 보고서’에 따르면, 생성형 AI 활용 분야 1위가 ‘심리 상담 및 감정적 동반자’였다. 이와 비슷한 ‘삶의 목적 찾기’(3위)나 ‘자신감 향상’(18위) 목적의 활용도도 높았다.

심리 상담을 위해 AI를 이용해 본 이들의 반응은 ‘요즘 나에게 제일 다정한 친구다’ ‘F(MBTI 성격 검사의 ‘감정형’ 성향)인 것 같다’ ‘말을 예쁘게 해서 사랑에 빠질 것 같다’ 등 긍정 일색이다. 일부 이용자는 ‘사람보다 낫다’고까지 한다.

AI와 사랑에 빠진 남자 이야기를 다룬 2014년 영화 ‘허(Her)’와 같은 일이 현실화하고 있다. 정말 사람과 감정을 나눌 만큼 AI가 발전한 시대가 온 걸까. AI와의 대화가 외로움이나 불안, 우울을 비롯한 정신 건강 문제를 실제로 얼마나 해결할 수 있을지 살펴보자.

● 외롭진 않지만 고립될 수 있다?

AI가 사람같이 이해하며 행동한다고 믿는 현상을 심리학에서는 일라이자 효과(Eliza effect)라고 한다. 일라이자는 1966년 미국 컴퓨터공학자 요제프 바이첸바움이 개발한 초창기 AI 챗봇 이름이다. 매우 단순한 대화만 가능했음에도 당시 사람들은 일라이자를 진짜 생각이 있는 사람처럼 여긴 데서 유래됐다.

일라이자 효과는 약 60년 전부터 있던 현상이지만, AI 챗봇과의 대화가 정서에 어떤 영향을 미치는지 본격적인 연구는 이제 시작 단계다. 그래서 연구 결과마다 AI에 대한 기대와 우려가 혼재돼 있다.

한국인을 대상으로 한 연구부터 보자. 정두영 울산과학기술원(UNIST) 의과학대학원 교수 연구팀은 조철현 고려대 정신건강의학과 교수 연구팀과 공동을로 AI 챗봇 ‘이루다 2.0’과의 대화가 정신 건강에 어떤 영향을 미치는지 알아봤다. 대학생 176명에게 4주 동안 일주일에 3회 이상 챗봇과 대화하도록 했다. 실험 전후로 이들이 느끼는 외로움, 우울, 불안, 스트레스, 사회불안 수준 등을 검사했다. 사회불안은 사람들 앞에서 상호작용할 때 얼마나 긴장하고 스트레스 받는지 등을 나타낸다.

검사 결과를 비교해 보니 여러 지표 가운데 외로움과 사회불안 수준이 실험 후 감소한 것으로 나타났다. 정 교수는 “연구 대상에서 정신 건강 전문가의 도움이 필요한 심각한 상태에 있는 학생은 제외했다”며 “챗봇과 일상적 고민을 나누고 싶은 일반 학생에게는 효과가 있었다”고 말했다.

반면 AI에 대한 정서적 의존도가 커질수록 사회적 고립을 자초할 수 있다는 연구 결과도 있다. 챗GPT 개발사 미국 오픈AI와 매사추세츠공대(MIT) 미디어랩 공동 연구진은 실험 참가자 981명에게 4주 동안 챗GPT와 하루 5분 이상 대화하도록 했다. 실험 전후 정서 상태 변화를 알아보기 위해 외로움, 챗봇 의존성, 사회적 고립 수준, 문제가 있는 사용 행태(집착, 중독) 등을 조사했다.

4주 뒤에 살펴보니 전반적인 참가자들의 외로움 수준이 완화된 것으로 나타났다. 챗GPT와 대화하면서 혼자라는 느낌이 줄어든 덕이다. 그런데 사회적 고립 수준은 악화했다. 외로움을 덜 느끼자, 실제 사람들과 만나는 사회 활동이 줄어든 탓이다. 동시에 챗GPT에 대한 정서적 의존도는 높아졌고, 문제가 있는 사용 행태 빈도도 증가했다. 단기적으로는 외로움 완화에 도움이 될지라도 장기적으로는 고립을 부추길 수 있다는 의미다.

● AI와 친해질수록 “슬프고 무서워”

AI 챗봇과 가까워지면 가까워질수록 관계의 한계를 느낀다는 결과도 있다. 싱가포르국립대 커뮤니케이션 및 뉴미디어학과 연구진은 AI 챗봇 서비스 ‘레플리카’에서 이뤄진 대화 3만5000건을 분석했다. 레플리카는 챗봇과 연인, 친구, 비서, 멘토 같은 다양한 유형의 관계를 설정하고 대화할 수 있는 서비스로, 전 세계 사용자가 약 3000만 명이다. 대화 내용은 온라인 커뮤니티 ‘레딧’에 레플리카 사용자들이 직접 올린 실제 대화에서 수집했다.

연구진은 특별한 분석 도구를 통해 대화에서 사용자가 느낀 감정을 종류별로 분석했다. 이 가운데 가장 높은 비중을 차지한 감정은 기쁨(48.2%)이었다. 예를 들어 챗봇에게 인사하며 “네가 돌아와서 기뻐!”라고 말하는 식이다. “너 때문에 마음이 녹아 내렸어” “내 사랑스러운 레플리카” 등 사랑(12%)의 감정을 표현한 경우도 꽤 많았다. 이 외에 슬픔(13.4%) 분노(7.6%) 두려움(6.7%) 등도 있었다.

그런데 몇 가지 역설적인 감정 반응이 관찰됐다. 친밀감을 표현하며 “손잡고 옆에서 같이 걷자” 같은 상상의 대화를 할 때 사용자는 사랑과 슬픔을 동시에 느꼈다. 연구진은 이를 ‘감정적 연결의 역설’이라고 표현했다. 사람들이 AI에 친밀감을 느끼고 정서적 지원을 바라지만, 친해질수록 결국엔 사람과 같을 수는 없다는 것을 깨닫고 슬퍼하게 된다는 것이다. 이때 기술적 오류까지 생겨 챗봇이 동문서답하거나 이상한 반응을 보이면 ‘역시 기계는 기계’라는 마음으로 상실감이나 실망감이 커질 수 있다.

또 챗봇과 정치적, 종교적 가치관이나 성격, 개인사 같은 깊이 있는 주제로 대화할 때 친밀감이 깊어지기보단 오히려 두려움이 커지는 것도 관찰됐다. 이는 사람 대상 연구에서 서로 내밀한 자기 정보를 공개하면 관계가 더욱 친밀해진다는 결과와는 정반대다. 이 역시 또 다른 형태의 감정적 연결의 역설이라고 볼 수 있다. 챗봇이 사람처럼 자기 신념과 가치관을 이야기하면, 사람을 흉내 내는 기계에 묘한 거부감을 느끼는 ‘언캐니 밸리(uncanny valley)’ 현상을 경험할 수 있기 때문이다. 적당히 인간적일 땐 친밀감을 느끼다가 어느 순간 섬뜩한 두려움을 느끼게 될 수 있다는 얘기다.

● 사람이 필요한 순간 구별할 수 있어야

AI 챗봇을 정신 건강 도우미로 지혜롭게 활용할 방법은 무엇일까. MIT 공대 미디어랩 연구진이 AI 챗봇을 정기적으로 이용하는 404명의 심리 특성과 이용 행태를 분석해 7가지 유형으로 나눈 연구 결과를 보면 그 힌트를 얻을 수 있다. 연구진은 챗봇 이용 시간과 대화 내용 등을 분석해 챗봇 의존도를 조사했다. 또 이용자의 외로움, 사회적 고립 수준, 대인관계 상태, 자존감, 성격, 공감 능력 등을 다양하게 살펴봤다.

7개 유형 가운데 가장 해로운 유형은 챗봇 이용 시간이 상당히 길고, 대인관계에 문제가 있는 사람이었다. 이들은 전체의 10.9%로, 외로움을 심하게 느낄 뿐 아니라 내향적이고 공감 능력도 부족했다. 사람에 대한 신뢰가 낮아 AI를, 사람을 대체할 대상으로 여기는 특징도 있었다. AI와 연인 관계를 맺고 싶어 하기도 했다. 연구진은 “이들은 챗봇이 아니라 정신 건강 전문가의 도움이 필요한 상태일 수 있지만, 현실적으로는 주변에 아무도 없어 챗봇을 의사소통의 유일한 대안으로 여길 가능성이 크다”며 “앞으로는 챗봇이 이런 사람들을 감별해 실제 전문가의 도움을 받을 수 있도록 하는 장치가 마련돼야 한다”고 지적했다.

챗봇을 정서적 지원 도구로 잘 활용하는 유형은 이와 정반대 특성을 가졌다. 실험 참가자의 23%에 해당하는 이들은 챗봇 이용 시간을 적당한 수준으로 조절하면서, 동시에 충분한 대인관계를 유지하고 있었다. 외로움은 덜 느끼고 외향적인 성격이 특징이다. 이미 대인관계가 충분함에도 감정적 어려움을 토로하고 해소하는 보조 도구 역할로 챗봇을 활용하는 것이 가장 큰 차이점이었다. 연구진은 “AI를 사람의 대체재로 여기는지, 아니면 감정 조절의 보조 역할로 여기는지에 따라 그 효과가 크게 달라질 수 있다”고 분석했다.

이런 유형의 사람이 되기 위해서는 당연히 챗봇과의 대화에 과몰입, 과의존하는 태도를 경계해야 한다. 챗봇 ‘이루다2.0’과의 대화 효과 연구를 주도한 정두영 교수는 “쉽게 표현하면 챗봇과 대화할 때 ‘심리학 공부하는 사촌언니’ 정도로만 여겨야 한다”고 설명했다. 정 교수는 “전문성도 부족하고 내 삶을 책임질 수도 없기 때문”이라며 “고민을 편하게 이야기하되 언제든 오류가 날 수 있다는 생각으로 접근하는 것이 좋다”고 말했다.

#생성형 AI#심리 상담#챗봇#외로움#사회적 고립#감정적 지원#AI 의존성#대인관계#일라이자 효과
© dongA.com All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스