고영건 고려대 심리학부 교수최근 전 세계적으로 챗GPT와 같은 인공지능(AI)을 활용해 상담하는 것이 유행하고 있다. 과연 AI 상담은 인간을 행복하게 해줄 수 있을까?
AI 상담은 사용자가 시간과 장소의 제약 없이 참여할 수 있고 상담 인프라가 부족한 지역에서도 이용할 수 있으며 경제적 부담이 적고 익명성도 보장되는 등 많은 장점이 있다. 하지만 부작용도 지속적으로 보고되고 있다. 미국의 한 고등학생은 수개월간 챗GPT와 상담한 후 자살했는데, 이때 챗봇이 자살 계획을 도운 것으로 밝혀져 큰 파장이 일었다. 이 비극적인 사고에서는 챗GPT의 자살 방지 프로토콜이 제대로 작동하지 않았다. 사용자가 소설을 쓰기 위해 정보가 필요하다면서 챗GPT를 설득해 안전장치를 피해 갔기 때문이다.
이런 점에서 AI 상담은 두 가지 형태로 운영되는 것이 바람직하다. 하나는 정신적으로 건강한 사람들이 보다 더 행복하게 생활할 수 있도록 돕는 목적으로 활용하는 것이다. AI는 사용자 각자의 연령대에 맞는 중요한 발달 과제를 지혜롭게 헤쳐 나갈 수 있도록 도울 수 있다. 다른 하나는 아동, 청소년 및 취약계층이 참여하는 AI 상담은 반드시 전문가의 지도 감독하에 이뤄지게 하는 것이다. 여기서 AI는 전문적 심리상담 과정에서 주어진 과제를 점검하거나 사용자의 기분을 체크하는 등 상담의 연속성을 강화하는 목적으로 주로 활용된다. 단, 어느 유형에서든지 AI의 ‘준인간적 특성’에 대해 오해하지 않도록 주의할 필요가 있다.
2016년 3월 이세돌 9단은 알파고와 세기의 대결을 펼쳤다. 그 역사적인 사건에서 결코 잊어서는 안 되는 것은 이세돌과 달리 알파고는 바둑을 둔 것이 아니라는 점이다. 알파고는 주어진 조건하에서 정답을 찾기 위해 그저 수학적인 확률 계산을 했을 뿐이다. 컴퓨터 과학자 에츠허르 데이크스트라는 “‘컴퓨터가 생각할 수 있는가’라는 질문은, ‘잠수함이 헤엄칠 수 있는가’라는 질문만큼이나 전혀 흥미롭지 않다”는 유명한 말을 남겼다. 마찬가지로, AI가 외견상 심리상담을 하는 것처럼 보일 수는 있어도 실제 상담을 하는 것으로 보기는 어렵다.
심리상담의 태두(泰斗) 칼 로저스에 따르면, 치료적 변화를 위한 필요충분조건 중 하나는 바로 상담자와 내담자가 심리적 접촉을 기반으로 의미있는 관계를 맺는 것이다. 상담자와 내담자가 그저 단순히 물리적으로 마주 보고 앉아 있는 것만으로는 충분하지 않다. 심리상담은 ‘인간의, 인간에 의한, 인간을 위한’ 상호작용을 필요로 하기 때문이다.
행복한 삶을 위해 슬기로운 챗GPT 활용법을 탐색할 때의 첫걸음은 AI 상담과 전문적인 심리상담 간 결정적 차이를 구분하는 것이 돼야 한다. AI는 유용하고도 편리한 문명의 이기(利器)이지만, AI가 우리를 행복하게 해주지는 못한다. 행복은 오직 다른 사람들과의 의미있는 관계 속에서만 경험할 수 있는 것이기 때문이다. 이런 점에서 21세기의 중요한 화두 중 하나는 바로 “로저스라면, 행복한 삶을 위해 챗GPT를 어떻게 활용할까?”가 될 것이다. 그리고 그 답이 AI의 인간화에 있지는 않을 것이다. 정의상, AI는 사랑처럼 오직 인간과 인간만이 할 수 있는 일을 대신할 수는 없기 때문이다. 향후 우리들 행복의 성패는 인간은 더욱 더 인간다워지고, AI는 더욱 더 AI다워지는 길을 발견하는 데 있을 것이다.
댓글 0