올 7월 인공지능(AI) 기술로 음란물을 만들어 유포한 30대 남성 김모 씨가 재판에 넘겨졌지만 무죄가 났다. 김 씨는 텔레그램에서 확보한 성인 여성의 얼굴 사진을 AI 로 합성해 음란물을 만들어 유포했다. 성폭력처벌법상 허위영상물 반포 혐의였다. 흔히 ‘딥페이크 처벌법’으로 불리는 것이다.
그가 무죄를 받은 것은 딥페이크 처벌법의 허점 때문이다. 김 씨 측은 재판 과정에서 “(합성 대상자가) 누군지 모른다”면서 “실존 인물이 아니라 AI 프로그램이 만들어낸 가상의 인물일 가능성이 있다”고 주장했다. 딥페이크 처벌법으로 처벌하려면 음란물 속 대상이 그 음란물 제작에 반대 의사를 가질 수 있는 ‘사람’이어야 한다. 그런데 실제 사람이 아니라 AI가 만든 인물이면 이러한 의견 자체를 가질 수 없으니 처벌할 수 없다는 논리다.
재판부는 ‘의심스러울 때는 피고인의 이익으로’라는 법률 격언을 따랐다. 재판부는 “검사가 제출한 자료만으로는 (피해자가 존재한다는) 이 사건 공소사실이 합리적 의심의 여지 없이 증명되었다고 보기 어렵다”고 판결문에 적시했다. 다만 재판부는 “사진이나 영상 기술의 발달로 인해 실제 사진과 인위적으로 합성한 사진의 구별이 어려워진 것이 현실”이라며 기술 발전에 따른 법적 판단의 어려움을 토로했다.
이 판결에서 곱씹어봐야 할 지점이 여기다. 판결문을 뜯어보면 피고인도, 재판부도 피해자가 실제 존재하지 않는다고 단언하지는 못했다. 실존하는 피해자가 있을 가능성도 남아 있는 셈이다. 수사기관이 그 가능성을 명확히 입증하지 못했을 뿐이다.
그 때문에 불안한 미래가 떠오른다. 딥페이크 처벌법 위반으로 재판을 받을 피고인들이 진실은 도외시한 채 “피해자는 실존 인물이 아니다”라는 논리를 내세우는 것 말이다. 실력과 의지가 있는 수사관에게 사건이 배당되지 않는다면 이런 사건들엔 무죄가 선고될 가능성이 높다. 딥페이크 처벌법을 만들어 놓고도 쓰지 못하는 상황인 것이다.
최근 한 ‘허위 전화’ 사건에서 미국의 대응은 그래서 주목할 필요가 있다. 선거 전략가 스티븐 크레이머는 AI로 만든 조 바이든 전 대통령의 목소리로 지난해 1월 유권자들에게 전화를 걸어 투표 관련 허위 정보를 전파했다. 미 대선 후보 경선이 벌어지는 시점이었다. 수사당국의 추적 끝에 잡힌 크레이머와 변호인단은 전화 속 목소리가 자신을 바이든 전 대통령이라고 직접 언급하지 않았으니 사칭이 아니라는 논리로 주장했다. 배심원단은 이를 받아들였다. 성범죄는 아니지만, AI를 활용해 사회 질서를 어지럽히고도 무죄를 받았다는 점에서 김 씨 사건과 공통 분모가 있다.
하지만 크레이머는 기뻐할 수만은 없었다. 미 연방통신위원회(FCC)는 이미 600만 달러(약 83억 원)의 벌금을 부과한 상태였다. 그가 유권자들에게 건 전화에 허위 발신자 정보가 포함됐는데, 이는 통신 규정 위반이라는 것이다. 형사처벌은 피해 갔지만 행정 규제를 통해 책임을 물은 사례다. 법보다 범죄가 AI에 더 가까운 세상에서 정공법만 대책은 아닐 것이다.
댓글 0