네이버가 지난해 12월 스위스 유럽연합(UN) 제네바 사무소에서 개최된 ‘신기술에 대한 인권 기반의 접근: 컨셉에서 구체적 적용으로’ 행사에 참석해 안전한 인공지능(AI) 생태계 구축을 위한 네이버의 노력을 소개했다.
네이버는 이 자리에서 안전한 AI를 구축하기 위한 원칙을 실무에 적용해온 구체적인 사례들을 공유했다. 발표를 맡은 네이버 정책·위기관리(RM) 아젠다 박우철 변호사는 2022년부터 운영 중인 네이버 AI 윤리 자문 프로세스 ‘CHEC’를 소개했다. CHEC는 ‘네이버 AI 윤리 준칙’을 실제 서비스 출시 과정에 적용하기 위해 설계한 정책이다.
네이버 AI 윤리 준칙을 구체화하기 위한 다양한 정책 소개도 이어졌다. 2023년에 공개한 ‘사람을 위한 클로바X 활용 가이드’는 빠르게 발전하는 생성형 AI 기술에 네이버 AI 윤리 준칙이 어떻게 적용될 수 있을지에 대해 고민한 결과물이다.
올해는 AI 시스템을 개발하고 배포하는 과정에서 AI의 잠재적 위험을 더욱 체계적으로 인식·평가·관리하기 위해 네이버 AI 안전 프레임워크(ASF)도 새롭게 구축했다.
네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고 이에 대응하기 위한 방법을 설계한 것이 특징이다. 인간이 AI 시스템에 영향을 미치지 못하게 되는 ‘통제력 상실 위험’을 완화하기 위해 ‘AI 위험 평가 스케일’을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다. 현존 최고 성능의 AI 시스템을 ‘프런티어 AI’로 정의하고 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다.
네이버 ASF가 정의하는 AI 시스템의 또 다른 잠재적 위험인 ‘악용’ 가능성에는 ‘AI 위험 평가 매트릭스’를 적용해 대응한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 위험을 관리한다. 예컨대 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화하고, 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 위험이 완화될 때까지는 배포하지 않는 식이다.
댓글 0