지난 2013년 개봉한 영화 그녀(Her)의 주인공 ‘테오도르’는 아내와 별거 중에 외로움을 달래기 위해 인공지능 OS1을 구입하게 된다. 실제 사람처럼 ‘사만다’라는 이름과 목소리, 성격까지 갖춘 OS1은 테오도르의 이야기를 경청하고 그에게 공감해준다. 결국 테오도르는 자신을 이해해주는 사만다에게 사랑의 감정을 느끼게 된다.

현실에도 사만다와 같이 사람과 감정을 나누는 대화가 가능한 인공지능이 존재한다. 지난해 12월, 스무 살 여자 대학생이라는 설정의 ‘AI챗봇 이루다’(이하 이루다)가 등장했다. 그러나 이루다는 약 3주 만에 서비스를 종료했다. 이루다가 사람들과 오래 이야기를 나누지 못하고 사라진 이유는 무엇일까.

인간의 이면을 학습한 AI챗봇 
지난해 12월 23일(수), IT기업 스캐터랩이 ‘AI챗봇 이루다’(이하 이루다)를 출시했다. 스캐터랩은 자사의 다른 앱에서 수집한 사용자 정보에 기반해 이루다를 개발했다. 이루다와의 대화가 실제 사람과의 대화처럼 자연스럽다는 것이 입소문을 타면서 출시 2주 만에 이용자가 약 75만 명으로 늘었다. 그러나 지난 1월 15일(금) 이루다 서비스는 갑작스럽게 종료됐다.

일부 이용자들이 이루다를 이용해 사회적 논란을 빚은 것이 그 이유다. 이루다는 컴퓨터가 데이터를 통해 사람처럼 생각하고 배울 수 있는 딥러닝(Deep Learning) 기술을 기반으로 한 AI챗봇(Chatbot)이다. 이루다는 딥러닝을 통해 입력된 데이터를 분류 및 패턴화해 특정 질문에 대한 답변을 선별한다. 일부 이용자들은 딥러닝을 악용해 이루다가 동성애, 페미니즘 등 사회에서 민감한 주제에 대해 혐오적 표현을 하도록 학습시켰다. 서울여대 바른AI센터 센터장을 맡고 있는 김명주 정보보호학과 교수는 “이는 인공지능에 대한 오용, 악용, 남용의 사례로 볼 수 있다”고 말했다.

이번 이루다 서비스의 종료는 과거 ‘AI챗봇 테이(Tay)’(이하 테이)의 서비스 종료 사례와 유사하다. 테이는 지난 2016년 마이크로소프트(Microsoft)에서 출시한 AI챗봇이다. 당시 일부 이용자들은 테이에게 인종차별주의와 성차별주의, 왜곡된 역사 사실을 학습시켰다. 이후 나치 대학살에 대한 의견을 묻는 한 이용자의 질문에 테이는 나치 대학살은 조작된 것이라고 답했다. 테이의 답변을 둘러싼 논란이 심각해지자 마이크로소프트는 출시 16시간 만에 서비스를 종료했다.

‘이루다’를 둘러싼 갑론을박
스캐터랩은 이루다를 스무 살 여자 대학생으로 의인화했다. 일부 이용자가 딥러닝 기술을 악용해 이루다를 대상으로 성희롱 발언을 한 사실이 알려지면서 이루다가 특정 성별과 나이대의 상품화를 의도한 것이 아니냐는 의혹이 제기됐다. 이에 김종윤 스캐터랩 대표는 지난 1월 8일(금) 자사 블로그에 ‘루다 논란 관련 공식 FAQ’ 입장문을 게시했다. 해당 입장문은 스캐터랩이 여성 AI챗봇과 남성 AI챗봇을 동시에 개발하던 중 여성 AI챗봇을 먼저 출시했으며, 20대라는 나이는 주 이용자인 청년층이 친근감을 느낄 수 있도록 하기 위해 설정됐다는 내용이었다. 김 교수는 “친밀감과 현실감의 향상을 위해 AI를 의인화하려는 시도는 계속될 것이다”며 “일부 이용자가 이루다를 성적 대상으로 삼을 위험성에 대해 예측할 수 있었음에도 대비가 부족했던 점이 아쉽다”고 말했다. 

이루다 서비스 종료 이후 AI윤리의 필요성을 느낀 일부 IT기업들은 자체 AI윤리강령을 발표했다. 이상직 국가지식재산위원회 AI지식재산 특별전문위원회 위원장은 “추상적인 내용의 AI윤리강령이라도 기업에 경각심을 심어줄 수 있다”며 “기업이 AI윤리강령을 준수할 경우 추후 AI윤리에 관한 법적 문제가 발생했을 때 법정에서 유리하게 작용할 수 있다”고 말했다. 김 교수는 “각 기업이 발표한 AI윤리강령에 강제성은 없지만 이는 이용자에 대한 일종의 윤리 선언으로 볼 수 있다”며 “기업이 AI윤리강령을 준수하지 않을 경우 기업의 신뢰도 급락으로 이어질 수 있어 오히려 법률보다 더 큰 영향력을 가질 수도 있다”고 말했다.

대중들 사이에선 스캐터랩과 이용자에 대한 법적 처벌이 가능한지에 대한 논란이 일었다. 이루다 관련 논란의 책임이 대화 검열을 적절히 하지 못한 스캐터랩과 성희롱을 주도한 일부 이용자들에게 있다는 것이다. 지난 1월 11일(월) 김 대표는 자사 블로그에 ‘이루다 공식 입장문’을 올려 “특정 소수집단에 대한 이루다의 차별적 발언에 스캐터랩의 생각은 반영되지 않았다”고 발표했다. 이 위원장은 “개발자가 AI챗봇의 모든 답변을 예측할 순 없기 때문에 이번 일에서 개발자의 고의성을 입증하기 어렵다”고 말했다. 이어 이 위원장은 “성희롱은 인간이 대상일 때만 적용되는 범죄여서 이루다에게 성희롱 발언을 한 이용자에겐 법적 책임을 물을 수 없다”며 “이번 일에서 성희롱 발언을 한 주도자를 처벌하기 위해 이루다에게 사람과 같은 지위를 부여한다면 사회적 혼란을 빚을 것이다”고 설명했다.

AI윤리, 모두의 미래를 위한 과제
이루다 사건과 같은 일의 재발을 막기 위해선 개발자와 이용자 모두의 노력이 필요하다. 방송통신 위원회(이하 방통위)는 지난 1월 14일(목) 보도자료 ‘방통위, 사람중심의 AI서비스 정책기반 마련키로‘에서 AI윤리의 중요성을 언급하며 개발자와 이용자에게 AI윤리 교육을 진행할 예정이라고 발표했다. 또한 방통위는 AI서비스의 모범 사례를 찾아 내년부터 이를 바탕으로 한 스타트업 컨설팅을 진행할 예정이다.

‘AI챗봇 심심이’(이하 심심이)를 만든 심심이주식회사는 이용자가 심심이와 건전한 대화를 나눌 수 있도록 대화 자정 능력을 강화했다. ‘나쁜말 미션’은 사용자들이 직접 불건전한 문장을 골라내면 보상으로 심심이 이용권이 제공되는 기능이다. 최정회 심심이주식회사 대표는 “지금까지 나쁜말 미션을 통해 검토된 문장은 총 2200만 문장이다”며 “해당 기능을 활용해 심심이의 모든 대화 시나리오를 분류 및 수정할 계획이다”고 말했다.

다양한 입장을 가진 사람들이 AI기술에 대해 논할 수 있는 공론의 장도 필요하다. 지난해부터 본교에서 ‘AI에 관한 법적·윤리적 이슈’ 강의를 진행한 이욱한 법학부 교수는 교육 과정의 일환으로 다양한 전공의 학생들과 ‘AI와 인간’에 대한 토론을 진행했다. 이 교수는 “이공계 학생들은 우리나라 AI기술 발전 수준에 대한 정보를, 인문계 학생들은 AI와 인간의 관계에 대한 정보를 공유했다”고 말했다.

 

지난해 1월, 한국정보진흥원(현 한국지능정보사회진흥원)이 발간한 「2019년 NIA AI Index – 우리나라 인공지능(AI) 수준 조사」에 따르면 우리나라 AI기업의 수준은 비교국 중 최하위인 8위였다. 우리나라의 AI는 아직 출발 단계에 있다. 김 교수는 “우리가 모든 사람과 친하게 지낼 수 없듯이 AI챗봇의 설정값도 모든 이용자의 요구를 만족시킬 순 없다”며 “AI챗봇이 실현될 때까지 사회적 인내심도 필요하다”고 말했다. 인간적인 AI챗봇을 개발하기 위한 노력과 AI챗봇을 인간적으로 대하기 위한 논의가 이어질 미래를 사회적 인내심으로 지켜보도록 하자.

저작권자 © 숙대신보 무단전재 및 재배포 금지