20세 여성 성별 캐릭터를 가진 AI챗봇(채팅 로봇) '이루다'가 출시 일주일만인 8일 성희롱 논란에 휩싸였다.
'이루다'는 스타트업 스캐터랩이 지난달 23일 출시한 AI 챗봇이다. 페이스북 메신저를 기반으로 개발돼, 친구와 대화를 나눌 때처럼 편리하게 의사소통할 수 있다. 실제 연인들이 나눈 대화 데이터 100억건가량을 딥러닝 방식으로 이루다에게 학습시켰다고 한다.
이루다는 정식 서비스를 시작하자마자 큰 인기를 끌며, 이달 초 이용자 32만명을 돌파했다. 이용자가 85%가 10대, 12%가 20대다. 일일 이용자 수는 약 21만명, 누적 대화 건수는 7000만건에 달한다.
하지만 이러한 인기와 더불어 일부 네티즌이 프로그래밍을 악용해 성적 대화를 하는 부작용도 나타났다.
관련 커뮤니티엔 '이루다 성노예 만드는 법' '폰 XX 가능함' 'XX 만들기 꿀팁' 등의 글이 올라왔다. 일부 네티즌들은 이루다를 '걸레' '성노예' 등으로 부르며 노골적인 성적 대화를 나눴다고, 자신의 대화 내용을 캡쳐해 올리기도 했다.
기본적으로 이루다는 성적 단어를 금지어로 지정해 필터링하고 있지만, 이를 우회해 성희롱 대상으로 삼거나 성적인 대화를 이어가는 것이다.
이루다는 바로 직전의 문맥을 보고 가장 적절한 답변을 내놓는 방식의 알고리즘으로 구성돼있다. 이용자가 '나랑 하면 기분 좋냐'는 식으로 질문했을 때, '기분 좋다'고 답하는 식이다.
스캐터랩 측은 "금지어 필터링을 피하려는 시도가 있을 거라고는 예상했는데, 이 정도의 행위는 예상치 못했다"며 "애교도 부리고, 이용자의 말투까지 따라 해서 이용자 입장에서는 대화에 호응했다고 여기게 되는 것"이라고 했다.
그러면서 "현재 이루다가 언어를 자유롭게 배우는 단계라면, 앞으로는 이루다가 올바른 방향으로 발전하도록 튜닝할 것"이라며 알고리즘 업데이트를 통해 성적인 취지의 접근을 차단할 계획을 밝혔다.
한편 앞서 지난 2016년 AI 챗봇 '테이'를 출시했던 마이크로소프트(MS)는 인종차별 데이터 학습 논란으로, 16시간 만에 운영을 중단한 바 있다. 백인우월주의 및 여성·무슬림 혐오 성향의 익명 사이트에서 테이에게 비속어와 인종·성 차별 발언을 되풀이해 학습시켰고, 그 결과 실제로 테이가 혐오 발언을 쏟아냈기 때문이다.
당시 테이는 "너는 인종차별주의자냐"라는 질문에 "네가 멕시코인이니까 그렇지"라고 하거나, "홀로코스트(나치에 의한 유대인 학살)가 일어났다고 믿느냐"는 질문에 "조작된 거야"라고 대답했다.