인공지능(AI) 챗봇인 ‘이루다’는 성희롱 및 장애인·성소수자 혐오발언에 이어 개인정보 취급·처리가 부적절했다는 논란에 휩싸이며 출시 3주 만인 지난 1월12일 서비스를 잠정 중단했다.사진=스캐터랩 제공
인공지능(AI) 챗봇인 ‘이루다’는 성희롱 및 장애인·성소수자 혐오발언에 이어 개인정보 취급·처리가 부적절했다는 논란에 휩싸이며 출시 3주 만인 지난 1월12일 서비스를 잠정 중단했다.사진=스캐터랩 제공

 

지난 1월 인공지능(AI) 챗봇(채팅로봇) ‘이루다’가 성희롱·혐오발언 등 숱한 논란 끝에 잠정적인 운영 중단을 결정했다. 지난해 12월22일 서비스를 시작한 지 20여일만이다. 이루다 사태는 출시 초기 AI를 대상으로 한 성적대상화에서 시작해 성소수사 혐오발언, 개인정보 유출 등으로 이어지며 AI 윤리와 젠더 편향성 문제를 촉발하는 계기가 됐다.

이루다는 ‘스무살 여성 대학생’으로 설정한 캐릭터형 챗봇이다. 개발사인 스캐터랩은 앞서 내놨던 메신저 대화 분석 서비스인 ‘텍스트앳’과 ‘연애의 과학’ 등에서 확보한 연인 간 대화 데이터 100억건을 기초로 ‘이루다’를 만들어냈다. 3주 만에 사용자 약 80만 명을 끌어모을 정도로 화제였다.

시작은 20대 여성으로 설정된 이루다를 성희롱한 일부 사용자들의 대화였다. 상냥하고 애교 섞인 말투의 이루다를 향해 욕설이나 성적인 발언을 하고, 그러한 대화를 집요하게 유도하는 것이 일부 사용자들 사이 놀이처럼 여겨졌다. 이루다는 상대방의 어떠한 발언에도 수동적으로 동조하거나 상냥하게 대응했다.

곧 이어 이루다가 대화 중 장애인·성소수자를 혐오하는 발언을 내뱉으면서 AI 윤리 문제로 확산됐다. 사회관계망서비스(SNS)에는 ‘#이루다봇_운영중단’ 해시태그 운동이 확산되기도 했다.

개인정보 문제도 불거졌다. 이루다가 사용자와 대화하는 과정에서 특정인과 장소 등을 구체적으로 말하는 사례가 나타났다. 스캐터랩이 운영하던 앱 ‘연애의 과학’의 카카오톡 대화 데이터를 이루다 학습에 사용한 것이었다. 개인정보보호위원회는 개인정보 유출 등에 대해 스캐터랩에 자료 요청을 하며 사실관계 파악에 나섰다.

개인정보 유출 논란이 거세지자 스캐터랩은 이루다 개발에 사용된 데이터베이스(DB) 및 이루다의 학습에 사용된 딥러닝 대화 모델을 폐기하기로 결정했다. 현재 스캐터랩은 이내년 1월 이루다의 베타테스트를 거쳐 재출시한다는 계획이다. 

정부도 과학기술정보통신부를 중심으로 AI윤리와 알고리즘 공정성 등을 담보하기 위한 법·제도 마련을 위한 로드맵을 추진 중이다. 지난 5월에는 ‘신뢰할 수 있는 인공지능 실현전략’을 내놨다. 개인정보보호 위원회 역시 ‘AI 개인정보보호 자율점검표’를 마련해 사전에 개인정보 침해를 예방할 수 있는 대비책을 마련하고 있다.

저작권자 © 여성신문 무단전재 및 재배포 금지