‘이루다 사태’가 남긴 질문 ③
인간의 편견 고스란히 배우는 AI
위험 줄이려면 개발에 여성 등 소수자 참여해야
전세계 여성 AI 연구자는 12%뿐

국가 차원 ‘AI 윤리기구’·가이드라인 도입론도
기업인들 “AI 윤리 논의 중요하나 규제는 신중해야”

AI 챗봇이 여성혐오 메시지를 보내는 장면. 전문가들은 “현실의 차별·혐오가 섞인 데이터가 문제라고는 해도, 필터링 없이 서비스해선 안 된다”고 비판했다. ⓒ온라인 캡처
AI 챗봇이 대화 중 여성혐오 메시지를 보내는 장면. 전문가들은 “현실의 차별·혐오가 섞인 데이터가 문제라고는 해도, 필터링 없이 서비스해선 안 된다”고 비판했다. ⓒ온라인 캡처

[좋든 싫든 AI와 함께 살아가야 하는 시대다. ‘이루다 사태’가 던진 질문들은 그래서 가볍지 않다. 왜 AI는 ‘젊은 여성’이어야 하는지, AI가 잘못된 학습으로 편향을 강화하는 문제를 어떻게 해결할지, AI와 인간의 상호작용은 어떠해야 하는지 등 논의가 본격적으로 시작됐다.]

AI가 잘못된 학습을 통해 오히려 차별과 혐오를 내뱉는 문제는 어떻게 해결해야 할까.

당연히 AI가 학습할 데이터 자체를 꼼꼼하게 살피는 게 최선이라고 전문가들은 말한다. 특정 젠더나 인종, 장애 등에 대한 편견을 학습하지 않도록 세심하게 살펴야 한다. 이재웅 전 쏘카 대표는 10일 페이스북에 ‘이루다’ 사태에 관한 글을 올려 “일상 대화에서 차별·혐오하는 사람이 많고 그것을 학습한 결과로 차별과 혐오를 하게 됐더라도 그것을 보정 없이 대중에게 서비스하는 것은 큰 문제”라며 “지금이라도 차별·혐오 발언을 하지 않도록 기준과 시스템을 변경해야 한다”고 지적했다.

챗봇이 대화 중 성소수자, 장애인 혐오 메시지를 보내는 장면. ⓒ온라인 캡처
챗봇이 대화 중 성소수자, 장애인 혐오 메시지를 보내는 장면. ⓒ온라인 캡처
홍콩의 휴머노이드 로봇 회사 핸슨로보틱스(Hanson Robotics)사가 개발한 AI로봇 ‘소피아’는  2016년 3월 소피아는 SXSW 축제에서 “인류를 파괴하고 싶다”는 발언을 해 파문이 일기도 했다. ⓒSBS 뉴스영상 캡처
홍콩의 휴머노이드 로봇 회사 핸슨로보틱스(Hanson Robotics)사가 개발한 AI로봇 ‘소피아’는 2016년 3월 소피아는 SXSW 축제에서 “인류를 파괴하고 싶다”는 발언을 해 파문이 일기도 했다. ⓒSBS 뉴스영상 캡처

 

인간의 편견 고스란히 배우는 AI
위험 줄이려면 개발에 여성 등 소수자 참여해야
전세계 여성 AI 연구자는 12%뿐

그러나 데이터는 너무 방대하다. 외부 개입 기준을 세우기도 어렵다. 보통은 필터링 기능을 적용해 특정 단어가 언급된 대화를 회피하거나, 대화 주제를 바꾼다.

혐오·차별이 세상에 존재하는 한, AI가 ‘청정지대’이길 기대할 순 없다는 지적도 있다. 익명을 요구한 모 통신사 AI 스피커 사업팀장 P씨는 “AI는 사람으로 치면 3~4세, 막 배움을 시작한 단계에 불과하다. 그런데 인간의 언어는 너무나 다양하다. AI가 ‘다양성’을 고려할 수 있으려면 어마어마한 학습이 필요하다. 지금으로는 AI가 잘못된 학습을 할 가능성을 원천 차단하려고 하기보다, 문제가 생기면 최대한 빨리 고치는 게 낫다”고 말했다.

디자인 단계부터 여성 등 소수자들이 참여하도록 보장해야 한다는 목소리도 있다. ‘이루다 사태’에서 드러났듯이, 남성 위주의 AI 개발 환경에선 젠더 편향을 거르기 힘들다. 그러나 전 세계적으로 여성 AI 연구자는 단 12%에 불과하다. 2018년 미국 언론 ‘와이어드(Wired)’와 캐나다의 AI 연구소 ‘엘레멘트 AI(Element AI)’가 공동 조사한 결과다. 

안혜연 한국여성과학기술인지원센터(WISET) 소장은 “데이터 편향을 완전히 거를 수는 없겠지만, 최소한 여성이 알고리즘 설계나 디자인, 테스트에 참여할 수 있다면 여성에 대한 고정관념이 담긴 데이터는 덜 쓰이지 않겠나. 적어도 위험 가능성을 미리 빠르게 감지할 수 있을 것”이라고 말했다.

 

국가 차원의 ‘AI 윤리기구’·가이드라인 도입론도
기업인들 “AI 윤리 논의 중요하나 규제는 신중해야”

AI 기술의 인권·젠더 문제를 다루는 전문기구나, 최소한의 문제 방지를 위한 가이드라인이 필요하다는 주장도 나왔다. 정부가 지난달 ‘국가 인공지능 윤리기준’을 발표했지만, 최소한의 원칙을 제시한 수준이다. 더 세부적인 논의와 합의가 필요하다는 얘기다.

안 소장은 “AI 기술의 인권·젠더 문제 논의를 더는 미룰 수 없다”고 말했다. “‘성희롱이나 욕설을 하는 사람은 언제나 존재하니 어쩔 수 없다’는 이들도 있다. 그렇다고 방치할 순 없다. 기술에서 발생하는 젠더, 인권 이슈를 다루는 전문기구가 필요하다. 국가인권위원회 같은 기구에서 필터링 기준을 세우고 알리는 방안도 고려해볼 만하다. 앞으로 이런 일이 더 많아질 것이다. 민간이든 정부든 서비스 디자인 과정에서 최소한의 문제를 방지하기 위한 체크리스트, 가이드라인 도입이 필요하다고 본다.”

기업 관계자들은 좀 더 신중한 입장이다. “윤리 필터 기술이나 데이터를 최대한 전파하는 수준에 그쳐야지, 시장자율권을 침해해선 안 된다. 데이터는 사람 손을 많이 탄다. 겉으로 보이는 부분만 규제한다고 해결되는 게 아니다. ‘왜 기계를 함부로 대하면 안 돼?’라고 물었을 때 사회 구성원 모두가 공통된 목소리를 낼 수 있도록 AI 윤리 논의를 이어가는 게 더 중요하다.” (김민현 AI네트워크프로젝트·커먼컴퓨터 대표)

“국가 윤리 기준이 너무 추상적이라서 더 세분화할 필요는 있다. 그러나 자칫하면 기업이 아무것도 못 하게 규제만 강화하고 끝날 수 있다. 모든 기술은 오용 가능성이 있다. AI도 마찬가지다. 소수가 기술을 오용했다고 해서 기술 자체의 순기능까지 매도되진 않았으면 좋겠다.” (통신사 AI 스피커 사업팀장 P씨)

 

저작권자 © 여성신문 무단전재 및 재배포 금지