인공지능 개발자 대부분 남성
인간 편향성 인공지능에 학습

'여성이여, AI혁명을 주도라라'라는 슬로건 아래 여성신문 AI(Artificial Intelligence:인공지능) 위원회를 위한 5차 모임이 8일 서울 서대문구 충정로 여성신문 본사에서 열렸다. ⓒ곽성경 여성신문 사진기자
ⓒ여성신문

우리는 요즈음 자신도 모르는 사이에 일상 생활에서 인공지능의 도움을 받으며 살고 있다. 세탁기, 가습기, 공기청정기, 에어컨, 청소기, 스마트 쿠커, 카메라, 비데, 의료 진단, 금융, 투자 등등 일일이 열거하기가 힘들 정도로 많은 곳에서 인공지능이 다양한 스마트 기능을 돕고 있다. 이러다간 인공지능이 우리 일자리를 빼앗을까 염려도 하는데 그다지 걱정할 일은 아닌 것 같다. 아직은 인공지능이 기술의 일부이며 인간을 충분히 이해하기 까지는 꽤 오랜 시간이 흘러야 하고, 이해하지 못하면 기술을 대체할 수 없기 때문이다.

인공지능은 결정을 내리는 데 도움을 주는 핵심기술이다. 잘못된 결정을 내리는 인공지능이 개발되면 그 위험성은 매우 심각할 수 있다. 이러한 이유로 인공지능의 위험을 경고하는 목소리가 높다. 우리 인간은 성별, 인종, 건강, 교육, 혈육 등의 배경을 토대로 중요한 결정을 내리곤 한다. 인공지능은 개발자가 심어준 데이터와 알고리즘에 의하여 결정을 내리므로 개발자의 편견은 고스란히 인공지능 시스템에 반영된다.

예를 들어 보자. 범죄 예방 프로그램은 교육 정도와 경제력, 출신 지역과 교우 관계, 인종 및 과거의 범죄기록 등이 수집된 데이터에 의하여 개발될 것이다. 경우에 따라, 특정 인종이 범죄를 저지를 경향이 농후하고, 교육 수준이 낮으면 범죄를 저지를 개연성이 높다는 등의 편향된 알고리즘이 시스템 안에 심어질 수 있다. 현실적으로 일반인도 반복되는 특정 사건에 접하게 되면 자신도 모르는 사이에 이런 종류의 편견을 갖게 된다. 여성은 판단력이 부족하고, 논리적이지 않고 심리적 방어기제가 남자보다 약해서 인공지능 프로그래머는 남성이어야 한다는 성차별적인 편견을 때로는 갖고 있기도 하다.

최근에 인공지능이 내린 결정 중에서는 우리 인간에게서 배운 편향에 의한 것이 상당 부분 있다. 현재 많은 기업이나 조직에서는 인공지능의 도움 아래 구직 면접의 자격여부를 검토하고, 자동차 보험료를 계산하고, 금융 대출에 필요한 신용도를 결정하고 있다. 이러한 결정들이 인종, 성별, 나이, 교육 수준, 경제력, 인간관계 등에 근거하여 수집한 데이터를 토대로 인공지능 시스템을 통하여 이루어진다. 물론 이러한 시스템 개발자들은 대부분 남성들이었다.

그 결과 여성은 남성이 구축한 인공지능 시스템의 피해자가 될 여지가 있다는 점은 쉽게 추측할 수 있다. 예를 들어, 단기 대출을 선호하고 대출 상환에 대한 판단력이 부족하다는 편견으로 대출 시스템은 여자들의 신용도를 일반적으로 낮게 평가할 수 있다. 인공지능은 프로그래머가 대부분 여자가 아닌 남자라고 배울 수도 있다. 인간의 편향성이 인공지능에 학습되고 있다. 이는 대단히 옳지 않은 일이다. 점차로 인공지능이 인간의 판단력보다 우위에 서게 됨에 따라 인간의 편향성은 의도되지 않게 증폭될 수 있을 것이다. 좀 더 심각한 문제가 있다.

인공지능은 인간의 상호 작용을 상품화하고 있다

최근 들어 애플 시리(iOS 및 맥OS 관리), MS 코타나(윈도우10 관리), 구글 나우(안드로이드 관리), SK텔레콤, KT의 '누구'와 '지니' 등 음성 비서 서비스가 점차 인기를 얻고 있다. 현재 인공지능 비서가 제공하는 서비스는 크게 13가지로 요약할 수 있다. 개인 일정 관리, 소셜 서비스 관리, 외국어 번역, 특정 앱과 서비스 실행하기, 쇼핑하기, 이메일 관리, 메신저 관리, 음악 관리, 날씨 정보 제공, 여행 정보 제공, 스포츠 경기 알림, 궁금한 것 알려주기 및 잡담하기, 사물인터넷 제어 등이다.

이러한 대화형 인공지능 시스템의 공통점은 음성의 주인공이 모두 여자라는 사실이다. 주인의 명령에 복종하는 하인으로 설계되어 주인의 명령에 따르게 되어 있다. 전등을 켜고 끄고, 장을 대신 보기도 하고, 음악을 선곡해주고, 잡담의 대상이 되며, 날씨를 알려주고 일정을 조정하기도 한다.

남성이 주인공인 인공지능은 더 책임이 막중한 일을 맡는다. 데이비드 페루치가 개발한 IBM 왓슨은 IBM 최초의 회장 토머스 왓슨에서 이름을 따왔다. 2011년 퀴즈 쇼 제퍼디에 참가하여 인간 퀴즈 챔피언과 대결을 벌여 참패를 안겨줬다. 이후 점차 기능을 강화하여 비즈니스 모델을 입혀 출시했다. 현재는 종양학 전문 왓슨, 방사선학 전문 왓슨, 내분비학, 법학, 금융, 방송, 의학, 세금, 쇼핑 등 소비자 서비스를 제공하는 전용 왓슨이 따로 개발되어 있다. 2016년에는 왓슨을 기반으로 ROSS Intelligence 사가 개발한 것으로 인간 변호사 50명과 함께 파산 관련 업무를 수행한다. 2019년에 선보인 음성 AI 서비스인 ‘아인슈타인 보이스’는 세일즈 포스 AI 기술과 아마존 알렉사 음성 인식 기능을 결합한 제품이다. 영업, 마케팅 등 주요 사업 의사 결정을 도와준다. 이들 모두가 남성 인공지능들이다. 인공지능에서도 성차별이 자행되고 있으며 남성적 편견이 로봇에도 강화되어 가고 있는 것이다.

자라나는 어린이들이 이러한 인공지능을 사용하면 직간접적으로 성적 편향성의 영향을 받게 되어 있다. 개인 비서와 최고 경영자가 각각 순종적인 여자와

권위적인 능력 있는 남자라는 고정 관념이 따로 자리 잡게 되면 의식과 행동 패턴에 바람직하지 않은 부작용을 낳을 수 있을 것이다. 앞으로 인공지능과 로봇을 개발할 때 이러한 점을 충분히 고려해야 할 것이다.

인공지능에게 올바른 가치관과 윤리관을 가르칠 임무는 우리에게 있다. 현재 우리 사회에 팽배해 있는 편견을 인공지능이 먼저 인지하도록 해야 할 것이다. 인지된 사실을 시스템에 이식할 수 있는 현장을 여성이 참여하여 리드해 나가야 할 것이다. 또한 인공지능에게 편견을 극복할 수 있는 데이터를 지속적으로 입력해주는 역할도 우리 여성들의 몫이 될 것이다.

성차별적이고 인종차별적인 기계가 세상을 움직인다면 인간 미래는 암울해질 것이다.

최영미 성결대학교 미디어소프트웨어학과 교수
최영미 성결대학교 미디어소프트웨어학과 교수

 

저작권자 © 여성신문 무단전재 및 재배포 금지