젠더혁신센터 기획 『AI, 편견을 넘다』
곽진선 등 국내 AI 전문가 9인 공저
기술 편향·기후위기·불평등 심화 우려 딛고
포용적 미래 위한 AI 발전방안 모색

ⓒWanlee Prachyapanaprai/Dreamstime
ⓒWanlee Prachyapanaprai/Dreamstime

인공지능(AI) 기술은 양날의 검이다. AI 기술 편향은 여성과 소수자들을 학교에서, 채용 시장에서, 정부 정책 수혜 대상에서 밀어내고 불편하게 만들고 죽이기까지 한다. “AI 시스템에서 편견을 완전히 없애는 것은 거의 불가능하다.” 이혜숙 한국과학기술젠더혁신센터 소장은 단언한다.

허나 비관론은 아니다. AI의 그림자를 지울 수 없다면, 더 밝게, 더 오래 꺼지지 않을 빛을 발할 방법을 고민할 일이다. 젠더혁신센터는 학계와 산업 현장에서 주목받는 AI 전문가 아홉 명에게 AI 기술의 편향을 개선하고 지속가능한 AI 발전을 도모할 방안을 물었다. “AI가 불러오는 사회변화를 가장 먼저 감각하고 새로운 생태계를 만들어가는 데 최전선에” 있는 전문가들이다.

답변을 모아 지난해 12월 『AI, 편견을 넘다』(롤러코스터)를 펴냈다. 각자의 관점에서 AI 기술의 현재와 미래를 진단하고, 편향과 악용 우려를 극복하기 위한 노력과 전망을 들려준다. 포용적 사회를 만들기 위한 AI 개발·활용 사례, 더 나은 AI 생태계를 위한 제언도 담았다. 

『AI, 편견을 넘다』(곽진선, 안현실, 조원영, 권오성, 이건명, 김지희, 이상욱, 강정한, 배순민, 이혜숙 저, 롤러코스터) ⓒ롤러코스터
『AI, 편견을 넘다』(곽진선, 안현실, 조원영, 권오성, 이건명, 김지희, 이상욱, 강정한, 배순민, 이혜숙 저, 롤러코스터) ⓒ롤러코스터

AI는 근본적으로 인간의 판단과 행동을 자동화하는 기술이다. 학습 데이터에 편견이 포함되면 AI도 같은 편견을 재생산할 수밖에 없다. 이건명 충북대 교수는 AI 알고리즘이 복잡하다 못해 ‘블랙박스’처럼 불투명한 점도 한계로 지적한다. 실제로 챗GPT(ChatGPT)의 투명도 지수는 49%에 불과하다(스탠퍼드대 인간중심AI연구소, 2024).

다양성을 높이려던 AI가 오히려 역사적 사실을 왜곡해 또 다른 논란을 빚기도 한다. 지난해 구글의 생성형 AI 제미나이(Gemini)는 아인슈타인을 흑인으로 표현했다. 메타의 이미지 생성 AI 이매진(Imagine)은 미국 식민지 시대 인물을 아시아 여성으로 묘사했다.

김지희 동국대 교수는 “오픈AI, 메타, 구글같이 생성형 AI 모델을 개발하는 대표 기관들은 편향 문제나 오해 소지가 있는 결과에는 모델들이 방어적으로 대응하게끔 꾸준히 검증하고 발전시키고 있”으나, “생성형 AI를 학습시키는 데이터는 주로 사람이 만들어내고, 사람인 만큼 누구나 편향성을 안고 있기에 근본적인 어려움이 있다”고 설명한다. 

AI로 만드는 포용적 사회

물론 잘만 활용하면 AI는 사회적 편견·차별 해소의 강력한 도구가 될 수 있다. 권오성 한국마이크로소프트 상무는 “AI를 활용하면 새로운 가능성과 도전이 함께 열린다”고 강조한다. 

먼저 AI는 장애인의 일상생활과 취업을 지원하는 도구로 진화하고 있다. 시각장애인이나 저시력자에게 주변 정보를 제공하는 마이크로소프트의 시잉 AI(Seeing AI), 오어캠 마이아이(OrCam MyEye) 등이 있다. 비마이아이즈(be my eyes)는 시각장애인을 비장애인과 실시간으로 연결해 시각적 지원을 제공한다. 숨 AI(SUMM AI)는 복잡한 텍스트를 쉬운 말로 번역한다. NWEA AI는 맞춤형 교육 콘텐츠를 제공한다. 잼모(Zammo.AI)는 대화형 AI와 음성 지원을 통해 장애인의 채용 공고 접근성을 높이고, 멘트라(Mentra)는 신경다양인의 이력서를 분석해 각자의 특성에 맞는 직무를 찾아준다. 

권 상무는 접근 가능한 기술 개발을 돕는 AI 기반 대화형 인터페이스인 AIA(AI assistant for Accessibility) 도입을 제안한다. 개발자들이 접근성 관련 규범과 표준을 쉽게 적용할 수 있도록 지원하는 도구로, 더 많은 접근성 높은 기술 개발의 토대가 될 것이라는 판단이다. 

조원영 소프트웨어정책연구소 실장은 미국의 재범 위험 예측 모델을 예로 들어 AI가 판사나 배심원단의 변덕스럽고 불공정한 판결을 개선하는 데 기여할 수 있다고 말한다. AI 기업 디버시오(Diversio)는 혼다, 유니레버 등 기업의 채용과 인사관리 데이터를 분석해 조직 내 포용적 인사 정책 수립을 돕는다. 또 다른 기업 텍스티오(Textio)는 기업의 홍보자료 같은 대내외 문서에 편향된 표현이 있는지 검토하고 수정하는 서비스를 제공한다.

배순민 KT AI 퓨처랩 랩장은 AI가 교육과 금융 분야의 접근성·포용성 확대에도 기여할 수 있다고 본다. AI 기술을 활용해 경제적으로 어려운 환경에서도 질 높은 교육을 제공할 수 있다. AI 기반 금융 서비스는 금융 소외계층에게도 더 많은 기회를 제공한다. AI는 에너지 사용 패턴을 분석해 효율성을 높이고, 기후변화를 더욱 정확하게 예측하는 등 환경 문제 해결에도 기여할 수 있다.

지속가능한 AI 다양성을 위한 과제

관건은 ‘AI 다양성’이다. 학계와 산업계는 민감한 데이터를 제외하고 데이터셋을 재정립하거나, AI 편향성을 평가하는 알고리즘을 발전시키고 있다. 검색-증강 생성(RAG) 기술을 통해 외부 지식베이스를 참조함으로써 부족한 정보를 보완하는 시도도 이뤄지고 있다.

과제는 많다. 배 랩장은 AI가 개인의 자유와 권리를 침해하지 않도록 하는 법적·제도적 장치의 필요성을 강조한다. AI 학습에 소요되는 막대한 에너지 사용량도 해결해야 할 문제다. GPT-3 모델의 학습에는 미국 300가구의 1년 치 전력 사용량에 맞먹는 에너지가 소비됐다는 분석도 있다. 

이상욱 한양대 교수는 UN 보고서를 인용해, AI 기술 격차로 인한 불평등 심화를 경계한다. 국가 간, 개인 간 AI 활용 능력의 차이가 새로운 형태의 불평등을 낳을 수 있다는 얘기다. 

안현실 UNIST 교수는 “AI 시대 리터러시(literacy)가 중요하다”고 강조한다. AI의 활용성과 한계를 정확히 이해하고 생산성을 높이려면 개개인의 AI를 이해하고 잘 쓸 줄 아는 능력이 필수적이라는 얘기다.

그는 연구 인프라의 편중 현상을 극복하고, 다양한 국가와 문화가 참여하는 AI 생태계를 만들어야 한다고 강조한다. “미국과 중국의 AI 패권 경쟁은 오히려 다극화된 AI 생태계를 만드는 기회가 될 수 있고, 한국이 다양성 기반 AI로 새로운 시장을 개척할 수 있다”고 전망한다.

이번 책을 펴내기에 앞서 젠더혁신센터는 다른 기획 저서 『젠더혁신 : 건축과 도시의 포용적 미래』(2024)에서 전 세계 곳곳의 도시와 건축이 건강한 남성을 기준으로 설계돼 여성의 경험과 요구를 반영하지 않는 현실을 지적했다. 포용적인 시각이 어떻게 모두에게 더 쾌적하고 안전한 공간을 제공하는지도 다뤘다. 두 책 모두 기술 발전이 진정한 의미의 진보로 이어지려면 다양성과 포용성이라는 가치를 놓치지 말아야 한다는 게 핵심이다. 챗GPT, 딥시크에 이어 매일같이 세상을 뒤흔드는 AI 쇼크에 대처하고 싶은 페미니스트도, 풍성한 통계 자료와 사례를 바탕으로 AI 다양성 전략을 모색하고자 하는 이들도 눈여겨볼 책이다. 

저작권자 © 여성신문 무단전재 및 재배포 금지