‘AI 개발과 활용에 관한 인권 가이드라인’ 발표
투명성‧차별금지‧개인정보 보호
‘AI 인권영향평가’ 도입 포함
국가 관리감독·피해구제 체계 마련 권고

ⓒShutterstock
ⓒShutterstock

인권의 관점으로 본 인공지능(AI) 개발‧활용 가이드라인이 나왔다. 국가인권위원회는 17일 가이드라인을 발표하면서 AI로 인한 인권침해나 차별이 없도록 해야 하며, 국가가 이를 위해 AI 관리감독·피해구제 체계를 마련해야 한다고 권고했다.

인권위가 이날 공개한 ‘AI 개발과 활용에 관한 인권 가이드라인’은 △인간의 존엄성 및 개인의 자율성과 다양성 보장 △투명성과 설명 의무 △자기결정권의 보장 △차별금지 △AI 인권영향평가 시행 △위험도 등급 및 관련 법․제도 마련 등이 골자다. 다음은 주요 내용.

(인간의 존엄성 및 개인의 자율성과 다양성 보장) AI는 인간으로서의 존엄과 가치 및 행복을 추구할 권리에 부합하는 방향으로 개발‧활용돼야 하며, 개인의 선택과 판단 및 결정을 강요하거나 자율성을 침해해서는 안 된다.

(투명성과 설명 의무) AI 기술을 활용한 판단 과정과 그 결과에 대해 적절하고 합리적인 설명이 보장돼야 한다. 특히 AI가 개인의 생명이나 안전 등 기본적 인권에 중대한 영향을 미치는 경우 사용한 데이터와 알고리즘의 주요 요소를 일반에 공개하고 설명할 수 있어야 한다.

(자기결정권의 보장) AI의 개발‧활용 시 개인정보는 목적달성에 필요한 최소한의 범위 내에서 처리해야 하며, 그에 필요한 최소한의 기간 동안만 보관해야 한다. 또한 이러한 개인정보 처리 방침은 정보 주체가 확인할 수 있도록 공개해야 한다.

(차별금지) AI의 결정이 특정 집단이나 일부 계층에 차별적이거나 부당한 영향을 초래하지 않고 개인의 안전이나 권리에 차별적 영향을 미치지 않도록 필요한 조치를 해야 한다.

(AI 인권영향평가 시행) 국가는 AI 개발 및 활용과 관련해 인권침해나 차별이 발생할 가능성을 고려한 인권영향 평가제도를 마련하고, 평가 결과 부정적 영향이나 위험성이 드러난 경우 이를 방지할 수 있는 조치사항을 적용하며 그 내용을 공개해야 한다.

(위험도 등급 및 관련 법·제도 마련 등) AI가 개인의 인권과 안전에 미치는 위험성을 단계별로 구분하고, 그에 걸맞은 수준의 규제와 인적 개입이 이루어지도록 법과 제도를 마련해야 한다.

또한 국가는 AI를 독립적이고 효과적으로 감독할 수 있는 체계를 수립해 개인의 인권과 안전을 보장하고, AI 때문에 피해를 입은 사람이 진정을 제기하는 등의 방법으로 권리구제를 받을 수 있는 기회를 제공해야 한다.

스캐터랩이 출시한 인공지능(AI) 챗봇 ‘이루다’는 2021년 차별과 혐오 표현을 여과 없이 표현해 논란에 휩싸였다. 챗봇이 대화 중 성소수자, 장애인 혐오 메시지를 보내는 장면. ⓒ온라인 캡처
스캐터랩이 출시한 인공지능(AI) 챗봇 ‘이루다’는 2021년 차별과 혐오 표현을 여과 없이 표현해 논란에 휩싸였다. 챗봇이 대화 중 성소수자, 장애인 혐오 메시지를 보내는 장면. ⓒ온라인 캡처
홍콩의 휴머노이드 로봇 회사 핸슨로보틱스(Hanson Robotics)사가 개발한 AI로봇 ‘소피아’는  2016년 3월 소피아는 SXSW 축제에서 “인류를 파괴하고 싶다”는 발언을 해 파문이 일기도 했다. ⓒSBS 뉴스영상 캡처
홍콩의 휴머노이드 로봇 회사 핸슨로보틱스(Hanson Robotics)사가 개발한 AI로봇 ‘소피아’는 2016년 3월 소피아는 SXSW 축제에서 “인류를 파괴하고 싶다”는 발언을 해 파문이 일기도 했다. ⓒSBS 뉴스영상 캡처

인권위는 국무총리에게 ▲가이드라인에 기초해 AI 관련 정책 수립‧이행 ▲관계 법령이 제‧개정되도록 관련 부처들을 유기적으로 조정하고 통할할 것을 권고했다. 과학기술정보통신부장관, 개인정보보호위원장, 방송통신위원장, 공정거래위원장, 금융위원장에게도 ▲가이드라인에 기초해 AI 관련 정책 수립‧이행 ▲관계 법령 제‧개정 ▲공공기관 및 민간기업이 가이드라인을 준수하도록 적극적으로 관리감독할 것을 권고했다.

국제사회는 이미 AI 때문에 발생할 수 있는 문제를 예방하기 위한 제도와 지침을 개발하고 있다. 유엔(UN)은 AI 활용 시 인권보호 장치를 마련하도록 여러 차례 권고했다. 유럽연합(EU)도 안면인식 AI 시스템 활용 금지, AI 면접 시스템에 대한 고위험 등급 부과, 위험단계에 따른 규제수준 설정 등을 골자로 하는 ‘AI법’ 초안을 2021년 공개하고 논의하고 있다. 우리나라에서도 한국여성민우회 성평등미디어팀이 2021년 AI 업계 종사자·연구자와 논의해 ‘페미니스트가 함께 만든 AI 가이드라인’을 만들어 발표했다.

저작권자 © 여성신문 무단전재 및 재배포 금지