생성형 AI의 윤리 문제 국회 세미나
저작권·표절·딥페이크·혐오 등 AI 윤리 규제 부실

송석준 의원실과 (사)국제인공지능윤리협회, THE AI가 공동 주최한 ‘ChatGPT와 생성형AI의 윤리적 이슈와 해결방안’ 세미나가 19일 서울 영등포 국회에서 열렸다. ⓒ박상혁 기자
송석준 의원실과 (사)국제인공지능윤리협회, THE AI가 공동 주최한 ‘ChatGPT와 생성형AI의 윤리적 이슈와 해결방안’ 세미나가 19일 서울 영등포 국회에서 열렸다. ⓒ박상혁 기자

“저는 SF 소설에 대해 하나도 모르는데, 챗GPT에 부탁하니까 1주일 만에 소설을 완성했습니다. 되게 겁이 나더라고요. 분명 표절이나 저작권 문제가 생길 수 있습니다. 이를 누가 책임질지도 문제가 될 수 있고요.”(서울여자대학교 김명주 교수)

인공지능(AI)의 시대가 본격적으로 시작됐다. 대화형 인공지능 챗봇 '챗GPT(Chat GPT)', 그림을 그려주는 인공지능 ‘미드저니’, 실제 인간의 모습과 똑같은 영상 ‘딥페이크’ 등 인공지능이 만들어낸 결과물이 인간의 결과물과 구분하기 어려울 정도로 고도화됐다. 특히 효율성 측면에서는 인공지능이 인간을 압도하는 양상을 보이고 있다.

기술의 발전에는 항상 그에 따른 윤리적 문제가 따른다. 인공지능이 만들어낸 결과물은 누구의 소유인지, 인간과의 표절 분쟁은 어떻게 해결할지, 인공지능에 스며드는 폭력과 혐오는 어떻게 제거할 지 등 산적한 쟁점들을 해결하기 위한 대책이 시급한 시점이다.

이를 의논하기 위해 송석준 의원실과 (사)국제인공지능윤리협회, THE AI가 공동 주최한 ‘ChatGPT와 생성형AI의 윤리적 이슈와 해결방안’ 세미나가 19일 서울 영등포구 국회에서 열렸다. 이 자리에서는 저작권 문제, 기술적 악용, 학계 영향, 기업의 역할 등을 주제로 각계 전문가들이 업계 현황과 대책 제안을 발표하는 강연이 이어졌다.

저작권·표절·딥페이크·혐오 등 AI 윤리 규제 필요

ⓒ국제인공지능윤리협회
ⓒ국제인공지능윤리협회

첫 발제에 나선 양진영 법무법인민후 변호사는 챗GPT로 대표되는 생성형 AI의 저작권 문제를 소개했다. 양 변호사는 AI가 허위 정보를 사실인 것처럼 유포하는 ‘가짜뉴스’ 문제 등에 회사 측에 책임을 묻기 어렵다고 설명했다. 현행 법에서는 AI가 만든 결과물에 대한 권리와 책임이 명확하지 않고, 결과물에 대한 소유권 및 이권을 이용자에게 위임하는 것으로 책임 소재를 피하기도 한다.

학계 및 교육계에서는 AI 이용으로 생기는 표절 문제가 횡행하고 있다. 김명주 서울대학교 교수는 최근 AI 이용을 체크하는 프로그램이 발달해 학생들의 이용은 어느 정도 제어하지만, 책과 원고 작성에 챗GPT를 쓰고 이를 감추는 지인들을 많이 목격한다. 김 교수는 “그분들에게 ‘나중에 교육부 장관 하기 힘드실 거다. 청문회에서 다 걸리실 거다’ 말한다. 나중에 문제가 발견되면 고스란히 본인의 책임이 된다”고 우려의 목소리를 냈다.

성별·인종 등에서 소수자에 차별적인 결과를 도출하는 문제도 생성형 AI가 시급히 해결할 문제로 꼽힌다. 범죄 예측 시스템에서 백인 남성에 비해 흑인 여성을 더 위험하다고 평가하거나, 아이돌보미와 가정주부는 여성이 원하는 직업으로 표현하는 등의 사례가 대표적이다. 이지항 상명대학교 AI인증센터 센터장은 AI가 유럽, 미국 등 서구권 중심으로 데이터를 학습하고 있다며 “AI의 학습 데이터에 문화적, 사회적 배경이 충분히 반영되지 못한다”고 지적했다.

딥페이크, 악성 코드 등 생성형 AI에 대한 악용도 시급히 해결돼야 할 문제로 꼽힌다. 딥페이크는 정치인과 여성을 대상으로 치명적인 공격을 가하는 데에 자주 이용되고 있다. 또한 AI를 통해 여성을 선정적으로 묘사하는 그림도 수없이 만들어지고 있으며, 챗GPT에 말을 조금 비틀어 악성코드 제작을 명령하면 금새 만들어준다. 이 센터장은 앞선 사례들을 설명하며 이용자가 원하면 얼마든지 타인에 피해를 끼칠 수 있는 콘텐츠가 양산될 수 있음을 경고했다.

국가·기업·교육 함께 적절한 대응책 찾아야

ⓒ국제인공지능협회
ⓒ국제인공지능윤리협회

산적한 문제들을 해결하기 위한 대책은 과연 존재할까. 양 변호사는 AI에 산적한 문제들을 해결하기 위해서는 AI의 데이터 학습 범위, 개인정보와 저작권 침해 방지 등에 대한 종합적이고 명확한 가이드라인이 필요하다고 설명했다.

이미 EU, 영국, 일본 등에서는 특정 조건(비상업성, 새로운 지식 창출)에 한해 AI의 데이터 이용을 허가하고 있으며, 최근 EU에서는 생성형 AI의 원 데이터 저작권 공개를 의무화하는 규제안을 도입하겠다고 발표한 바 있다. 한국에서는 도종환 더불어민주당 의원이 AI의 데이터 이용에 대한 저작재산권 제한 규정을 담은 저작권법 전부개정법률안을 대표 발의 했으나 입법으로 이어지지는 않았다.

이 센터장은 소수자 차별 문제를 해결하기 위해서는 AI에 규범적 의사결정 능력을 부여해야 한다고 설명했다. 인공지능에 다양한 사회적 상황을 학습시켜 문제가 되는 결과물을 만들어 내는 것을 사전에 막는 것이 중요하다는 것이다.

생성형 AI의 이용과 윤리를 둘러싼 적정한 교육이 필요하다는 의견도 나온다. 김 교수는 “생성형 AI 열풍은 앞으로도 계속될 거다. 이제 AI 역량 교육은 필수다”라며 교육현장에서 AI 사용을 금지할 것이 아니라 적절히 이용할 수 있도록 권장하는 동시에 악용, 남용에 대비한 리터러시를 병행해야 한다고 강조했다.

ⓒ국제인공지능윤리협회
ⓒ국제인공지능윤리협회

AI를 생산하는 개발사도 자체적으로 기술에 윤리적 관점을 접목하는 시도를 계속하고 있다. 카카오는 2018년 ‘알고리즘 윤리헌장’을 만들고 알고리즘 학습과 결과에 사회적 차별이 일어나지 않도록 경계하고 있다. 또한 이모티콘 제작 가이드, 기사 배치 알고리즘을 공개해 윤리성과 투명성을 강조하고 있다. 현재는 기술윤리를 전담하는 ‘인권과 기술 윤리팀’을 발족하고 AI 윤리, 접근성, 투명성 등을 고도화한다는 방침을 이어가고 있다.

저작권자 © 여성신문 무단전재 및 재배포 금지