똑똑한 AI모델 등장할수록
편향적 결과 내놓을 가능성도 커져
섬세한 설계·지속적 모니터링 중요

ⓒShutterstock
ⓒShutterstock

예전 직장에서 유독 명언 남기기를 좋아하던 선배가 말한 여러 문장 중 요즘도 자주 떠올리는 말이 있다. “뭔가 행동을 할지 말지 결정을 해야 하면, 몸이 힘든 쪽을 선택하라”는 것. 당시엔 뜨악했지만, 그리고 지금 봐도 MZ 세대의 감수성을 터치할 만한 표현 또한 아니지만, 그래도 그 말이 종종 감긴다. 편리한 미팅 도구가 지척에 널려있는 걸 인지했어도, 굳이 밖에 나가 사람을 만나기 귀찮아도, 간단하게 처리해도 됨직한 일을 맞이했어도, 일단 이 ‘명언’을 기억하고 자리에서 일어나곤 한다. 그렇게 길을 나서 직접 사람을 만나고, 일을 처리하면 어쩐지 ‘조금 번거로워도 이렇게 하길 잘했어’라는 생각이 든다. 그리고 실제로, 그 말로 설명하기 힘든 효과가 종종 나타나기도 한다.

기계였다면 이 명언이 강력한 규칙으로 정해지지 않는 한, 이행되기 어려울 것이다. 최대한 효율적인 선택을 하도록 학습되고 있고, 안전한 방향으로 향해가도록 일러졌을 가능성이 높기 때문이다. 사람은 약간 자기가 손해를 보는 한이 있어도 해내는 법이 있기 마련이지만, 기계는 그런 선택을 할 수 없다. 그러니 기계엔 답이 또렷하고, 결정의 결과에 인간적인 망설임이 들어갈 이유가 없는 임무가 잘 어울린다. 그래서 영어 문제집을 만드는 인공지능(AI)을 설계할 때 가장 어려운 것 중 하나가, 자동으로 오답을 만들어내도록 하는 것이다. 정답을 이토록 탁월하게 맞히는 기계가, 어찌 틀린 답을 만들어내느냐는 말이다. 

세상은 이제 규칙 기반 학습으로 결과를 뱉어내던 기계적 장치에서 벗어나, 좀 더 상세하게 패턴을 인지하고 새로운 연관성을 파악해, 몰랐던 사실도 절로 추론해 알아내는 꽤 똑똑한 AI를 목격하는 시대로 이동하고 있다. 이를 ‘초거대 AI’라고 하는데, 지난해에 특히 엄청난 성장을 이뤘고, 그래서 ‘소설 쓰는 AI’니, ‘문장만 보고 그림을 만들어내는 AI’니 하는 것들이 한참 이슈가 되기도 했다. 언뜻 무에서 유를 창조하듯, 혹은 인간의 직관을 익히는 것처럼 보이는데, 아쉽지만 이러한 AI를 상용화 단계에서 활용하려면 아직은 시간이 좀 더 걸린다. 

초거대 AI 모델은 주로 빅테크 기업을 중심으로 출시되고 있다. 엄청난 데이터에 대해 상당한 양의 매개변수를 효과적으로 학습을 해야 꽤 똑똑한 인공지능 모델이 나온다. 그러려면 대용량의 연산을 해낼 수 있는 슈퍼컴퓨터급의 기계가 필요하다. 자본 전쟁이 심화되니, 갈수록 대학 연구실이나 상대적으로 작은 규모의 기업들이 세계적인 AI 모델을 만들어보겠다고 하는 것은 체급에 맞지 않는 일이 되어가고 있다. 이제는 다른 단계에서 특성을 키우거나 역할을 세분화해야 하는 것 아니냐는 말까지 나온다. 가령 초거대 AI 모델은 구체성이 떨어지고 특화된 도메인에 바로 가져다 쓰기 힘드니, 해당 모델의 API(Application Programming Interface, 응용 프로그램 프로그래밍 인터페이스)를 가져다 각 기업과 개인이 자체적으로 각자 분야에 맞게 잘 수정해 쓰는 것이 더욱 중요해질 것이라는 거다. 굳이 내가 앱스토어 자체를 만들지 않고, 대신 앱스토어에 입점시킬 앱을 만드는 것처럼 말이다. 

시대적 흐름에 발맞춰 API 사용법을 공부하는 것은 매우 필요한 일이다. 하지만 동시에, 초거대 AI 모델들이 가지고 있을 사회적인 문제점도 함께 생각해야 한다. 며칠 전 미국 스탠퍼드대 HAI 연구소에서 낸 AI 인덱스 리포트 2022¹의 AI 윤리와 관련한 부분 중 전년 대비 조금 더 발전한 부분이 있다. 최근 나오는 언어 모델들이, 높아진 성능만큼이나 편향적인 결과물도 더 많이 내어놓을 수 있다는 것이다. 다양하게 사용될 수 있도록 확장성도 높아졌는데, 그만큼 잠재적인 편견도 더불어 강화됐다는 근거가 줄곧 나오고 있다고 했다. 그러니, 우리는 더 널리 쓰이는 AI 기술 안에서 우리도 모르는 사이에 편향적인 의사결정 결과에 더욱 노출될 수 있게 된 셈이다. 올 초에 나온 세계경제포럼(WEF) 글로벌 리스크 리포트²에서도 장기적인 10대 위협 중 하나로 기술발전으로 발생할 악영향을 꼽았는데, 가령 AI와 뇌-컴퓨터 인터페이스, 바이오테크 같은 기술적 진보가 개인은 물론, 비즈니스와 생태계, 경제에 대해 부정적 영향을 초래할 수 있다고 보고 있다고 했다. 

흐름대로 초거대 AI라는 돔이 기술 생태계를 품게 되면, 이 생태계의 많은 이해관계자들은 부산스럽게 움직여야 한다. 그래야 기계가 스스로 올바르다고 믿고 뱉은 의사결정이, 어떤 도메인의 특정 사람군에게 몹시 큰 해를 끼치게 되는 일을 방지할 수 있다. 일단 모니터링을 하는 많은 학계나 시민사회단체들은 결과물 역추적과 내부고발 수집을 통해 지속적으로 견제를 해오고 있다. 이에 따라 다수의 빅테크들은 자사의 알고리즘이 애당초 어떤 특징의 데이터셋을 바탕으로 학습됐는지, 어떤 목표로 기획이 된 것인지, 예상되는 사용처의 예시는 어떤 분야인지 등을 되도록 상세하게 설명하기 시작했다. API를 2차적으로 활용하는 이들 또한 도메인의 디테일을 살리며 어떤 변화가 발생했고 어떤 일이 예상되는지 기록할 필요가 있다. 그래야 모델이 악용되거나 예기치 못하게 오용되는 것을 막을 수 있다. 형식적이고 표면적인 가이드라인을 넘어서서, 올바르다고 여기는 것과 필요하다고 생각하는 것을 해내는 것은 인간의 힘이다. 그 말이 맞다. 귀찮고 번거로운 일을 할지 말지 고민된다면, 몸이 힘든 쪽을 택하는 것이 나은 경우가 많다. 

¹ https://aiindex.stanford.edu/report/

² https://www.weforum.org/reports/global-risks-report-2022

유재연 옐로우독 AI펠로우
유재연 옐로우독 AI펠로우

소셜임팩트 벤처캐피털 옐로우독에서 AI펠로우로 일하고 있다. 인간-컴퓨터 상호작용 분야에서 박사과정을 수료했고, 주로 인공지능 기술과 인간이 함께 협력해가는 모델에 대해 연구하고 있다. <AI랑 산다>는 장밋빛으로 가득한 AI 세상에서, 잠시 ‘돌려보기’ 버튼을 눌러보는 코너다. AI 기술의 잘못된 설계를 꼬집기 보다는, 어떻게 하면 AI 기술과, 그 기술을 가진 이들과, 그리고 그 기술을 가지지 못한 자들이 함께 잘 살아갈 수 있을지 짚어 본다. 

① 인공지능이 나에게 거리두기를 한다면
http://www.womennews.co.kr/news/articleView.html?idxno=220379

② 기계가 똑똑해질수록 인간은 바빠야 한다
http://www.womennews.co.kr/news/articleView.html?idxno=221310

저작권자 © 여성신문 무단전재 및 재배포 금지