Inside

[기술과 삶, 삶의 기술(3) 인공지능 알고리즘 믿어도 될까?] 부유한 백인 남성 엔지니어의 편견 담겨 

 

한세희 IT 칼럼니스트
백인에게 주택 매매, 유색 인종에게 월세 광고 보여준 페이스북 인공지능(AI) 대표적 사례

▎사진:© gettyimagesbank
사회에 큰 물의를 일으킨 사건의 범인이 막상 재판에서는 솜방망이 처벌을 받을 때, 사회적으로 판이하게 의견이 갈리는 사건에서 한 쪽에 유리한 판결이 나왔을 때 뉴스 사이트에는 흔히 ‘인공지능에 재판을 맡겨야 한다’는 댓글이 달린다. 농담이지만, 사실 사법 시스템이 전제로 하는 ‘인간에 대한 신뢰’라는 기반을 우리는 과연 얼마나 믿을 수 있는지 질문을 던지는 것이기도 하다. 가장 공정하고 엄정한, 그래서 사회의 규범과 질서를 유지하는 최후의 보루가 되어야 할 사법 시스템이 최종적으로는 법전만 파느라 세상 물정을 모르거나, 편견에 빠져서 치우친 판결을 내리는 ‘인간’ 판사에 달려 있다는 사실은 얼마나 불안한가. 든든해 보이는 우리 사회의 기둥들은 사실 변덕스러운 인간이라는 가장 허약한 기반에 뿌리를 두고 있다.

2015년 구글 AI, 흑인 사진에 ‘고릴라’ 태그 붙여

재판뿐만이 아니다. 자동차는 현대 문명의 실핏줄이지만, 교통 사고의 90%는 인간의 실수 때문에 일어난다. 인공지능이 모는 자율주행자동차가 더 안전하다 해도 이상하지 않다. 복잡한 메트로폴리탄 중심가의 인파 속에서 CCTV 영상을 뒤져가며 테러리스트를 찾는 일은 사람보다 얼굴인식 알고리즘에 맡기면 어떨까? 실수하는 인간 대신 실수하지 않는 인공지능에 더 의존해도 괜찮지 않은가?

하지만 인공지능이 인간적 편견을 배제하고 더 나은 판단을 내리리라는 기대는 성급하다. 사실 인공지능은 인간의 편견과 선입견을 그대로 가지고 있다. 아이의 언행이 어른의 거울이듯, 인공지능 역시 사람의 생각하는 방식을 반영한다. 인공지능이 생각하는 방식, 즉 알고리즘을 만들고 판단의 근거가 되는 데이터를 ‘먹이는’ 것이 바로 사람이기 때문이다. 공정한 ‘기계적’ 판단을 기대하며 우리는 알고리즘을 짜지만, 마치 사법적 판단의 가장 배후에 변덕스러운 사람이 있듯이 인공지능의 뒤에도 사람이 있다. 특히 인공지능과 소프트웨어 분야를 주도하는 미국 등 선진국의 부유한 백인 남성 엔지니어들이 있다는 우려가 크다.

이러한 편향은 여러 사례에서 나타난 바 있다. 구글 인공지능은 클라우드 공간에 올린 사진 속 피사체들을 인식해 적절한 이름·지명 등 태그를 자동으로 붙여준다. 그런데 구글 인공지능이 사진 속 흑인 여성에 ‘고릴라’라는 태그를 붙여버렸다. 구글은 즉시 사과하고 개선을 약속했다. 좋다. 어떤 기술이든 초창기는 있는 법이니까. 이 일이 일어난 2015년 이후 기술은 얼마나 나아졌을까?

인공지능의 얼굴 인식 알고리즘 성능 문제는 요즘도 끊임없이 제기된다. 마이크로소프트나 아마존 같은 세계적 테크 기업들은 앞다퉈 인공지능 얼굴 인식 솔루션을 내놓고 있다. 유통·보안·군사 등 활용 분야가 무궁무진하기 때문이다. 문제는 이들이 백인 남자의 얼굴은 잘 인식하는 반면 피부색이 어두운 사람이나 여자의 얼굴에는 인식률이 떨어진다는 점이다. 시스템이 흑인의 얼굴을 제대로 인식하지 못해 데이터베이스의 사진과 정확하게 매칭시키지 못 한다면 그는 범죄자로 판단될 가능성이 더 커질 수 있다. 이런 현상이 흑인 혹은 여성에 대한 노골적인 편견의 결과가 아닐 수 있다는 점이 문제를 더 복잡하게 한다. 그저 현실의 데이터를 모아 반영하다 보니 의도치 않게 생긴 문제라고 항변할만한 경우가 종종 있다.

아마존의 인공지능 채용 시스템이 여성 지원자를 차별한 사건이 있었다. 아마존은 2014년 인공지능 이력서 필터링 시스템을 도입한다. 좋은 인재임을 보여주는 5만개의 단어를 인공지능이 학습해 이를 바탕으로 이력서를 걸러주는 것이다. 하지만 심각한 문제가 있었다. 인공지능은 여성 지원자를 차별했다. 인공지능은 ‘여성 체스 동아리 활동’과 같이 ‘여성(women)’이란 말이 들어간 이력서에 감점을 주는 것을 배웠다. 특정 여대 졸업생은 일관되게 배제되었다.

원인은 이랬다. 이 인공지능은 과거 10년 간 아마존 입사자 중 가장 성공적인 사람의 이력서를 바탕으로 인재를 골라내는 법을 배웠다. 소프트웨어 개발이 중요한 테크 기업에서 최근 10년 간 선발된 사람들은 남성일 가능성이 크다. 아마존이 인공지능을 학습시킬 때 여성보다 남성을 우대하라고 하지는 않았겠지만, 남성 위주인 과거의 좋은 이력서를 학습한 인공지능은 결과적으로 남성 우대를 배웠다. ‘여성’이란 말을 차별하지 않도록 알고리즘을 변경하자 이번에는 남성과 여성이 사용하는 어휘의 미묘한 차이를 구분하기 시작했다. ‘execute’나 ‘capture’와 같은 남성적 단어가 등장한 이력서를 우대한 것이다. 아마존은 결국 인공지능 채용 시스템을 폐기했다.

페이스북의 광고 노출 알고리즘도 논란을 일으켰다. 이 회사는 얼마전 미국 정부에 고발을 당했다. 페이스북에 노출되는 주택 광고가 차별을 부추겼다는 이유다. 페이스북에 광고를 집행할 때 광고주는 원하는 그룹의 사람들에게 광고가 보이도록 설정할 수 있다. 인종·소득·지역·취향 등 페이스북의 자세한 사용자 프로필을 근거로 맞춤 광고를 할 수 있다. 하지만 미국에서 인종이나 종교를 이유로 주택 거래를 차별하는 것은 불법이다. 페이스북은 이런 타깃 광고를 막겠다고 약속했다. 하지만 차별은 페이스북에서 만연하다. 미국 노스이스턴 대학 연구진에 따르면, 페이스북의 광고 노출 알고리즘은 주택 매매 광고는 백인에게 더 많이, 월세 광고는 유색 인종에게 더 많이 도달하게 한다. ‘유치원 교사’라는 키워드는 여성에게, ‘청소부’라는 구인 키워드는 유색 인종에게 더 많이 노출된다. 광고 노출 알고리즘이 보다 성과가 높아지는 쪽으로 활동을 집중하기 때문에 일어난 결과다.

우리의 삶이 점점 구글·아마존·마이크로소프트·네이버·우버와 같은 초거대 테크 기업의 블랙박스 속 알고리즘에 의존하게 되면서 이들의 힘이 너무 강해지는 것 아니냐는 우려도 커진다. 법으로 이들의 알고리즘을 감독하려는 시도도 나온다. 미국 상원의 민주당 소속 의원 코리 부커와 론 와이든은 최근 ‘알고리즘 책임법(Algorithmic Accountability Acr)’을 발의했다. 정부가 인공지능 알고리즘을 이용한 민감한 자동화 시스템을 평가하게 하자는 내용이다. 연 매출 5000만 달러 이상이거나 100만 명 이상의 개인정보를 취급하는 테크 기업이 대상이다. 하지만 효과가 있을까?

알고리즘 책임법 발의한 미국 상원의원

우리는 이미 비슷한 경험을 했다. 드루킹 사건 등으로 네이버 뉴스 편향성 논란이 일자 지난해 외부 전문가 위원회가 구성돼 네이버 뉴스 편집 알고리즘을 검증했다. 온 정치계와 언론이 매달린 뜨거운 이슈였지만 ‘편향은 없었다’라는 예상가능한 결론이 나올 때쯤에는 다들 관심을 잃은 후였다. 알고리즘에 대한 불안은 종종 정치적·사회적 이슈로 소비될 뿐이다. 반면 알고리즘 영향 평가란 쉽지 않다. 알고리즘을 짤 때 적절한 보상 부여에 충실하다 보면 사회적 맥락을 놓치기 쉽다. 어떤 데이터를 어떻게 학습할지 정할 때 은밀한 차별이나 편견을 일으킬 가능성까지 내다보기는 어렵다. 사실 무엇이 공정한 것인지조차 정하기 힘들다. 주어진 데이터를 토대로 현실을 반영하는 최선은 아닐지라도 최적인 결론을 내리는 것, 그것은 사실 우리 뇌가 늘 하는 일 아닌가? 우리의 삶이 편견으로 가득차 있는데, 몸은 인공지능이 만든 편견 없는 세상에 살고 있다면, 그것은 인간적인 삶일까? 현대인은 알고리즘의 블랙박스 속에서 미지의 한걸음을 옮겨야 할 상황이다. 그런데, 인류는 새로운 기술에 접할 때마다 항상 그런 안갯속의 선택을 해오지 않았던가.

1482호 (2019.05.06)
목차보기
  • 금주의 베스트 기사
이전 1 / 2 다음