Cover Story

[실험실 벗어나지 못한 AI, 대안은] 머신러닝으로 의미 찾는 연구 활발 

 

인식·판단 과정에서 통계 오류·오용 가능성… 다수 AI로 상호 검증, 뇌파로 직접 소통

▎기업들이 AI 채용을 확대하고 있지만, 구직자들 사이에서는 이미 알고리즘을 분석한 공략법이 공유되고 있다. / 사진:© gettyimagesbank
자율주행차·마이크로로봇·증강현실(AR)·홀로그램…. 스티븐 스필버그 감독의 [마이너리티 리포트]는 2054년의 미래상을 현실성 있게 그린 영화다. 단지 신기술뿐만 아니라 기술이 바꾼 사회 제도와 도시 시스템, 기업 마케팅 등 미래 사회를 입체적으로 조망했다. 이 때문에 대학교 미래학 강좌의 참고 자료로도 많이 활용된다.

그런데 이 영화의 핵심은 여러 첨단 기술이 아니라 엉뚱하게도 세 명의 예언자다. 이들은 잠든 상태에서 범죄를 예지하며, 세 명의 예지가 일치하면 경찰이 출동해 범죄를 차단한다. 영화에서의 예언자들은 미래 사회 인공지능(AI)의 메타포다. 방대한 빅데이터에서 비롯된 AI는 범죄 발생 시간과 장소, 피의자를 특정 지을 수 있는 통찰력을 갖게 돼 예언자처럼 알려준다. 경찰은 이 AI의 시그널에 따라 움직인다.

예언자가 세 명이라는 점은 흥미롭다. 일견 가톨릭의 삼위일체설을 연상시키는 이들은 각각 다른 AI 알고리즘을 뜻한다. 각각 다른 경로로 데이터를 분석해 최적의 결론을 내려, 각기 다른 AI가 찾은 결과와 대조해 최종 보고서를 제출한다.

이런 ‘앙상블(ensemble) 기법’은 실제로도 존재한다. 여러 AI 방법론을 합해 새로운 결론을 도출하는 데 사용한다. AI가 하나일 때 발생할 수 있는 오류를 보완하는 방법이다. 앙상블 기법을 사용하면 여러 AI가 내놓은 공통의 값을 결론으로 사용하기 때문에 정확성 높은 결과를 얻을 수 있다. 다만 어떤 경로로 결과가 나왔는지 연역적으로 분석하거나 설명할 수는 없다. 왜냐는 물음에 답할 수 없고 단지 A나 B라는 값만 제시할 뿐이다.

이에 영화는 미래를 예측하지만, 이유를 설명할 수 없는 AI를 예언자로 그린 것이다. 인간의 두뇌가 그렇듯 AI도 결점이 있다. 인간이 더 나은 판단을 내리기 위해 집단지성을 발휘하듯, AI도 여러 알고리즘을 결합해 최적의 결과를 찾는다. 연구자들이 AI의 한계 극복을 위해 찾아낸 방식 중 하나인 셈이다.

AI는 빅데이터를 기반에 두고 인증과 의료·금융·모빌리티 등 수많은 산업 분야의 문제를 해결하기 위해 등장했다. 그러나 데이터의 분석과 해석, 검증은 사람의 손에 의존할 수밖에 없는 태생적 한계를 지니고 있다. 현 단계에서 AI의 한계는 명확하다.

데이터라는 말은 일견 가치 중립적이지만, 반쪽짜리 진실이다. 면접에 최적화된 언어는 취업준비생들의 본심을 감추고, 인·적성 평가 역시 학생의 자질 평가를 담아내지 못한다. 현재의 빅데이터와 AI 알고리즘으로는 구직자의 직무능력 평가, 학생의 인·적성 평가에 한계가 있다는 뜻이다.

인간 손 거친 AI, 설계 오류 가능성


조엘 베스트 델라웨어대 형사사법학부 교수는 [통계라는 이름의 거짓말]에서 “세상에는 세 가지 거짓말이 있다. 선의의 거짓말, 새빨간 거짓말 그리고 통계”라며 “숫자는 거짓말을 하지 않지만, 거짓말쟁이는 숫자로 말한다”고 지적했다. 또 설계자들이 수치를 변형해 사용하거나, 대상군의 부적절한 비교 등 통계 오용 문제도 있다고도 말했다. 통계 출처의 불분명성과 이를 오용하는 인간이 불완전한 AI를 만들 수 있다는 것이다.

그러나 이에 대해 AI 연구자들은 빅데이터를 활용해 사용자의 욕망과 습관까지 읽어낼 수 있다고 주장한다. 많은 양의 빅데이터가 쌓이고 이에 대해 분석하면 사람이 무의식적으로 하는 행동과 말에서 본심을 포착할 수 있다는 것이다. 실제 면접자의 빅데이터가 쌓이면 다양한 행동양식에서 인간의 심리를 추출할 수도 있다.

최근 많이 도입되고 있는 이미지 인식도 그렇다. 사람을 인식할 때 눈과 코의 위치, 이마의 넓이 등 제한적 정보만으로 판단하기 때문에 사람의 머리 스타일만 달라져도 인식을 못 하는 경우가 생긴다. 무인 주차장에서는 편리하게 사용할 수 있지만, 번호판에 흙이 묻거나 번호판 색이 조금만 번져도 인식이 어렵다. 이처럼 완숙하지 않은 이미지 인식 기술이 모빌리티 등 안전과 관련된 분야에 섣불리 적용되면 자칫 돌이킬 수 없는 결과를 낳을 수도 있다.

명제화할 수 없는 암묵적 지식은 데이터가 될 수 없다는 문제도 있다. 의사에 따라 진단과 처방이 다르듯 전문가들의 지식은 일관성이 떨어지고 주관적 측면이 강하다. 걷기, 뛰기처럼 많은 사람이 할 줄 아는 일이지만, 체계적으로 설명할 수 없는 암묵적 지식도 있다. 이런 지식을 체계화·데이터화하지 못하면 완벽한 AI는 나오기 어렵다. 이는 앙상블 기법처럼 여러 알고리즘의 복수 검증을 사용한다고 해도 개선이 불가능한 일이다. 이에 최근 AI 연구·산업 분야에서는 머신러닝을 통해 개선할 수 있는 문제부터 해결하자는 기류가 강하다. 머신러닝은 데이터와 처리 경험을 통해 정보 처리 능력을 향상하는 분야로 자율주행차, 필기체 문자 인식 등 알고리즘 개발이 어려운 문제의 해결에 주로 쓰인다. 자동차 번호판에 흙이 묻어도 다양한 오염된 번호판 사례와 정상 번호판을 학습시켜 인식률을 높일 수 있다.

이런 학습법으로 통계·상황의 의미를 찾는 방식으로 사용한다. 예컨대 우산을 쓴 사람이 햇빛이 강해서인지, 비가 와서인지 전반적 상황 인식을 조합해 실생활에 도움이 되는 방향으로 기술을 개발하는 식이다. 황보현우 하나벤처스 상무는 “현재 상황에서 AI 인식의 정확도를 높이는 일은 어느 정도 한계에 봉착했다”며 “최근에는 다양한 환경에서 의미를 찾는 것을 강조하는 분위기”라고 설명했다. 실제 데이터화하기 어려운 암묵적 지식도 전문가의 판단과 행동방식을 쌓아 알고리즘화 하려는 노력도 나온다. AI 스타트업 씨앤테크 김기덕 대표는 “제조현장 장인의 데이터를 분석해 전문가의 레시피도 AI 화 할 수 있는 플랫폼을 개발 중”이라고 말했다.

뇌파로 소프트웨어 작동하는 BCIs 기술

다만 머신러닝 역시 통제되지 않거나 돌발적인 상황에는 대처하지는 못한다. 이는 알파고가 이세돌 9단이 둔 78수 이후 실수를 연발한 모습에서 잘 드러났다. 당시 이세돌 9단이 놓은 수는 알파고에 유리한 자리였으며, 알파고는 그 수가 나올 확률을 0.007%로 봤다. 강화학습으로도 78수가 악수인지 묘수인지 인지하지 못했다. 머신러닝 역시 아직은 실험실에서 벗어나지 못한 셈이다.

마이크로소프트(MS)의 창업주 빌 게이츠나 테슬라 창업주 일론 머스크 등도 불완전한 AI의 판단 결과에 우려와 부정적인 의견을 내놓고 있다. 이 때문에 최근에는 인간의 뇌와 컴퓨터를 잇는 ‘두뇌 컴퓨터 인터페이스(brain computer interface, BCIs)’ 기술을 주목하기도 한다. 영화 [매트릭스]처럼 인간의 뇌파로 소프트웨어를 작동하는 기술로 제3자의 간섭에서 벗어날 수 있다. 머스크가 1억 달러(약 1200억원)를 투자한 기업 ‘뉴럴링크’가 대표적이다. 넷플릭스도 사용자의 뇌파에 맞춰 콘텐트를 추천하는 기술을 선보인 바 있다.

중국에서도 국영 기업 ‘차이나 일렉트로닉스 코퍼레이션(China Electronics Corporation)’과 텐진 대학교가 사용자의 뇌파 정보를 해독해 말·행동 없이 컴퓨터에 바로 지시를 내릴 수 있는 ‘브레인 토커(Brain Talker)’라는 컴퓨터 칩을 개발해 5월 공개했다. 국내에서는 고려대학교 등 대학 연구실을 중심으로 BCIs 연구를 펼치고 있다. 다만 사람마다 수집되는 뇌 신호가 다르고 활동 중일 때 뇌 신호가 쉽게 바뀌는 등 왜곡 현상이 있어, 아직 사람의 생각을 100% 구현하기는 어려운 실정이다.

- 김유경 기자 neo3@joongang.co.kr

1503호 (2019.10.07)
목차보기
  • 금주의 베스트 기사
이전 1 / 2 다음