Issue

인공지능은 없다 

 

이기준 기자
인공지능과 관련된 언론 보도와 기업의 발표가 연일 쏟아져 나온다. 그와 동시에 인공지능이 점점 똑똑해져서 곧 인류를 지배할 것이라는 우려도 제기된다. 작고한 석학 스티븐 호킹, 세계적인 기업가 일런 머스크 등 명사들도 ‘인공지능 종말론’을 언급하며 공포심을 부채질한다. 그러나 전문가들은 인공지능은 이름과 달리 지능이 아니라 수학적 알고리즘에 불과하며 인간을 지배할 일은 없다고 지적한다.

▎AI가 운전을 대신하는 자율주행차의 내부 모습. 운전자가 핸들과 브레이크에서 손발을 뗀 채 차가 달리고 있다.
“ ‘터미네이터’ 현실로?…‘인간미’ 없는 킬러로봇, 인류 위협” 4월 초 국내 한 일간지에 이 같은 제목의 기사가 실렸다. 세계 각국이 개발하고 있는 인공지능(AI) 무기를 소개한 기사다. 이 기사는 서두에서 미국 SF영화[터미네이터]의 한 장면을 묘사하며 킬러로봇이 인간을 지배하는 시대가 올 수도 있다고 경고한다. 정말 그럴까.

최근 한국에서 킬러로봇이 본격적으로 도마 위에 오른 계기는 지난 4월 5일에 일어난 한 사건이다. 이날 토비 월시 호주 뉴사우스웨일스대 교수 등 해외의 저명한 로봇학자 57명은 카이스트에 공동 연구 보이콧 성명을 발표했다. 카이스트가 방산업체와 손잡고 살상용 인공지능 로봇, 이른바 킬러로봇을 개발하기로 했다는 이유에서다. 이 교수들은 카이스트가 공격형 무기를 개발하지 않는다는 해명을 내놓자 보이콧을 철회했고, 이 사건은 사소한 해프닝으로 끝났다.

국내외 언론은 이 사건을 보도하는 과정에서 킬러로봇이라는 자극적인 단어에 집중하며 영화 [터미네이터]의 이미지를 앞다퉈 자료사진으로 이용했다. 그 와중에 위 기사처럼 ‘로봇이 인류를 위협한다’는 주장까지 심심찮게 제기됐다. 그러나 전문가들은 언론이 군사용 AI 및 로봇을 다룰 때마다 공식처럼 터미네이터를 언급하거나 터미네이터 사진을 사용하는 것에 우려를 표한다. 대중에게 AI에 대한 잘못된 인식을 심어줄 뿐만 아니라 AI 무기의 진짜 위협을 호도한다는 것이다.

AI 무기가 위험한 이유는 이 기술로 인해 지금보다 훨씬 신속하고 저렴하게 대량살상이 이뤄질 수 있기 때문이다. 현재 전쟁에 이용되는 드론(무인항공기)은 자율비행이 가능하지만 공격 명령은 인간이 내린다. 이를 AI로 대체하면 지금까지 수백, 수천 명이 투입돼야 했던 군사작전도 AI 개발자 혼자서 수행할 수 있게 된다. AI 전문가들이 우려하는 것은 바로 이 지점이다. 터미네이터처럼 지능을 갖춘 AI 로봇이 인류를 위협하는 것과는 아무런 관계가 없는 얘기다.

인공지능은 지능이 아니다


월시는 4월 7일 영국 일간 가디언지에 기고문을 보내 “내가 말하는 킬러로봇은 영화 속 터미네이터 로봇이 아니다”라며 “내가 우려하는 것은 멍청한(stupid) AI”라고 설명했다. 페이스북에서 AI 개발을 총괄하는 얀르쿤도 “AI 관련 기사에서 터미네이터 사진이 빠지는 경우를 본 적이 없다. 100% 터미네이터 사진이 나온다”며 “언론은 그런 사진을 사용함으로써 실제로 AI와 관련해 무슨 일이 벌어지고 있는지를 대중이 철저히 오해하게 만든다”고 지적했다.

여기서 오해란 AI가 인간 또는 생명체의 실제 지능과 같은 종류의 ‘지능’이라는 생각이다. 지금은 낮은 수준의 지능이지만 수준이 높아지면 언젠가는 인간을 뛰어넘게 되는 것 아니냐는 우려가 나오는 이유다. 그렇지 않다. 엄밀히 말하면 AI는 지능이 아니라 지능과 유사한 방식으로 일을 처리할 수 있게 만든 컴퓨터 알고리즘에 불과하다. 인간의 지능과 질적으로 다르기 때문에 현 단계의 AI가 아무리 발전하더라도 실제 지능과 비슷한 수준에는 이르지 못한다.

여러 전문가는 현 단계의 AI가 설계에 따라 아주 특수한 목적을 위해서만 일을 처리할 수 있는 계산기라고 강조한다. 일본의 AI 최고 권위자로 꼽히는 아라이 노리코(新井紀子) 일본국립정보학연구소 사회공유지식 연구센터장은 “기본적으로 컴퓨터가 하는 것은 계산, 더 정확히 말하면 사칙연산”이라며 “AI의 목표는 인간의 지적 활동을 사칙연산으로 표현하는 것일 뿐”이라고 설명했다. 미국 차량공유 서비스 우버의 수석 소프트웨어 엔지니어인 트래비스 어데어는 “AI란 것은 존재하지 않는다. 비전문가들이 AI라고 부르는 기술을 AI 연구자들은 수학적 모델이라고 부른다”며 “입력값(사진, 문자, 게임의 한 장면 등)을 받고 예측값(나이, 감정, 게임의 다음 한 수)을 산출하는 것은 지능이 아니라 모델”이라고 설명했다.

오늘날 AI라 불리는 기술은 정확히 말하면 인공신경망(artificial neural network)이라는 통계학적 알고리즘이다. 이 기술은 극단적으로 말하면 데이터를 통계 처리해 최적의 값을 도출하는 계산기에 지나지 않는다. 사진 속에서 고양이를 기막히게 식별해내는 AI는 수많은 고양이 사진을 통계적으로 분석해서 고양이 사진이 공통적으로 갖고 있는 요소를 추출해낸 것이다. 이 과정은 처음부터 끝까지 수학적 연산이다. 컴퓨터는 고양이 사진을 수많은 숫자로 이뤄진 행렬이라고 인식하기 때문이다. AI가 고양이를 알아보는 과정엔 합성곱(convolution, 두 함수를 곱한 뒤 적분하는 연산), 로지스틱 회귀(사건의 발생 가능성을 예측하는 통계 기법) 등 일반인이 이해하기 어려운 수학적 기법이 동원된다. 이는 인간의 지능이 작동하는 방식과 본질적으로 다르다.

지능과 작동 원리가 다르다고는 해도 AI가 인간 지능을 뛰어넘을 가능성은 여전히 있는 것 아니냐는 우려가 있을 수 있다. 그러나 아라이는 AI가 통계와 확률에 의존한다는 근본적 한계 때문에 인간 지능과 유사한 수준에 결코 도달하지 못한다고 주장한다. 그 근거는 도쿄대 입학시험에 합격할 수 있는 AI를 개발하는 ‘도쿄대 로봇’ 프로젝트다. 아라이는 지난 2011년부터 5년간 딥러닝, 빅데이터 등 현존하는 컴퓨터 기술을 총동원해 ‘도쿄대 로봇’ 개발을 시도했다.

장식으로 전락한 인공지능


▎인천 가천대 길병원은 IBM사의 의료용 AI 소프트웨어 ‘왓슨 포 온콜로지’를 도입했다. 길병원에 따르면 왓슨이 제시한 치료법은 의료진의 치료법과 90% 일치했다.
AI가 세계에서 손꼽히는 명문대인 도쿄대에 합격할 수 있을까. 결론부터 말하면 현재 기술로는 불가능하다. ‘도쿄대 로봇’이 5년 동안 무서운 기세로 성장한 것은 사실이다. 프로젝트 초기인 2013년 도쿄대 로봇은 제1회 전국 모의고사에서 900점 만점에 387점으로 전국 평균인 459.5점에 크게 미달했지만, 2016년엔 525점으로 그해 평균인 437.8점을 상회하는 수준까지 올라섰다. 2016년 525점은 상위 20% 안팎에 해당하는 점수다. 이 정도 백분율이면 일본의 명문 사립대로 꼽히는 MARCH(메이지대, 아오야마 가쿠인대, 릿쿄대, 주오대, 호세이대)를 포함해 전국 512개 대학에 합격할 확률이 80%에 달한다.

객관식뿐 아니라 논술 문제에서도 도쿄대 로봇은 뛰어난 능력을 보였다. 2016년 모의고사 수리논술 6문제 중 4문제를 완벽하게 맞춰 전국 상위 1%에 해당하는 성적을 올렸다. 그뿐만 아니라 서구와 아시아의 국가체제 변천에 대해 600자 이내의 글을 쓰는 세계사 논술 문제에서도 21점 만점에 9점을 획득했는데, 이는 수험생 평균인 4.3점을 압도하는 점수다.

그러나 도쿄대 로봇의 약진은 거기까지였다. 연구진이 아무리 시도해도 도쿄대 로봇은 총점 상위 20%의 벽을 넘을 수 없었다. 총점이 상위 0.5% 이내에 해당하는 도쿄대 입학생을 이기는 것은 현실적으로 불가능하다는 게 연구진의 결론이다. 아라이는 대입 시험 상위 20% 정도가 오늘날 AI가 도달할 수 있는 한계라고 본다. 아라이는 “현재의 AI 능력으로는 넘지 못하는 벽이 있고, 지금의 기술을 아무리 발전시킨다 한들 그 벽은 넘을 수 없다. 이를 해결하려면 완전히 새로운 방식이 필요하다”고 설명했다. “평범한 컴퓨터 서버를 이용해서 5분 내에 못 푸는 문제는 슈퍼컴퓨터를 동원해 지구가 멸망하는 날까지 시도해도 풀지 못한다.” 심지어 지금보다 연산 능력이 수십 배는 뛰어난 양자컴퓨터가 나오더라도 통계 알고리즘이라는 AI의 구조적 한계는 극복이 불가능하다는 것이다.

도쿄대 로봇이 보여준 한계는 AI가 숫자와 통계를 제외한 그 무엇도 이해하지 못한다는 것이다. 아라이는 “AI가 계산기라는 말은 곧 AI는 계산할 수 없는 것, 덧셈과 뺄셈, 곱셈과 나눗셈으로 표현할 수 없는 것은 처리하지 못한다는 의미”라고 말했다. 화상처리, 언어처리 등 인간이 지능으로 이해하는 일들을 어떻게 컴퓨터가 이해할 수 있도록 수식으로 바꾸는지가 현재 AI 연구의 본질이라는 것이다. AI가 도쿄대에 절대 합격하지 못하는 이유는 도쿄대에 합격할 정도로 높은 점수를 받기 위해선 수식과 통계를 넘어서는 이해 능력이 필요하기 때문이라고 아라이는 주장했다.

이런 한계가 가장 극명하게 드러나는 부분이 자연 언어처리다. AI의 자연언어처리 기술은 대화형 로봇인 챗봇, 기계번역, 음성인식 등 다양한 분야에서 활용되고 있다. 이 같은 기술에서 ‘시리’ 등 AI비서는 사람의 질문을 받으면 그에 해당하는 답변을 적절히 내보내 마치 AI가 대화를 할 수 있는 것처럼 연출한다. 그러나 실상 AI비서는 인간의 말을 한마디도 이해하지 못한다.

‘이 근처에서 맛있는 이탈리아 음식점을 알려줘’라고 AI에 요구하면 AI는 ‘근처’, ‘이탈리아 음식점’이라는 키워드를 바탕으로 인터넷 검색을 실시하고 그 결과를 알려준다. 해당 문장에서 ‘근처’, ‘이탈리아 음식점’이라는 키워드를 산출하는 근거는 데이터 학습을 바탕으로 한 통계다. 이 통계를 바탕으로 AI는 해당 문장에서 어떤 단어가 핵심적인 키워드일 가능성이 높은지 판단하고 그 키워드로 검색한 값을 보여주는 것일 뿐, 질문의 의도를 파악하거나 질문을 이해하지는 못한다. 일례로 AI 비서에게 ‘맛없는 이탈리아 음식점을 알려줘’라고 요청하면, AI는 맛있는 이탈리아 음식점을 물어봤을 때와 동일한 답변을 내놓는다. ‘맛없는’ 음식점을 검색하는 사람이 많지 않고, 따라서 ‘맛없는’이라는 키워드의 가중치가 낮게 잡혀 판단에 포함되지 않기 때문이다.

이 같은 AI의 한계는 대중에게 잘 노출되지 않는다. AI 개발업체나 관련 상품을 판매하는 기업은 AI라는 말을 포장하는 데 주력할 뿐 그 실상을 잘 드러내지 않는다. 미국 블룸버그 인텔리전스의 분석가 마이클 맥도너의 조사에 따르면 지난 2년간 기업이 어닝 시즌에 실시하는 실적 컨퍼런스 콜에서 AI를 언급하는 빈도수가 급증했다고 분석했다. 지샨 지아 마이크로소프트 수석 엔지니어는 “일반 기업들이 말하는 AI는 지나치게 과장돼 있다. 많은 회사가 기존에 하던 것을 AI라고 이름만 바꿔 달고 돈을 쏟아붓는다. 20여 년 전 닷컴 버블을 떠올리게 한다”고 꼬집었다. 미국 시사지 애틀랜틱은 “기업들은 AI가 우리의 삶을 혁신한다고 주장하지만 구체적으로 어떤 내용의 혁신인지는 밝히지 않는다”며 “AI는 기업 전략을 화려하게 치장하는 수단으로 전락하고 있다”고 지적했다.

AI는 실제로 뭘 할 수 있나


▎매사추세츠공대(MIT), 스탠퍼드대, 오픈AI 등 미국 대학·연구소 연구진이 지난해 공동 발표한 ‘AI지수(AI Index) 보고서’는 특정 분야에서 인간과 AI의 능력을 비교했다.
장식으로 전락한 AI의 대표적 사례는 AI 로봇 ‘소피아’다. AI업체 핸슨로보틱스가 개발한 로봇 소피아는 지난해 유엔에서 연설하고 사우디아라비아에서 시민권을 받는 등 ‘세계 최초의 AI 인격체’로 알려지며 화제를 모았다. 올해 초엔 방한해 박영선 더불어민주당 의원과 한복 차림으로 1:1 대담을 하는 모습을 연출하기도 했다. 소피아가 마치 스스로 생각하고 인격을 갖는 인격체인 듯 행세한 것이다.

일선에서 AI를 연구하는 전문가들은 이 같은 소피아의 활동을 ‘보여주기식 미디어 선전’이라고 공격했다. 페이스북의 AI 총괄 얀 르쿤은 올해 초 소셜미디어에서 “소피아가 AI라는 주장은 마술이 진짜 마법이라고 하는 꼴이나 마찬가지”라며 “이는 완전한 헛소리다. 소피아를 호의적으로 보도하는 언론은 이 사기극의 공범”이라고 신랄하게 비판했다. 얀 르쿤은 이어 “소피아 뒤에 있는 인간들도 마찬가지로 헛소리꾼이다. 로봇은 느끼지 못하고 의견도 없고 어떤 것이 무엇을 말하고 있는지 전혀 이해하지 못한다. 그저 꼭두각시일 뿐”이라고 직격탄을 날렸다. AI가 아직까지 글자 하나도 이해하지 못한다는 실상은 감추고 마치 스스로 생각하는 AI 인격체가 금세라도 등장한다는 환상을 불러일으킨다는 것이다.

AI는 지능의 관점에선 턱없이 부족하지만 제한된 업무를 처리하는 데는 인간보다 훨씬 효율적이다. 매사추세츠공대(MIT), 스탠퍼드대, 오픈AI 등 미국 대학·연구소 연구진이 지난해 공동 발표한 ‘AI지수(AI Index) 보고서’에 따르면 AI는 음성인식, 문제풀이 등 일부 분야에선 인간과 유사한 수준까지 성장했다. 특히 사물을 식별하는 AI의 능력은 인간보다 정확한 것으로 나타났다. AI지수는 사진 식별, 문장 식별, 음성인식, 번역, 문제풀기, 수학 이론 증명 등 현재 인공신경망 기술을 적용한 AI가 활용되고 있는 여러 분야에서 최신 연구 결과를 수집해 현황을 분석한 보고서다.

AI를 응용한 제품과 서비스는 다양하지만 현재 그 바탕에 있는 AI의 주요 기술은 크게 세 가지로 분류된다. 자연언어처리, 음성인식, 화상처리다. 이 세 가지 부문에서만큼은 AI가 인간과 유사하거나 인간을 압도하는 성능을 보인다. AI지수 보고서에 따르면 AI는 사진 식별에서 인간을 능가했다. 주어진 사진이 무슨 사진인지 식별하는 과제에서 올해 가장 뛰어났던 AI는 오차율 2.25%를 기록하며 인간(오차율 5%)보다 더 높은 정확성을 달성했다. 2010년 28.5%에서 크게 낮아진 수치다. 또 AI는 음성을 듣고 이를 텍스트로 풀어내는 음성인식 분야에서 인간에 근접한 정확도(95%)를 기록했다. 주어진 글과 연관된 문제를 푸는 능력에서도 인간(82%)과 거의 유사한 79%의 정답률을 보였다. 연구진은 “AI는 일반지능(general intelligence)의 관점에선 아직 한계가 뚜렷하지만 아주 좁은 분야에선 인간보다 뛰어난 면모를 보인다”고 밝혔다.

특히 화상처리는 AI가 가장 강점을 보이는 분야다. 주어진 화상에 어떤 사람이나 물건이 있는지 정확히 판별해내는 기술이다. 과거엔 개, 고양이 등 사물을 인식하는 데 그쳤지만 최근엔 개의 종까지도 파악해낼 만큼 정확도가 크게 높아졌다. 사진이나 영상은 전부 숫자로 변환해 컴퓨터에 입력할 수 있기 때문에 AI의 막강한 연산력을 온전히 활용할 수 있다. 구글 딥마인드의 AI알파고가 2016년 한국 프로 바둑기사 이세돌과의 대국에서 승리할 수 있었던 것도 화상처리 기술 덕분이다. 알파고는 프로 기사들의 기보를 학습함으로써 프로 바둑기사의 다음 수를 50%가 넘는 확률로 예측할 수 있는 능력을 갖췄다. 수많은 기상도를 학습한 컴퓨터가 현재의 기상도를 바탕으로 일주일 뒤의 날씨를 예측하는 것과 동일한 원리다. 지난 2013년 쇼기(일본식 장기)에서 일본 최고수를 꺾은 AI ‘포난자’를 만든 개발자 야마모토 잇세이(山本一成)는 “딥러닝이 가장 잘하는 것은 화상처리다. 언어든 바둑이든, 뭐든지 화상과 연결하는 것이 가능하다면 딥러닝은 그 분야에서 인간을 뛰어넘게 된다”고 말했다.

AI의 화상처리를 응용한 기술은 이미 업계에서 널리 사용되고 있다. IBM의 AI 소프트웨어 ‘왓슨’은 방사선으로 촬영한 이미지를 판독해 환자에게 암이 있는지 진단하고 치료법을 제시한다. 그 정확도에는 이견이 있지만 2016년 12월부터 왓슨을 도입해 이용하고 있는 가천대 길병원에 따르면 왓슨이 제시한 치료법은 의료진의 치료법과 90% 일치했다. 보안업계에선 얼굴인식 기술이 널리 이용된다. 애플의 아이폰X는 얼굴로 스마트폰 잠금을 해제하는 페이스ID 기술을 탑재했다. 중국 AI업체 센스타임(관련기사 154쪽)은 20억 명의 얼굴 이미지를 학습시킨 AI로, 지방 경찰을 도와 범죄자를 찾아냈다. 공장이나 창고에선 이미지 인식을 활용해 제품을 식별하고 불량품을 골라내는 일도 한다.

음성인식과 자연언어처리도 AI에 힘입어 크게 발전한 분야다. 애플의 시리 같은 AI 비서가 이 기술을 활용한 대표적인 상품이다. 음성인식 기술을 통해 사람의 목소리를 듣고 텍스트로 풀어낸다. 최근엔 정확도가 거의 인간에 가까울 정도로 높아졌다. 자연언어처리 기술은 이 텍스트를 분석해 어떤 반응을 보여야 할지 판단한다. AI의 텍스트 처리 능력은 뛰어나다. ‘로마 제국은 언제 멸망했나’, ‘달은 지구에서 얼마나 멀리 떨어져 있나’ 같은 질문에도 척척 답한다. 지난 1월엔 알리바바와 마이크로소프트가 개발한 AI가 스탠퍼드대 독해 테스트인 ‘SQuAD’에서 각각 인간 참가자들의 평균 점수를 넘어서는 일도 벌어졌다.

당시 여러 언론에서 ‘AI의 독해력이 인간을 추월했다’는 보도가 나왔지만 이는 사실이 아니다. AI는 우리가 생각하는 방식처럼 글을 ‘읽는’ 것이 아니기 때문이다. 스탠퍼드대의 SQuAD는 마치 수능 언어영역처럼 특정 지문에 관련된 문제를 풀도록 하는 시험이다. 예를 들면 하버드대학의 역사에 관한 지문을 주고 ‘이 학교는 누구의 이름을 따서 지어졌나’, ‘하버드가 1900년에 세운 기구는 무엇인가’ 같은 문제를 내는 식이다. 앞서 말했듯이 AI는 숫자가 아닌 것을 이해하지 못하기 때문에 ‘독해’는 불가능하다. 그렇다면 어떻게 이런 문제를 풀 수 있을까. 답은 검색이다. 문제에 등장한 주요키워드를 바탕으로 텍스트를 검색해 연관성이 높은 키워드를 텍스트 속에서 찾아내는 것이다. AI는 이처럼 여러 키워드를 분석해서 가장 정답일 확률이 높은 키워드를 정답으로 제시한다.

AI가 독해를 한다는 것은 사실이 아니지만, 방대한 텍스트 속에서 빠른 시간 내에 필요한 정보를 찾아내는 데엔 아주 유용한 기술로 평가된다. 이미 자연언어 처리 기술은 여러 분야에서 활용되고 있다. 최근 주목받는 분야는 법률이다. 2016년 첫 법률 AI ‘로스’가 미국에서 선보인 이래 로펌들은 잇따라 AI 판례 분석 기술을 도입하고 있다. 지난 2월엔 국내에서도 로펌 대륙 아주가 최초로 법률 AI를 도입했다. ‘보이스피싱을 당한 경우 어떻게 해야 하나요?’ 같은 질문을 입력하면 관련된 조항과 판례를 빠르게 찾아내 보여주는 시스템이다. 대륙아주 소속 김형우 변호사는 중앙일보 인터뷰에서 “이전에는 판례 확보는커녕 해당 사건과 관련 있는 정확한 법률용어가 무엇인지, 이와 관련한 법률이 어떤 게 있는지 파악하는 데만도 꽤 오랜 시간이 걸렸는데 AI 변호사와의 협업으로 이젠 수십 초면 끝난다”고 말했다.

- 이기준 기자 lee.kijun@joins.com

/images/sph164x220.jpg
201805호 (2018.04.23)
목차보기
  • 금주의 베스트 기사
이전 1 / 2 다음