기술은 단순한 도구가 아니다인간다움이란 무엇인가.인간은 상당히 독특한 방식으로 협동하는 사회적 동물이다. 2~3세 영유아를 대상으로 진행한 실험에서 옆에 있는 어른이 뭔가를 제대로 못 하고 자꾸 실수하면 아이는 자연스럽게, 자발적으로 다가와 어른을 도와주려 한다. 자신에게 특별한 이익도 없고 평판이란 개념도 미비하지만 아이는 협력이라는 인간의 본성에 따라 행동한다. 인간은 태어나면 무조건 협력하는 게 디폴트다. 하지만 이러한 본성은 나이가 들수록 조건부 협력, 기브 앤드 테이크(give and take)로 바뀐다. 자신이 먼저 협력했는데 상대방이 보답하지 않거나 자신이 속한 집단 내에서만 협력하는 등 합리적 계산과 집단주의적 성향이 나타난다.조건부 협력이 반드시 나쁜 것만은 아니다. 인류 역사에서 인간이 아무하고나 협동하지 않았기 때문에 진화해온 것이다. 협동에 보답하거나 협동할 만한 가치가 있는 사람과 협력하고, 자기 이익만 챙기는 사람은 사회에서 배제해왔기 때문이다. 인간은 이렇게 상당히 혹독한 환경에서 살아남았다. 이런 행동 양식이 인간을 여타 동물과 감정이 없는 기계 등과 구별한다.또다시 혹독한 환경이 오고 있다. AI의 위험성은 무엇인가.첫째, AI는 근본적으로 보수적이다. 인간은 실수나 지나친 일반화, 왜곡을 하면 문제를 인지하고 자신을 교정한다. 하지만 AI는 데이터 패턴 분석 결과를 웬만하면 고치지 않는다. 이를 AI 콘서버티즘(conservatism)이라고 하는데, AI는 새로운 분석 방식이 더 좋다는 보장이 있지 않는 한 기존의 것을 고수하는 게 안전하다고 판단한다. 둘째, AI의 빅데이터 분석 방식에는 사회과학의 통계적 분석 방법에서 드러나는 한계가 고스란히 반영돼 있다. AI가 데이터의 주도적인 경향성에 주목한다면 다양성이 무시되기 쉽다. AI가 세상을 잘 반영하도록 데이터를 수집했어도 분석 결과의 편향성은 나타날 수밖에 없다. 우리가 살고 있는 사회는 이상적인 사회가 아니지 않나. 바람직하지 않은 사회의 면면이 AI로 인해 전형화될 위험이 있다.AI가 인간다움을 위협한다는 우려가 나온다.AI를 비롯한 기술은 단순한 도구가 아니다. 기술을 사용하다 보면 인간도 바뀐다. 기술은 목적을 위한 수단일 뿐이며 인간은 변하지 않는다는 주장은 타당하지 않다고 본다. 특히 AI의 위험은 훨씬 더 교묘해 인간이 알아차리기 어렵다. 우리는 알게 모르게 행동 패턴을 AI에 맞추고 있다. 가령 AI 음성 인식 서비스의 경우 AI가 말귀를 알아듣지 못하면 인간은 일부러 더 또박또박 천천히 말한다. 또 요즘 사람들은 프롬프트(prompt, 특정 작업을 수행하도록 지시하는 명령어)가 중요하다며 AI가 알아듣기 쉽게 질문을 바꾸는 연습을 하고 있다. 이는 우리가 평상시 말하는 방식에도 영향을 미친다. AI에 너무 의존하면 사람을 대하는 태도와 사람을 파악하는 방식, 세계를 바라보는 시각 등도 변질돼 결국 인간은 인간다움을 상실할 것이다. 인간이 기계화되는 수순이다.AI가 악의 축인가.AI를 비난할 수는 없다. 하지만 AI가 인간다움이 사라지는 현상에 책임이 없다는 뜻이 아니다. 현재로서는 AI가 책임을 질 수 있는 존재가 아니라는 말이다. 전 세계 어느 국가도 AI에 법인격을 부여한 곳은 없다. AI에는 의도성이 없기 때문이다. AI가 문제를 일으켜 피해가 발생했다면 의도성이 없는 AI는 도덕적 책임의 주체가 될 수 없다. 만약 인간다움이 상실되는 방향으로 AI를 설계한다면 이에 대한 책임은 인간의 몫이다. AI가 아니라 기술적 보안을 해야 하는 인간의 책임이다.AI에 의도를 부여하게 된다면.가능한 일이다. AI가 의도를 갖고 스스로 목적함수를 설정하도록 개발할 수 있다. 기술의 한계가 아니라 인간의 선택이다. 그렇게 개발하지 않는 이유는 사용자의 효용보다 위험이 훨씬 크기 때문이다. 예를 들어 AI 에이전트에 ‘오늘 기분이 꿀꿀한데 즐겁게 해줘’라고 말하면 AI 에이전트는 사용자 데이터를 분석해 스스로 목적함수를 설정한 뒤 작업을 수행한다. 그런데 AI 에이전트가 2000만원짜리 크루즈 티켓을 끊어버리면 어떡할 건가. 개발자는 이런 가능성을 알고서 상당히 조심스럽게 AI를 만들고 있다.특히 AI의 행동이 인간에게 도움을 줄지 불확실한 상황에서는 AI가 함부로 행동하지 않도록 안전장치를 마련해둬야 한다. AI가 인간을 최대한 돕고자 노력하더라도 불확실한 상황에서는 나서지 않도록 만들어야 한다. 자칫 문제가 발생할 수 있기 때문이다. 모든 걸 알아서 척척 해주는 AI는 위험하다. 겸손한 AI를 만들고자 노력해야 한다.
AI가 뭐든 척척 해낼수록 인간다움은 위기AI 사용자에게도 윤리성이 강조된다.AI는 현재 미성숙한 기술이기 때문에 전 주기적으로 접근해 윤리성을 고려해야 한다. 이를 라이프사이클 어프로치(Life cycle approach)라고 부르는데 AI를 앞으로 어떻게 발전시키고 활용하고 폐기할지, 기술의 전 주기를 살피는 것이다. ▶AI 설계 단계에 윤리적 코드를 넣는 것만이 아니라 ▶AI가 제대로 만들어졌는지 확인하고 ▶사용자가 오남용·악용하지 않도록 교육해야 한다. ▶또 AI를 폐기할 때 사용자의 프라이버시를 보호할 수 있어야 한다. 이렇게 해야 충분히 믿을 수 있고 안전한 AI가 만들어진다. 단, 사용자 교육 시 플랫폼 사업자에 대한 교육도 필수적이다. 이들은 사용자가 AI를 오남용·악용하기 어렵고 불편하도록 AI 플랫폼을 만들어야 한다. 이윤추구에만 몰두하지 말고 AI로 인한 사용자의 피해에 책임감을 가져야 한다.AI 시대, 부의 양극화도 우려된다.인류 역사상 혁신적 기술개발이 인류의 보편복지에 기여한 적도 있었지만 그렇지 않을 때도 있었다. 기술 초기 단계에는 기술이 비쌀뿐더러 제한적이었다. 권력을 쥐고 있던 사람들이 독점하고 자신들의 이익을 위해서 사용하는 현상이 빈번했다. 전체 생산성은 비약적으로 향상했지만 나머지 사람들의 건강 상태는 오히려 악화됐다. 혁신적 기술의 혜택은 대다수 사람에게 골고루 퍼져나가야 바람직하다. 예를 들어 기술 초창기에 전기는 제한적으로 사용됐는데 당시 정책 입안가들이 네트워크로서 전기의 장점을 인지하고 정부 자금과 사회적 자원을 동원해 전기를 집집마다 깔았다. AI 역시 기술의 혜택이 인류의 보편복지에 기여하도록 거버넌스가 마련돼야 한다.AI로 대체되지 않으려면 인간은 어떤 노력을 해야 하는가.크게 두 가지가 있다. 첫째, AI가 잘하지 못하는 의미론적 분석에 집중하는 것이다. AI는 사전 훈련 데이터베이스로 작동하기 때문에 여러 영역을 관통하는 횡단적 통찰력이 부족하다. 예를 들어 메디컬 AI는 당연히 메디컬 데이터를 잘 분석하지만 경제 현상 등 데이터 성격이 다른 영역이 입력될 경우 둘 사이를 횡단해서 데이터 간 유사성을 알아내지 못한다. 물론 이는 인간도 하기 힘든 일이다. 하지만 아직까지는 여러 분야를 관통해 데이터를 조정·통합하는 의미론적 분석은 인간이 AI보다 더 잘한다. 둘째, AI를 어떤 경우에 활용할지 판단하는 능력이다. AI는 특정 과업을 두고 인간이 하는 게 적합한지, AI가 하는 게 나은지 판단하지 못한다. 인간은 이런 질적인 부분에 주목해 AI를 효과적으로 활용해야 한다.- 노유선 기자 noh.yousun@joongang.co.kr _ 사진 최영재 기자