[TIME] 레이 커즈와일 2014. 12. 19.
탁월한 우주물리학자 스티븐 호킹은 최근 ‘인공지능(AI)’이 인간의 지능을 넘어서면 인류문명의 생존을 위협할 것이라 경고했다. 페이팔, 스페이스X, 테슬라를 세운 일론 머스크 역시 인공지능을 경계하라는 우려의 목소리를 내놓았다.
인공지능이 인류에게 위협이 된다면, 그것은 인류가 맞이한 최초의 위협은 아닐 것이다. 1950년대, 내가 어렸을 때 민방위 사이렌이 울리는 동안 책상 밑에 웅크리고 앉아있을 때에도 인류는 위기에 처해 있었다. 또 그 이후에는 우리 몸이 전혀 방어할 수 없는 신종 바이러스로 무장한 생물학테러처럼 사람들을 집단공포 속에 몰아넣은 거대한 위협도 있었다.
이처럼 기술은 늘 양날의 검이었다. 인간을 따뜻하게 해주지만 마을을 순식간에 잿더미로 만들 수 있는 불을 발견한 이래 이런 상황은 늘 계속되어 왔다.
암울한 미래를 그린 전형적인 디스토피아 영화 속에는 한두 명, 또는 집단이 ‘인공지능’을 제압하기 위해 싸운다. 또는 세상을 지배하고자 하는 인공지능에 맞서 인간들이 전쟁을 벌이기도 한다.
하지만 이러한 상황은 실제 인공지능이 존재하는 양상과는 거리가 멀다. 오늘날 인공지능은 한두 사람의 손 안에 있는 것이 아니라, 수십억 명의 손 안에 있기 때문이다. 예컨대 스마트폰을 쥔 아프리카의 아이가 20년 전의 미국 대통령보다 더 많은 지식에 접근할 수 있다.
어쨌든 인공지능은 갈수록 더 똑똑해질 것이고, 그에 따라 인공지능을 사용하는 빈도 역시 계속 늘어날 것이다. 실제로 10년 안에 인공지능 덕분에 모든 사람들의 지적인 능력은 한층 향상될 것이다.
물론 다양한 집단간의 갈등은 그 때에도 계속 이어질것이다. 그들은 상대방을 압도하기 위해 제각각 인공지능을 활용할 것이고, 결국 갈등은 여전히 지속될 것이다. 그러한 일은 이미 벌어지고 있다.
그나마 조금이라도 위안이 되는 사실은, 2011년 스티븐 핑커가 [우리 본성의 선한 천사: 인간은 폭력성과 어떻게 싸워 왔는가]라는 책을 통해 보여줬듯이 인간의 폭력성이 급격하게 감소해왔다는 것이다. 스티븐 핑커에 따르면, 지역별로 통계의 편차가 있지만 전쟁터에서 사망하는 사람의 비율이 600년 전에 비해 100분 1로 줄어들었다고 한다. 살인사건 역시 10분의 1로 떨어졌다.
이런 이야기를 하면 사람들은 대개 믿을 수 없다는 반응을 보인다. 하지만 이것은 또다른 발전에서 기인한 것이다. 매스미디어가 발전하면서 우리가 보고 듣는 온갖 사악한 일에 대한 정보 역시 기하급수적으로 늘어났기 때문이다. 물론 이러한 정보의 증가 역시 인공지능 기술에 힘입은 결과라 할 수 있다.
인공지능처럼 급부상하는 기술이 우리 인간에게 해를 미치지 않도록 하기 위해서는 어떻게 해야 할까? 인공지능보다 10-20년 앞서 발전한 생명공학에서 그러한 사례를 찾을 수 있다.
1975년 생물학자들은 ‘아실로마 DNA 재조합 컨퍼런스 Asilomar Conference on Recombinant DNA’라고 하는 모임에서 DNA 재조합 기술의 잠재적 위험성을 인지하고 이 연구가 나쁜 목적으로 활용되지 않도록 하기 위한 전략을 공유했다. 이 자리에서 채택된 아실로마 가이드라인은 이후 생명공학 업계의 약간의 수정을 거치긴 했지만, 상당한 효과를 발휘했다. 어쨌든 39년이라는 시간이 흐르는 동안 우연한 사고든 의도적인 남용이든 심각한 문제는 한 번도 발생하지 않았다. 그 결과 오늘날 유전자 치료는 임상실험 단계에 이를 만큼 진일보했으며 우려했던 문제는 한번도 발생하지 않았다.
인공지능에 적용할 수 있는 다양한 윤리적인 가이드라인은 이미 존재한다. 예컨대 아이작 아시모프의 1942년 단편소설 “런어라운드Runaround”에 등장하는 ‘로봇공학 3원칙’은 가장 고전적인 가이드라인이라고 할 수 있다. 이것은 사실 ‘인공지능’이라는 분야가 존재하지도 않던 시절 나온 것이다. 인공지능이라는 분야를 처음 만들어낸 앨런 튜링의 “컴퓨팅 기계와 지능 Computing Machinery and Intelligence”이라는 논문은 이로부터 8년이 지난 1950년 나왔다.
오늘날 인공지능 전문가들은 대부분 인공지능이 인간의 수준에 이르려면 수십 년이 걸릴 것이라 말한다. 물론 나는 훨씬 낙관적으로 그 시기가 2029년께 올 것이라고 예상한다. 하지만 어떤 예상이 맞든, 우리에게는 윤리적 기준을 마련할 수 있는 시간이 충분히 남아있다.
많은 대학과 기업들이 인공지능 기술을 안전하게 사용하기 위한 전략과 가이드라인을 만들기 위해 노력하고 있으며, 몇몇 가이드라인은 이미 마련된 상태다. 아실로마 가이드라인 방식처럼 각각의 인공지능 프로그램의 임무를 명확하게 규정하고, 권한이 없는 사용자의 접근을 막는 암호화된 안전장치를 구축하는 것도 하나의 방법이 될 수 있을 것이다.

궁극적으로 인공지능기술을 안전하게 사용하기 위한 가장 중요한 접근방법은 우리 인간의 의사결정방식과 사회제도를 합리적으로 정비하는 것이다. 우리는 이미 인간과 기계를 분리할 수 없는 문명 속에 살고 있다. 미래에 우리가 파괴적인 수렁 속으로 빠져들지 않기 위한 가장 최선의 방법은 우리 사회의 이상을 계속 진전시켜 나가는 것이다. 앞에서도 말했듯이 이러한 이상은 이미 인간의 폭력성을 크게 감소시켜 왔다.
오늘날 인공지능 기술은 질병을 조기에 진단하고, 치료법을 발견하고, 재생가능한 청정에너지 개발하고, 환경을 정화하고, 세계 어디서나 사람들에게 높은 수준의 교육을 제공하고, (호킹 박사가 사용하는 음성합성장치처럼) 장애가 있는 사람들을 도와주는 데 활용되고 있다. 다양한 방식으로 우리 삶에 기여하고 있는 것이다.
앞으로 수십 년 동안, 우리 인류는 중대한 문제를 해쳐나가며 거대한 진보를 이룩할 것이다. 그 길에서 인공지능은 이러한 인류의 위대한 진보에 핵심적인 기여를 할 것이다. 우리는 인공지능의 위험을 제어하는 한편, 인류의 진보를 실현하기 위해 노력해야 한다. 그것은 우리 세대에게 주어진 도덕적 책무다. 물론 우리는 이러한 과업을 훌륭하게 수행해낸 경험이 많다.
출처: http://time.com/3641921/dont-fear-artificial-intelligence/
9기 이택근