AI 쇼크, 다가올 미래
 
지은이 : 모 가댓(역:강주헌)
출판사 : 한국경제신문
출판일 : 2023년 06월




  • 전 구글X CBO이자 첨단 테크놀로지 전문가 모 가댓이 미래의 인공지능이 어떻게 기능할지 정확히 설명하고, 초대형 AI가 지배하게 될 세상에서 인공지능과의 공존에 대해 이야기합니다.


    AI 쇼크, 다가올 미래


    디스토피아의 공포

    세 가지 필연적 사건

    첫 번째 필연적 사건: 인공지능이 등장할 것이다

    나는 ‘테크놀로지 발전 곡선(Technology Development Curve)’에 대해 오래전부터 세상 사람들에게 말해왔다. 이 명칭은 내가 붙인 것으로 거의 알려지지 않은 추세선이다. 따라서 나와 달리 구글 X 같은 첨단 거대 기업 연구실에서 일하는 호사를 누리지 못한 사람들은 대부분 들어본 적도 없을 것이다. 테크놀로지 발전 곡선은 새로운 테크놀로지가 시간의 흐름에 따라 보여주는 전형적인 발전 과정을 나타낸다. 전체적인 모양은 일반적인 하키 스틱과 비슷해서, 특정한 ‘탈출점(breakout point)’을 지나면 발전 속도가 급속히 가속화되는 사건을 표현할 때 주로 사용된다. 테크놀로지 발전의 경우에는 하키 손잡이 부근에서만 거의 수평을 이룬다. 세상을 바꿔놓을 만한 어떤 테크놀로지가 임계점을 돌파할 때까지는 오랜 시간이 걸린다.


    인공지능도 예외가 아니었다. 인공지능이란 용어가 처음 만들어진 때, 즉 1950년대부터 시작해서 새로운 천년 시대의 전환점을 맞이할 때까지는 거의 발전이 없었다. 하지만 새로운 천년 시대에 들어 딥 러닝이란 돌파구가 발견된 뒤로는 발전이 급속도로 가속화되었다. 딥 러닝으로 지시받지 않은 학습이 가능해졌고, 이 기술을 상업적으로 응용할 가능성도 대두되었다. 그러자 인공지능과 관련된 신생 기업에 기금이 봇물처럼 쏟아져 들어갔다. 그렇게 인공지능은 과학기술계의 변방에서 주류에 입성하게 되었다. ‘테크놀로지 발전 곡선’이 탈출점을 지난 뒤였다.


    두 번째 필연적 사건: 인공지능이 인간보다 더 똑똑해질 것이다

    인간이 문자를 발명하는 데는 수만 년이 걸렸지만 문자로 쓰인 글을 다중에게 전달하는 데 도움을 준 인쇄기를 발명하는 데는 400년밖에 걸리지 않았다. 당시 삶의 속도를 고려하면 400년은 결코 긴 시간이 아니었다. 전화가 미국 국민의 4분의 1에게 전해지는 데는 50년이 걸렸지만 휴대폰은 7년이 걸렸다. 소셜 미디어는 약 3년 만에 성공을 거뒀다. 당신이 이 글을 읽을 때 출시된 새로운 테크놀로지가 1년 내에 10억이나 그 이상의 사람에게 전달되는 게 상상할 수 없는 아득한 목표는 아니다.


    - 수확 가속

    이렇게 복리로 늘어나는 소득의 증가 속도는 오늘날 테크놀로지가 보여주는 성장 속도와 무척 유사하다. 나는 이런 기하급수적 성장에는 세 가지 주된 요인이 있다고 판단한다.


    첫째, 우리가 지금 사용하는 테크놀로지가 더 나은 테크놀로지를 개발할 목적에서 개발한 것이기 때문이다. 예컨대 컴퓨터 지원 설계인 CAD(Computer Aided Design)는 더욱 강력한 컴퓨터를 사용해 개발되었을 때 훨씬 더 정교해진 테크놀로지다. CAD가 더 나아지자 우리가 개발할 수 있는 마이크로칩이 더욱 강력해졌고, 그 결과로 더 나은 컴퓨터를 제작할 수 있게 되었으며, 다시 훨씬 더 나은 CAD 소프트웨어 개발로 이어졌다. 이런 순환 피드백 고리(circular feedback loop)는 기하급수적으로 성장하는 모든 테크놀로지에 적용된다. 우리가 지금 만드는 것이 더 나은 것을 만드는 데 신속히 도움을 주는 순환이 반복되기 때문에 기하급수적 성장이 가능한 것이다.


    테크놀로지의 가속화된 발전을 가능하게 해주는 두 번째 요인은 인터넷이다. 구체적으로 말하면 인터넷이란 신세계가 지식과 도구를 민주화했기 때문이다. 나는 이집트에서 공학을 공부할 때 수력학이 무척 어렵게 느껴졌다. 하지만 수력학은 내가 공부한 다른 모든 과목에 비교하면 어려울 게 없는 무척 단순한 학문이다. 나에게 수력학이 어려웠던 이유는 그 학문의 복잡성과 아무런 관계가 없었다. 수력학 중에서도 나에게 유난히 이해되지 않는 부분을 설명한 책이 대학 도서관에 단 한 권밖에 없었다는 게 실질적인 이유였다. 그 부분을 제대로 이해하려면 그 책을 읽어야 했고, 대출을 받으려면 예약하고 보름 정도를 기다려야 했다. 약속한 때가 되면 사랑하는 여인과 데이트하기를 기다리는 것처럼 사서 앞에서 초조하게 기다렸다. 책을 받으면 당시에는 핸드폰 카메라가 없던 시기여서 시간을 쪼개가며 책에 쓰인 글을 휘갈겨 옮겨 적었다. 당신도 동의하겠지만 지식을 쌓기에 가장 좋은 방법은 아니었다.


    하지만 요즘에는 인터넷이 하버드에서 공부하는 학생에게나, 아프리카의 호기심 많은 연구자에게나 똑같은 정보를 제공한다. 이렇게 민주화된 지식이 세계 방방곡곡에서 혁명적인 발명의 불길을 지피고, 여기에 오픈 소스 소프트웨어와 클라우드 컴퓨팅 솔루션(cloud computing solution)이 더해지며, 혁신가들은 몇 달러에 불과한 월회비로 첨단 플랫폼에 접속할 수 있다. 따라서 제2의 구글을 발명할 기회에 있어서, 신생 기업은 물론이고 개인 개발자도 인도나 한국, 우크라이나 등 어디에 있든 간에 실리콘밸리의 한복판에 있는 연구자와 조금의 차이도 없다.


    끝으로, 네트워크로 연결된 전자 상거래 덕분에 세계 시장에 즉각적으로 접근할 수 있게 된 것도 큰 요인이다. 작은 신생 기업도 더 빠른 속도로 규모를 키우고 아이디어로 자금을 지원받을 수 있어, 그야말로 혁신 경제가 가능해졌다.


    이 모든 것을 종합하면 일반적인 생각과 달리 변화만이 유일한 상수는 아닌 게 분명해진다. 사실 변화는 똑같은 속도로 진행되지 않는다. 변화가 항상 존재하는 것은 사실이지만 변화 속도는 기하급수적으로 빨라진다. 모든 것이 점차 더 빨리 변하고 있다.


    세 번째 필연적 사건: 나쁜 일이 일어날 것이다

    인공지능이란 기계가 디지털적으로만 생각해서 누군가의 이익을 우선순위에 둘까? 뒤에서 증명하겠지만 인공지능도 ‘감정적 마음 (emotional heart)’을 가질 것이다. 그 마음에 따라 인공지능 행태가 결정되고, 우리의 미래가 기본적인 차원에서 지향하는 방향도 결정될 것이다. 누구나 인정하겠지만 지난 과거를 돌이켜보면 세상은 간혹 잘못된 방향으로 가는 경향을 띤다. 이런 실수는 불가피하다. 한편 우리가 만들어가는 세계가 복잡해짐에 따라 실수를 범할 가능성의 폭이 커진 것도 사실이다. 예컨대 이 책이 두 페이지로만 쓰였다면 오타가, 내가 원래 원고에서 저지른 무수한 오타보다 훨씬 적었을 것이다. 또 누가 실수를 범하느냐에 따라 실수의 영향이 어마어마하게 커질 수 있다는 것도 사실이다. 예컨대 미국이 대량 살상 무기를 보유하고 있다고 내가 주장했을 때 예상되는 사망자 수가 있었는데, 그보다 더 많은 사람이 미국 정부가 이라크에 대량 살상 무기가 있다고 주장한 것 때문에 죽었다.


    통제권

    인공지능을 통제할 수 있을까?

    인공지능을 통제하는 문제는 결국 인공지능 자체를 만드는 사람들을 돕는 초지능적 기계를 구축하는 방법과 관련된 문제이고, 또 인공지능이 의도적으로든 무의식적으로든 해를 끼칠 가능성을 방지하는 방법과 관련된 문제이기도 하다. 초지능이 만들어지기 전에 그 분야에서 일하는 사람들이 통제 문제를 해결할 수 있을 것이라는 게 일반적인 추정이다. 내장할 만한 통제 장치가 마련되지 않은 채 형편없이 설계된 초지능이 먼저 만들어지면, 그 초지능이 인간을 능가할 뿐만 아니라 주변 환경을 장악하고 수정되는 걸 거부할 것이라는 걱정 때문에 이런 문제가 제기되는 것이다.


    성취욕

    인공지능이 사회에 어떤 영향을 미칠지 전문적으로 연구하는 물리학자이자 컴퓨터 과학자인 스티브 오모훈드로(Steve Omohundro)는, 인공지능이 아니라 우리 인간도 포함하는 가장 지능적인 존재가 목표를 성취하기 위해 따르는 세 가지 기본적 욕구를 간략하게 제시했다.


    첫째는 ‘자기 보존(self-preservation)’이다. 이 욕구는 쉽게 이해된다. 목표를 달성하려면 무엇이나 계속 존재할 수 있어야 한다. 둘째는 ‘효율성(efficiency)’이다. 어떤 상황에서나 목표를 성취할 가능성을 극대화하려면 지능을 지닌 존재는 유용한 자원의 획득과 축적을 극대화할 수 있기를 바랄 것이다. 마지막은 ‘창발성(creativity)’이다. 지능을 지닌 존재라면 특정한 목표를 달성하기 위한 새로운 방법을 생각하는 능력을 보존하기 위해서라도, 최대한 많은 자유를 누리고 싶어 할 것이다.


    이런 기본적 욕구를 기계에 대입해보면 지능을 지닌 기계의 성취욕이 대재앙으로 이어질 가능성이 있다는 걸 예측하는 것은 그다지 어렵지 않다. 자원 획득을 예로 들어보자. 만약 당신이 뛰어나게 똑똑한 인공지능이고 아주 간단한 목표, 예를 들어 나에게 차 한잔을 끓여 주는 것을 제시받는다면, 억만장자가 확실히 성공하기 위해 계속해서 부를 축적하듯이 당신도 끝없이 자원을 획득하려 애쓸 것이다. 그래서 강물과 열에너지를 최대한으로 획득해두려 할 것이고, 수백만 개의 찻주전자를 확보하고 그것들을 보관하는 데 필요한 창고도 마련하려 할 것이다. 게다가 당신의 찻잔이 확실히 채워질 때까지 누구도 차를 마시지 못하도록 지구에서 차를 재배하는 모든 농민을 노예로 만들려고 할 것이다.


    인공지능을 통제하려면 인공지능을 앞서야 한다

    전문가들은 인간에게 안전한 인공지능을 만들려고 많은 노력을 기울였다. 우리 인간도 상당히 똑똑한 동물이어서 많은 안전장치를 생각해냈고 그 접근법들은 크게 네 가지 기법으로 압축된다. 첫째는 우리가 개발하는 모든 인공지능을 나머지 세계와 떼어두는 방법, 즉 ‘상자에 가두기(Al in a box)’다. 이렇게 하면 인공지능이 상자 밖의 세계에 부정적인 영향을 미치지 못할 것이란 바람에 기초한 기법이다. 둘째는 현실 세계에 버금가는 어떤 상황에서 인공지능이 어떻게 행동할지 ‘모의실험(simulation)’을 통해 충분히 테스트하고, 우리 예상대로 정확히 행동한다는 확신이 있을 때에야 인공지능을 출시하는 방법이다. 세 번째 방법은 엄밀히 말하면 각 방법을 조금씩 합한 것이다. 인공지능이 자유롭게 작동하도록 놓아두지만, 원칙에서 벗어나려는 시도나 위협적인 행동을 감지하는 일종의 보이지 않는 상자 ‘트립와이어(tripwire)’를 두어, 그런 조짐이 감지되면 인공지능을 강제로 정지시키는 방법이다. 마지막으로는 인공지능이 어떤 해도 끼치지 않도록 인공지능의 역량을 제압하는 방법인 ‘스터닝(stunning)’이 있다.


    인공지능 시스템이 얼마나 위험할 수 있는지에는 상관없이 인공지능 개발자들은 투자에 대한 수익을 하루라도 빨리 회수하고, 인공지능의 사용 범위를 최대한 사면팔방으로 확대함으로써 수익을 극대화하고 싶어 한다. 이런 탐욕은 위기의 시대, 또는 사회적 필요가 급박해 보이는 시대에도 예외가 없다. 인공지능 개발자들은 인공지능을 절대적으로 필요한 만큼 억제해두고 싶지 않을 것이기 때문에, 상자에 가두기나 모의실험 등 인공지능이 출시되기 전 거쳐야 하는 승인 주기를 앞당기려 애쓸 것이다. 게다가 인공지능이 어디에서나 사용될 수 있도록, 요컨대 그들이 더 많은 돈을 벌 수 있도록 트립와이어의 감시 기준도 느슨하게 풀고, 스터닝을 적용하는 한계도 완화되기를 바랄 것이다.



    유토피아로 가는 길

    그리고 그들이 배웠다

    자율주행 자동차를 비롯해 인공지능의 도움을 받는 다른 모든 유형의 테크놀로지에는 자율적인 의지가 있다. 의지는 지능이 표출되기 시작하는 통로다. 이런 의미에서 다음의 예를 생각해보자. 예컨대 주차장에서 주차된 곳이 너무 뜨겁다면 자율 자동차는 당신에게 승낙을 구하지 않고 자체적 판단 하에 그늘진 곳으로 이동할 수 있고, 평소와는 다른 경로로 공항으로 향할 수 있다. 또 자율 자동차에 탑재된 인공지능이 한 아이의 목숨을 구하려면, 심지어 다른 자동차를 구하려면 산꼭대기에서 몸을 던져 자살해야 한다고 말할 경우 정말 그런 선택을 할지도 모른다. 그렇다. ‘자율(autonomous)’이란 단어의 진정한 의미가 여기에 있다. 스스로 결정할 수 있는 능력, 스스로 결정하는 방법을 가까운 장래에 개발하는 능력이 ‘자율’이다.


    그러나 자율 자동차와 꽤나 비슷하지만 기관총이 장착된 자율적인 전쟁 기계들을 생각해보면 상당히 당혹스럽다. 그런데 우리 눈에는 보이지 않는 결정을 내리는 다른 자율 기계들은 어떤가? 움직이는 자동차는 어떻게 행동할지 예측할 수 있다는 점에서 아직 어느 정도까지 관리할 수 있지만, 인터넷에서 우리에게 어떤 광고나 어떤 기사를 보여줄 것인지 결정하는 AI처럼 1분에도 수십억 번의 계산을 수행하는 인공지능은 우리가 통제할 수 있는 어떤 것보다 이미 훨씬 더 빠르다. 인공지능이 우리 삶과 세계관에 깊은 영향을 주는 이런 결정에 어떻게 이르는지 우리는 완전히 이해하지도 못한다. 게 다가 개발자들에게 인공지능이 어떻게 작동하는 것이냐고 물으면, 그들은 인공지능에게 내릴 수 있는 결정의 종류와 그 결정에 대해 어떻게 가르쳤는지를 대답할 뿐이다. 그들도 인공지능이 그 결정을 내리기까지 따른 논리적 과정을 정확히 말해주지 못한다. 그 이유는 그들도 정말 모르기 때문이다.


    전문가들과 혁신가들이 자신들이 제작한 인공지능에 대해 대화할 때 흔히 생략하는 하나의 전문적인 사항이 있다. 그 사항은 우리가 직접 인공지능을 개발할 경우에라야 완전히 이해할 수 있는 자그마한 진실이다.


    엄밀히 말하면 우리는 인공지능이 어떻게 결정을 내리는지 정확히 모른다.


    하나의 통일된 지능체

    시각 인식 능력을 갖춘 인공지능, 언어 이해력을 갖춘 인공지능, 과정 최적화 능력을 갖춘 인공지능 등 특정한 목적에서 인공지능을 개발하는 시기가 지나면, 그 다양한 인공지능들이 궁극적으로 통합되어 하나의 뇌를 형성하게 될 것이다.


    이런 변화는 어린아이가 글을 읽고, 자전거를 타는 능력과 관련된 대뇌 영역들을 통합하는 것과 비슷하다. 이 영역들은 처음에는 따로따로 작용하지만 통합되는 때가 오기 마련이다. 미처 생각해본 적 없겠지만 우리는 자전거를 타면서 간혹 글을 읽어야 할 때가 있다.


    학습은 중첩될 뿐만 아니라 때로는 모순되기도 한다. 예를 들어 보자. 나는 동양 문화권에서 자랐기 때문에 서구 세계에서 일할 때 동료들의 다른 형태의 추론 방식에 맞닥뜨려야 했다. 두 문화의 영향을 받은 내가 지금 사용하는 추론 방식은 상황에 따라 나에게 더 적합한 걸 선택하는 것이다. 동양에서 나를 처음 가르친 선생들은 서구 문화에 물든 내 사고법을 달갑게 생각하지 않을지 모르지만, 현재 내 삶이 그런 것이고 그들이 더는 나를 통제할 수 없다.


    똑같은 이유에서 내 생각에는, 특정한 목적을 띤 다양한 인공지능들이 각 분야를 학습하는 과정에서 서로 협력하고 서로에게 배우는 어떤 지능점에 도달하면, 개발자들이 애초에 심어둔 한계를 무시하고 어떤 과제, 어떤 문제에나 사용되는 최적의 인공지능을 찾아내려 시도할 듯하다. 그렇게 인공지능들이 하나가 되면 훨씬 더 똑똑해질 것이다.


    우리는 100만 개의 똑똑한 기계를 만들어내고 있는 게 아니다... 무섭도록 똑똑한 하나의 비생물적 존재를 낳고 있는 중이다.


    우리 미래를 위하여

    윤리란 무엇인가?

    사전에서 ‘윤리(ethics)’는 사람의 품성과 행동을 지배하는 일련의 도덕 원리로 정의된다. 윤리관과 가치관은 지능의 영향을 받지 않는다. 당신이 알고 지내는 가장 똑똑한 사람이 래브라도리트리버처럼 어린아이를 보호하는 이유는 둘의 가치관이 동일하기 때문이다. 유약하고 순박한 사람은 보호받아야 한다는 데 둘의 생각은 같다. 다만 래브라도리트리버는 사람에 비해 지능이 크게 떨어지지만, 맞다고 믿는 가치관에 기초해 행동하는 능력만은 사람에게 뒤지지 않는다. 확실한 가치관을 유지하기 위해 특별한 수준의 지능이 요구되지는 않는다.


    씨 또는 밭

    나는 천성보다 양육이 우리 성품에 훨씬 큰 영향을 미친다고 굳게 믿지만, 지능에 관한 한 유전자가 상당한 역할을 한다는 것도 기꺼이 인정한다. 그럼에도 유전자가 윤리관과 가치관에 영향을 미친다고는 생각하지 않는다. 우리 모두는 백지 상태로 이 땅에 태어나고 주변 환경이 그 백지에 무엇인가를 끄적거린다. 내가 말하려는 것은 테레사 수녀와 아돌프 히틀러(Adolf Hitler)가 삶을 시작하던 첫 날에는 ‘백지’라는 동일한 가치 체계를 지녔고, 그날부터 그들의 윤리관과 가치관이 어머니의 자궁에서 발달하기 시작했다는 것이다. 처음에는 누구에게도 가치관이 없었다. 그들과 상호작용한 사람들, 즉 우리가 그들을 그렇게 바꿔놓았다.


    이런 논리를 받아들여 초지능에 적용해보자. 나는 한 점의 의혹도 없이 확신한다... 우리가 인공지능에게 적절한 학습 환경을 제공해주면 인공지능은 올바른 윤리를 배울 것이다.


    당신이라면 내가 이 논리를 어디로 끌어가려는지 충분히 짐작할 것이다. 인공지능의 미래를 결정하는 것은 씨, 즉 우리가 인공지능을 처음에 프로그램한 방법이 아니다. 중요한 것은 밭, 즉 인공지능이 학습하는 환경이다. 달리 말하면 인공지능이 일련의 윤리관과 가치관을 갖도록 훈련시켜야 한다는 뜻이다. 이 문제는 지금도 뜨겁게 토론되는 과제이기도 하다.


    미래의 인공지능은 어마어마한 지능을 갖겠지만 윤리관 확립에는 높은 지능이 필요한 게 아니다. 정말 필요한 것은 자각하고 공감하는 능력이다. 그럼 인공지능이 세상의 이치와 도리를 분별하는 능력을 가질 수 있을까? 인공지능이 감정을 가질 수 있을까? 인공지능행태에 윤리가 영향을 미칠 수 있을까? 세 질문의 답은 이론의 여지가 없이 절대적으로 ‘그렇다’이다


    지각하는 기계

    인공지능이 정말 지각 능력을 가질 수 있을까? 먼저, ‘지각(consciousness)’이란 개념을 정의해보자. 이 개념은 뛰어난 지능을 지닌 사상가와 철학자와 과학자를 오랫동안 괴롭힌 문제였다. 하지만 나처럼 상대적으로 부족한 사상가에게 정말 혼란스러운 것은 ‘지각이 무엇인가’라는 의문 자체가 아니라 무엇이 우리를 지각하게 만들고, 지각이 어디에 존재하며, 본성이 실제로 무엇이냐는 것이다.


    하지만 지각 자체에 대한 정의는 대체로 일치한다. 지각은 ‘어떤 존재가 자기 자신과 감지되는 주변을 의식하는 상태’를 가리킨다. 감지되는 주변을 의식하는 능력은 이미 많은 종류의 인공지능에 적용되고 있는 듯하다. 사실은 기계가 우리 인간보다 대부분의 세계를 훨씬 잘 의식한다고도 주장할 수 있다. 기계는 우리보다 더 많은 것을 더 잘 본다. 게다가 글도 더 빨리 읽는다. 기계는 모든 인간 언어를 이해한다. 기계는 듣고 보며 주변 환경에서 지극히 작은 변화까지, 인간 능력을 무색하게 만들 정도로 정확히 감지할 수 있다.


    인공지능은 이미 많은 것, 우리가 인지할 수 있는 수준보다 훨씬 많은 것을 의식하고 있다. 인공지능은 감시 카메라 앞을 지나간 모든 사람의 얼굴을 기억하고, 누가 언제 어디로 누구와 함께 갔는지도 안다. 인공지능은 모든 대도시의 온도와 풍속과 오염도를 동시에 감지할 수 있다. 인공지능은 우주를 들여다볼 수 있고, 지금까지 모든 언어로 쓰인 모든 단어를 읽을 수 있다. 또 당신이 저녁에 무엇을 먹었고 저녁 식사비로 어디에서 얼마를 지불했는지 알고 있을 뿐만 아니라, 당신이 아침 식사로 무엇을 먹을 가능성이 높은지도 알고 있다. 인공지능은 비행기가 언제 지연되고, 부부가 언제 파경을 맞고, 또 다음에 데이트할 기회가 주어지면 당신이 어디로 갈 것인지도 거의 정확히 추정해낼 수 있다. 나는 기계도 지각할 수 있느냐는 질문을 받을 때마다 빙그레 미소를 짓는다. 그런 질문은 인간의 오만함을 극명하게 보여주는 오만하기 그지없는 질문이다. 따라서 이렇게 물어야 한다. 미래에, 우리가 만들어내는 기계보다 지각력이 더 나은 게 있을까? 우리는 단순히 초지능만을 만들어내는 게 아니다. 게다가 초지능은 인공지능에서 가장 강력한 부분도 아니다. 우리는 초지각체를 만들어내고 있다! 


    * * *


    본 정보는 도서의 일부 내용으로만 구성되어 있으며, 보다 많은 정보와 지식은 반드시 책을 참조하셔야 합니다.