딥러닝 레볼루션
 
지은이 : 테런스 J. 세즈노스키(역:안진환)
출판사 : 한국경제신문
출판일 : 2019년 10월




  • 이 책에서 신경과학과 머신러닝 분야의 대가인 세즈노스키는 통찰력 있게 인공지능의 과거와 현재를 돌아보고 미래를 조망한다. 딥러닝은 지금까지 이뤄낸 변화보다 앞으로 훨씬 큰 변화를 가져올 것이다. 하지만 여기에는 ‘궁극적으로’라는 단서가 붙는다. 그 시기가 앞당겨질지 아닐지, 발전의 결과물을 유리하게 이용할지 못할지는 전적으로 우리가 어떻게 하느냐에 달려 있다. 


    딥러닝 레볼루션


    지능의 재해석

    머신러닝의 부상

    딥러닝은 수학과 컴퓨터공학, 신경과학에 뿌리를 두고 있는 머신러닝의 한 분야다. 딥러닝 네트워크는 아기들이 자신을 둘러싼 세상을 배워 나가는 것과 같은 방식으로 데이터를 통해 학습한다. 생생한 눈으로 시작해 점차 새로운 환경을 탐색하는 데 필요한 기술을 습득해 나가는 아기들처럼 말이다.


    컴퓨터의 역량이 커지고 빅데이터가 풍부해진 오늘날에는 학습 알고리즘을 사용해 문제를 해결하는 것이 더 바르고 보다 정확하며 훨씬 효율적이다. 또한 동일한 학습 알고리즘이 서로 다른 문제를 해결하는 데 이용될 수 있다. 각각의 문제에 서로 다른 프로그램을 작성하는 것보다 훨씬 덜 노동 집약적인 솔루션이 나온다는 뜻이다.


    바둑의 딥러닝

    2016년 3월 열여덟 차례나 세계 정상에 오른 바 있는 한국의 바둑왕 이세돌이 알파고를 상대로 다섯 차례의 대국을 펼친 끝에 4대 1로 졌다. 알파고는 딥러닝 네트워크를 이용해 돌의 위치와 가능한 수를 평가하는 바둑 프로그램이다.


    판세를 진단하고 최선의 수를 선택하기 위한 몇 개의 딥러닝 네트워크 외에도 알파고는 완전히 다른 학습 시스템을 보유했다. 시간적 신뢰도 할당 문제를 해결하는 데 사용되는 시스템이었다. 가능한 여러 수 가운데 어떤 수가 승리에 책임이 있고 어떤 수가 패배에 책임이 있는가? 인간 뇌의 기저핵은 대뇌 피질 전체에서 나름의 예측을 받아 그것을 다시 대뇌 피질로 되쏘며 시간차 알고리즘과 강화 학습으로 이를 해결한다. 알파고는 기저핵이 미래의 보상을 극대화할 목적으로 일련의 행동을 평가하기 위해 발달시킨 것과 동일한 학습 알고리즘을 사용했다. 알파고는 자기 자신과의 게임을 통해서 학습했다. 수없이 많은 게임을 통해서 말이다.


    인공지능의 재탄생

    전문 시스템

    인간 지능의 기능을 가진 컴퓨터 프로그램을 작성하려고 애썼던 인공지능 개척자들은 인간의 뇌가 실제로 어떻게 지능적인 행동 방식을 성취했는지에 대해서 관심을 갖지 않았다. 내가 그 이유를 물었을 때, 그는 개인적으로 뇌 연구에서 나온 식견을 얻고 싶어 개방적인 자세를 취했지만 당시는 그저 뇌에 관한 내용이 충분히 파악되지 않았던 시절이라 쓸 만한 정보가 별로 없었다고 답했다.


    뉴럴 네트워크의 여명

    예를 통한 학습

    뉴롤 네트워크 인공지능의 개척자들은 뇌 기능에 대한 이해의 부족에도 굴하지 않고 만화 버전의 뉴런을 그려 가며 그것들이 서로 어떻게 연결되는지 파악하기 위해 애썼다. 그 중 코넬대학교의 로젠블랫은 알파벳 등과 같은 패턴을 분류해 범주화하는 법을 배울 수 있는 학습 알고리즘을 갖춤 퍼셉트론을 창안했다.


    퍼셉트론이 패턴 인식 문제의 해결 방법을 배우는 기본 원리를 이해하면 딥러닝의 작용 방식을 반은 이해한 셈이 된다. 퍼셉트론의 목표는 특정한 인풋(input)의 패턴이 특정한 범주에 속하는지 여부를 결정하는 것이다. 퍼셉트론으로의 인풋이 인풋 유닛에서 일련의 가중치에 의해 변환되어 아웃풋 유닛에 이르게 된다. 가중치는 각각의 인풋이 아웃풋 유닛에서 내리는 최종 결정에 미치는 영향력의 정도를 말한다.


    어려운 부분은 어떻게 인풋을 정확하게 분류할 수 있는 일련의 가중치를 찾느냐 하는 것이다. 엔지니어들이 그와 같은 문제를 해결하는 전통적인 방법은 분석 또는 임시변통의 절차에 기반해 가중치를 직접 만드는 것이다. 대안은 우리가 세상의 사물에 대해 배우는 것과 마찬가지의 방식으로 예나 사례, 실례로부터 배우는 자동 절차를 이용하는 것이다. 이 경우 범주에 속하지 않은 예를 포함해 많은 예가 필요하다. 예를 들어 고양이를 인지하는 고양이를 인지하는 것이 목표인 경우 개를 포함해 유사한 여러 종의 예가 필요하다는 얘기다. 예는 한 번에 하나씩 퍼셉트론으로 전달되며 분류 오류가 있는 경우 가중치에 따라 자동으로 수정이 이뤄진다. 퍼셉트론 학습 알고리즘의 훌륭한 부분은 일련의 가중치가 존재하고 충분한 예가 있는 경우 자동으로 가중치의 세트를 확보하는 일이 보장된다는 점이다.


    시각 시스템에서 얻은 통찰

    시각은 인체에서 가장 잘 발달된 동시에 가장 많이 연구되는 감각 기관이다. 우리는 한 쌍의 전두안구를 통해 절묘한 양안 깊이 지각을 하며 우리의 대뇌피질의 절반이 시각에 관여한다. 시각의 특별한 지위는 ‘백문이 불여일견’이라는 속담에서도 잘 드러난다. 가장 성공적인 딥러닝 네트워크에 영감을 부여한 것은 이 시각 피질의 구조였다.



    기술적 영향과 과학적 영향

    머신러닝의 미래

    인지 컴퓨팅의 시대가 밝아오고 있다. 머지않아 우리는 인간보다 더 능숙하게 운전하는 자율주행 자동차를 보게 될 것이며 우리가 사는 집이 주인을 알아보고 집주인의 습관을 예측하고 방문자가 왔음을 알려주는 시대를 맞이하게 될 것이다. 의사들은 인지 컴퓨팅으로 희귀 질병을 진단할 수 있게 될 것이며, 결과적으로 의료 서비스의 질적 향상이 가능해질 것이다. 이와 같은 인지 컴퓨팅의 적용 사례는 이미 수천 가지에 이르며 우리가 미처 상상하지 못한 적용 분야 또한 수없이 많다.


    얼굴 표정은 영혼으로 통하는 창이다

    얼굴 표정은 뇌의 감정 상태를 보여 주는 창이다. 오늘날의 딥러닝 기술은 바로 그 창을 꿰뚫어볼 수 있다.


    에크만은 44개의 안면 근육 상태로 보여 주는 ‘얼굴 움직임 부호화 시스템’을 개발했다. 에크만이 주목한 것은 고작 몇 초 동안만 나타나는 표정, 즉 ‘미세 표정’이었다. 미세 표정은 억제된 뇌의 상태가 감정이라는 형태로 드러나는 것이며 무의식적인 감정적 반응을 대변하거나 때때로 그것이 노출되도록 만든다.


    그리고 2012년 바틀릿과 마블런은 이모션트라는 회사를 창업해 얼굴 표정 자동 분석의 상업화에 나섰다. 에크만과 나는 과학자문위원회의 일원이 되었다. 이모션트에서 개발한 딥러닝 네트워크는 자연스러운 행동, 다양한 조명, 정면이 아닌 얼굴 등의 조건에서 이뤄진 실시간 분석으로 96퍼센트의 정확도를 보여 줬다.


    멀지 않은 미래에 당신이 들고 있는 아이폰이 당신이 왜 화가 났는지 물어보는 수준을 넘어 분노를 가라앉히는 데 도움을 줄 수 있는 시대가 도래할지도 모를 일이다.


    알고리즘의 시대

    오늘날의 기술은 알고리즘에 그 기반을 두고 있다. 21세기는 컴퓨터과학과 생물학의 복잡성 특성을 이해하는 데 이산수학과 알고리즘을 사용하는 시대다. 알고리즘이란 계산 또는 문제 해결의 과제를 수행함에 있어 일련의 개별적 단계 또는 규칙들을 순차적으로 거쳐 나가는 과정을 말한다.


    뇌는 컴퓨터인가

    1943년 위런 매컬러와 윌터 피츠는 퍼셉트론과 같은 단순한 이진법 임계값 단위로 디지털 컴퓨터의 제작이 가능하다는 것을 보여줬다.


    그들로부터 영감을 받은 폰 노이만은 컴퓨터를 구상하기도 했다. 그는 인간의 뇌에 대해서도 관심을 가지고 있었다. 신뢰할 수 없는 구성 요소로 이뤄진 뇌가 어떻게 신뢰할 수 있는 기능을 수행하는가라는 질문을 놓고 깊은 고민에 빠졌다. 그 논리적 깊이에 대해서도 관심을 보였다. 축적된 오류로 인해 결과가 변질되기까지 뇌가 수행할 수 있는 논리적 단계는 과연 얼마나 될까? 각각의 논리적 단계를 완벽하게 수행할 수 있는 컴퓨터와 달리 뇌는 무수히 많은 잡음으로부터 영향을 받는다. 뇌는 완벽할 수는 없을지언정 많은 뉴런이 동시에 함께 일하기 때문에 각 단계별 성취도는 컴퓨터가 단일 단계에서 이룰 수 있는 것보다 훨씬 높으며 논리적 깊이 또한 컴퓨터보다 덜 필요로 한다.


    헬로, 미스터 칩스

    우리는 지금 컴퓨터 칩 산업의 새로운 구도의 태동을 목도하고 있다. 경쟁의 핵심은 학습 알고리즘의 구동이 가능한 신세대 칩의 설계와 구축이다. 주요 컴퓨터 칩 기업과 스타트업들은 너 나 할 것 없이 딥러닝을 위한 칩 개발에 상당한 투자를 하고 있다.


    핫칩스

    우리가 예측한 바에 따르면 현재의 마이크로프로세서 기술이라면 엑사급 컴퓨팅을 위해서는 뉴욕 지하철 운영에 필요한 것보다 더 많은 50메가와트의 전력이 필요할 것이다. 따라서 차세대 슈퍼컴퓨터는 저전력 칩으로 구동되어야만 한다.


    인간의 뇌는 대략 20와트 또는 몸 전체를 움직이는 데 필요한 힘의 20퍼센트 정도의 전력을 필요로 한다. 이와 대조적으로 인간의 뇌 성능에 훨씬 못 미치는 페타급 슈퍼컴퓨터는 5메가와트 또는 25만 배나 많은 전력량을 소비한다.


    딥러닝은 단말 장치의 독립성이 관건이며 그것은 곧 근본적으로 다른 하드웨어를 의미한다. 클라우드 컴퓨터에 비해 훨씬 가볍고 전력 소비도 훨씬 적은 하드웨어 말이다. 바로 인간의 뇌에서 영감을 얻어 고안된 뇌신경 모방 칩, 일명 ‘뉴로모픽 칩’이 그것이다.


    내부 정보

    정보 이론

    1948년 클로드 새넌이 내놓은 정보이론은 잡음이 심한 전화선을 통한 신호 전달을 이해하기 위한 방편이었다. 새넌의 정리는 디지털 커뮤니케이션 혁명을 주도했고 휴대전화기, 디지털 텔레비전 그리고 인터넷의 개발을 유도했다.


    기나긴 게임에 돌입하다

    기초과학에 의해 개발된 기술은 상용화되기까지 대략 50년의 시간이 소요된다. 전 세계의 다른 뇌 연구 프로그램을 통해 지금 이뤄낸 기초적인 성과는 앞으로 50년 후 등장할 애플리케이션의 단초가 될 것이다. 2050년까지 인간의 뇌에 상응하는 인공지능을 위한 운영체제가 만들어질 것이라는 기대도 해 볼 수 있다.


    자연은 인간보다 영리하다

    마빈 민스키에 대한 반대 입장

    인간의 뇌는 아무것도 하지 않으면서 추상적인 생각만을 생성하는 것이 아니다. 뇌는 우리의 신체 모든 부분과 직접적으로 연결되어 있으며 다시 감각 인풋과 동작 실행기를 통해 세상과 연결되어 있다. 따라서 생물학적 지능은 그러한 관계 속에서 내재되어 있는 것이다. 보다 중요한 것은 우리의 뇌가 세상과 상호작용을 하는 긴 성숙의 과정을 거쳐 발달된다는 점이다. 학습은 발달과 동시에 진행되는 과정이며 성인기에 도달한 이후에도 오랫동안 이어진다. 그러므로 학습은 일반 지능 발달의 핵심이다.


    인공지능에 있어 가장 해결하기 어려운 문제 중 하나가 상식이라는 사실은 매우 흥미롭다. 인공지능에서 흔히 무시되는 감정과 공감 역시 지능의 필수적인 측면이다. 감정은 국부적인 뇌 상태에 의해 결정될 수 없는 뇌가 행동을 취하기 전 준비 과정에 필요한 보편적 신호다.


    경과

    민스키가 세상을 떠난 직후 딥마인드의 연구진들이 동적 외부 메모리의 적용으로 딥러닝에 기초한 일반 인공지능에 한걸음 더 다가서는 성과를 거뒀다. 심층 순환 뉴럴 네트워크에서 행동의 패턴은 일시적으로 저장될 수밖에 없기 때문에 추리와 추론의 모방이 쉽지 않았다. 디지털 컴퓨터의 메모리와 동일한 유연성을 가지고 있어 읽기와 쓰기가 가능한 안정적인 메모리를 첨가함으로써 연구진은 강화 학습으로 훈련된 네트워크가 추론을 필요로 하는 질문에 대답할 수 있다는 것을 입증했다.


    우리 인간은 박테리아와 그 이전의 무엇까지 기원을 거슬러 올라가는 생명의 거대한 사슬에 속한 하나의 생물 종이다. 지금 우리가 뇌를 이해하기 직전까지 도달했다는 것 자체가 기적이다. 뇌에 대한 이해는 인간에 대한 인간의 생각을 영원히 바꿔놓을 것이다.


    심층 지능

    지능의 진화

    우리 인간은 가장 뛰어난 학습 능력을 보유하고 있다. 다른 어떤 생물 종보다 광범위한 주제에 대해 보다 빨리 학습할 수 있고 보다 많은 것을 기억하며 수세대를 거치며 더 많은 지식을 축적할 수 있다. 우리는 ‘교육’이라 불리는 기술을 창조해 평생 동안 학습할 수 있는 양을 증대시켰다. 비교적 최근에 인간이 발명한 읽기와 쓰기의 기술은 완전히 터득하기까지 수년간의 시간을 필요로 한다. 그러나 이들 발명품 덕분에 우리는 구전에 의한 것보다 더 많은 축적된 지식을 다음 세대로 전수할 수 있다. 현대 문명의 발달이 가능했던 것은 음성 언어가 아니라 쓰긱와 읽기 그리고 학습 덕분이다.


    생명의 논리

    강화학습의 기저를 이루는 시간차 학습 알고리즘이 고도로 복잡한 행동으로 이어질 수 있고 대뇌 피질에서 이뤄지는 딥러닝에 의해 인간의 행동은 그보다 더 복잡해질 수 있다는 것을 확인한 바 있다. 자연에는 인공적 시스템이 배울 수 있는 지능적 행동의 영역이 존재한다. 컴퓨터공학과 생물학 사이에 걸쳐 있는 새로운 과학의 분야인 알고리즘 생물학에서는 생물적 체계에서 사용되는 문제 해결 전략을 설명하는 데 있어 알고리즘 언어의 사용을 추구한다. 그러한 생물학적 알고리즘이 공학 분야의 새로운 연산 인식 체계를 생성하는 데 일조하고 생물학적 네트워크에 대한 시스템 차원의 이해를 가능케 하기를 희망한다.



    다양한 학습 방법

    홉필드 망과 볼츠만 머신

    내용 주소화 메모리 장치를 탑재한 네트워크

    홉필드는 강력한 상호 작용을 하는 네트워크의 수렴성 문제를 해결했다. 특정 유형의 비선형 네트워크 모엘을 통해 ‘어트랙터’라 불리는 안정적인 상태로 수렵되도록 보장할 수 있음을 입증해낸 것이다. 더 나아가, 어트랙터가 메모리 장치가 되도록 네트워크의 가중치도 선택할 수 있었다. 따라서 홉필드 망은 이른바 ‘내용 주소화 메모리 장치’의 구현에 이용될 수 있었다. 메모리의 일부를 자극으로 제시하고 네트워크로 하여금 그것을 완성하도록 함으로써 저장된 메모리를 불러내는 메모리 장치 말이다. 이것은 인간이 기억을 상기하는 방법을 연상시킨다. 우리는 아는 사람의 얼굴을 보면 그 사람의 이름이나 그 사람과 나눈 대화를 상기할 수 있지 않은가.


    홉필드 망은 물리학과 신경과학을 연결해 주는 다리 역할을 했고, 1980년대 수많은 물리학자들이 그 다리를 건넜다. 그들은 이론물리학의 수준 높은 도구들을 사용해 뉴럴 네트워크와 학습 알고리즘을 분석함으로써 놀라운 수준의 통찰력을 확보할 수 있었다. 물리학과 컴퓨터 연산 그리고 학습, 이 세 가지는 인간의 두뇌 기능을 성공적으로 조명해 온 신경과학 이론 영역에서 심오한 상호 연결성을 갖는다.


    볼츠만 머신

    우리는 형상-배경에 대한 의사 결정 과정을 모방해 볼츠만 머신의 네트워크를 설계했다. 이 네트워크에서는 활성화되는 일부 유닛이 형상을, 그렇지 않은 나머지가 가장자리(즉 배경)를 나타낸다.


    갱신 자체가 비동기적이고 독립적이기 때문에 네트워크는 수백 개의 유닛이 동시에 협력하는 컴퓨터에 의해 실행될 수 있고 한 개의 동작을 하나씩 순차적으로 처리하는 디지털 컴퓨터보다 훨씬 빠른 해결책으로 수렵될 수 있다.


    ‘온도’를 항온으로 유지하면 볼츠만 머신은 평형 상태에 도달한다. 그 평형 상태에서 모두가 영원히 닫혀 있을 것이라고 생각했던 문이 열리는 마법과도 같은 현상이 일어난다. 다층 뉴럴 네트워크 학습이 바로 그것이다. 인풋과 아웃풋을 쌍으로 만들고 학습 알고리즘을 적용함으로써 볼츠만 네트워크는 우리가 바라던 매핑을 학습하게 되었다. 또한 볼츠만 머신은 항상 변동하기 때문에 주어진 인풋 패턴에 대해 각 아웃풋 상태가 얼마나 마주 방문되는지 그 확률 분포를 학습했다. 그래서 생성력을 갖는 것이다. 다시 말해 볼츠만 머신은 학습을 한 이후 아웃풋 범주 각각을 고정시킴으로써 새로운 인풋 샘플을 구성할 수 있었다.


    컴볼루션 러닝

    컨볼루션 뉴런 네트워크

    2003년 얀 르쾽은 뉴욕대학교로 자리를 옮긴 후 지금은 ‘컨브넷’으로 알려져 있는 자신의 비전 네트워크를 진화시키기 위한 연구를 이어갔다. 뉴럴 네트워크를 이루는 근본적은 구성 요소는 컨볼루션에 기초한다. 컨볼루션은 이미지 위를 통과하는 작은 슬라이딩 필터로 간주할 수 있으며 이미지 전반에 걸쳐 특징을 포착하는 층을 생성한다.


    컨브넷의 성능 향상은 수년에 걸쳐 점진적으로 진행되었다. 그리고 컨브넷에 일어난 모든 변화에는 공학자가 이해할 수 있는 방식으로 네트워크의 수행력을 향상시킨 연산적 합리성이 깔려 있었다. 그리고 이런 변화들로 인해 1960년대 시각피질의 구조에 대해 알려진 바에 점점 더 근접하게 되었다.


    작업 기억 및 활동성 지속

    우리가 전화번호를 누른 것과 같은 하나의 작업을 수행하는 와중에도 머릿속에 7 ±2개 정도의 다른 무엇을 넣어둘 수 있는 것은 ‘작업 기억’ 덕분이다. 전통적인 피드포워드 네트워크는 한 번에 한 층씩 인풋을 네트워크로 전파한다. 여기에 작업 기억을 적용하면 나중에 전파된 인풋이 이전 인풋이 남겨둔 흔적과 상호 작용하는 것이 가능해진다.


    18장 NIPS

    딥러닝은 연례 NIPS 콘퍼런스와 워크숍 그리고 초기 개척자들까지 거슬러 올라가는 유구한 혈통을 보유한다. 1980년대 공학자, 물리학자, 수학자, 심리학자, 그리고 신경과학자 등 다양한 배경을 보유한 사람들이 NIPS 콘퍼런스에 모여들어 인공지능에 대한 새로운 접근법을 정립했다. 뉴럴 네트워크 모델을 분석한 물리학자와 인간의 인지 모델을 구축한 심리학자, 신경 시스템과 신경 기록을 분석한 신경 과학자, 고차원적 공간의 대규모 데이트세트를 탐구한 통계학자 그리고 인간처럼 보고 들을 수 있는 기계 장비를 제작한 공학자 등 각 분야의 전문가들이 일궈낸 성과가 급속한 진전의 원동력이 되었다.


    미래를 위한 준비

    1950년대 퍼셉트론 개발을 시작으로 1980년대 다층 퍼셉트론을 위한 학습 알고리즘을 거쳐 2010년대 딥러닝에 이르기까지 뉴럴 네트워크 학습에서 중대한 전환점은 매 30년마다 발생했다. 그때마다 단기간에 많은 진보가 이뤄졌을 때 나타나는 과열 현상이 따랐고 뒤이어 느리고 점진적인 발전이 장기간 이어졌다. 한 가지 차이점은 과열 현상의 여파는 매번 증가하고 있다는 데 있다. 최근의 급성장은 그동안 활용 가능성이 점차 확대되어 온 빅데이터에 기인한다. NIPS 스토리는 지금부터 전개될 시대에 대한 중요한 준비 과정이었다.


    * * *


    본 도서 정보는 우수 도서 홍보를 위해 저작권자로부터 정식인가를 얻어 도서의 내용 일부를 발췌 요약한 것으로, 저작권법에 의하여 저작권자의 정식인가 없이 무단전재, 무단복제 및 전송을 할 수 없으며, 원본 도서의 모든 출판권과 전송권은 저작권자에게 있음을 알려드립니다.