AI이후의 세계
 
지은이 : 헨리 A. 키신저 외(역:김고명)
출판사 : 윌북
출판일 : 2023년 05월




  • 챗GPT 너머에 찾아올 본격 인공지능 시대, 인류의 미래는 어떻게 될까요? 미국 전 국무장관 키신저, 구글 전 CEO 슈밋, MIT 학장 허튼로커, 정치, 경제, 과학 분야 세 거인의 날카로운 통찰!


    AI 이후의 세계


    현주소

    AI가 불러올 세상에서는 의사결정 방식이 세 갈래로 나뉠 것이다. 하나는 이미 익숙한 방식인 인간에 의한 결정이고, 다른 하나는 점점 익숙해지는 방식인 기계에 의한 결정이며, 나머지 하나는 생경하고 유례없는 방식인 인간과 기계의 협력에 의한 결정이다. AI는 이제껏 도구에 불과했던 기계를 우리의 파트너로 격상시켰다. 앞으로 우리는 AI에게 부여한 목표를 어떤 식으로 달성하라고 세세하게 지시하지 않을 것이다. 웬만해서는 AI에게 모호한 목표를 부여하고 이렇게 물을 것이다. “‘네’가 판단하기에는 우리가 어떻게 해야 할 것 같아?”


    이런 변화가 무조건 우리를 위협하거나 해방하리라 단정할 수 없다. 하지만 십중팔구 사회의 궤도와 역사의 진로가 바뀔 것이다. AI가 우리 삶에 계속 편입되면서 인간의 힘으로 달성할 수 없을 것처럼 보였던 목표를 달성하고, 노래를 만들거나 치료법을 찾는 것처럼 한때는 인간의 전유물로 여겼던 활동을 기계가 독자적으로 혹은 인간과 함께 수행하는 세상이 도래할 것이다. 그리하여 모든 분야에서 AI의 지원이 당연시되어, 때로는 무엇이 인간의 결정이고 무엇이 AI의 결정이며 무엇이 인간과 AI의 공동 결정인지 분간이 안 될 것이다.


    정치 영역에서는 빅데이터 기반 AI 시스템을 토대로 메시지가 설계되고 각 집단에 맞게 수정, 배포된다. 또 한편으로 사회 분열을 초래하기 위해 허위정보를 살포할 때나 그런 허위정보를 탐지하고 방지하는 알고리즘을 설계하고 운용할 때도 역시 AI 시스템이 동원되는 시대가 열리고 있다. 이렇게 ‘정보 공간’을 정의하고 조성할 때 AI가 적극적으로 개입하면 그 역할을 예측하기가 더욱 어려워진다. 다른 공간에서도 마찬가지지만 정보공간에서 AI는 때때로 설계자들조차 그저 막연하게 설명할 수밖에 없는 방식으로 작동한다. 그래서 자유로운 사회의 실현 가능성은 물론이고 자유의지의 발현 가능성조차 달라질 것이다. 설사 이런 발전이 무해하거나 돌이킬 수 있다고 할지라도 각 사회는 그 변화의 양상과 특징을 알아야 한다. 그래야 그런 흐름을 사회의 가치관, 구조, 사회계약에 반영할 수 있기 때문이다.


    이렇게 열거한 변화는 사회 내부에, 그리고 사회와 사회 간에 새로운 분열을 야기한다. 신기술을 받아들이는 쪽과 신기술을 거부하는 쪽 내지는 그것을 활용할 수단이 부족한 쪽이 서로 갈라지기 때문이다. 서로 다른 방식으로 AI를 이해하거나 활용하는 집단 혹은 국가 간에는 저마다 경험하는 현실 이 예측하기 어려운 방향으로 분열되어 봉합하기가 어려워질 수 있다. 인간과 기계가 협력하는 시스템을 각 사회가 다르게 구축한다면 그 시스템의 목표와 훈련 모델이 저마다 달라지며, 어쩌면 AI와 관련된 운영 규정과 윤리 규범 또한 달라져서 서로 라이벌 의식이 강해지고, 기술이 호환되지 않고, 몰이해가 점점 더 심해질 수 있다. 그렇게 되면 처음에는 국가 간의 차이를 초월해 객관적 진실을 확산할 수단으로 여겨졌던 기술이 결국에는 이 문명과 저 문명을 나누고 이 사람과 저 사람을 나눠서 각자 이해할 수 없을 만큼 이질적인 현실을 경험하게 만들 위험이 있다.


    지금까지는 이성에 근거한 선택이 인간의 전유물이자 계몽주의시대 이후 인간의 대표적 특징으로 꼽혔다. 그러나 인간의 이성을 흉내내는 기계가 등장함에 따라 이제는 인간도 기계도 변화할 수밖에 없다. 기계는 인간을 계몽하며 우리가 예상하지 못했던 방향, 혹은 우리가 의도하지 않았던 방향으로 현실을 확장할 것이다. 역으로 인간의 지식을 소비하는 기계가 우리를 위축시키는 방향으로 사용될 수도 있다. 그리고 인간은 놀라운 사실을 발견하고 놀라운 결론을 내릴 뿐만 아니라 그 발견의 의미를 학습하고 평가하는 기계를 만들 것이다. 그리하여 새 시대가 열릴 것이다.



    튜링의 시대에서 현재, 그리고 그 너머로

    AI는 비정밀하고, 역동적이고, 창발적이며, ‘학습’이 가능하다. AI는 데이터를 소비하여 ‘학습’하고, 데이터를 토대로 관찰하며 결론을 도출한다. 예전의 시스템에는 정밀한 입력과 출력이 요구됐지만 비정밀성이 특징인 AI는 그렇지 않다. 이런 AI는 문장을 번역할 때 단순히 단어를 일대일로 치환하지 않고 관용구와 패턴을 인식, 활용한다. 같은 맥락에서 이런 AI를 역동적이라고 하는 이유는 변화하는 상황에 대응하여 진화하기 때문이고, 창발적이라고 하는 이유는 인간이 생각하지 못한 해법을 찾아내기 때문이다. 기계에 이러한 네 가지 특성이 존재하는 것은 가히 혁명적이다.


    이 같은 ‘학습’ 능력의 토대는 게임의 규칙과 같이 그 규칙에 의거해 각 수의 우수성을 측정한 입력값을 게임 승리라는 반복 가능한 출력으로 변환하는 알고리즘이다. 하지만 머신러닝 알고리즘은 고전적 알고리즘의 정밀성과 예측가능성에서 탈피했다. 고전적 알고리즘은 정밀한 결과를 도출하는 절차인 반면에, 머신러닝 알고리즘은 비정밀한 결과를 개선하는 절차다. 그런 알고리즘이 눈부신 발전을 이룩하고 있다.


    작업 내용에 따라 달라지는 학습 방식

    AI는 작업 내용에 따라 활용법이 달라지므로 AI를 개발할 때 사용하는 기법도 상황에 따라 달라져야 한다. 이처럼 목적과 기능이 다르면 훈련법도 달라져야 한다는 점이 머신러닝을 도입할 때 생기는 근본적인 문제이기도 하다. 하지만 다양한 머신러닝 기법을 조합함으로써, 특히 신경망을 활용함으로써 암 탐지용 AI 같은 신종 AI가 속속 탄생하고 있다.


    이 글을 쓰는 시점에서 주목할 만한 3대 머신러닝 기법은 지도학습, 비지도학습, 강화학습이다. 할리신을 발견한 AI가 지도학습으로 탄생했다. 다시 간단히 설명하자면 MIT 연구진은 새로운 항생제를 찾기 위해 2000여 개 분자의 데이터로 모델을 훈련했다. 이 모델의 입력은 분자구조였고 출력은 항생 효과였다. 이때 연구진이 AI에게 입력한 분자구조들에는 저마다 항생 효과를 나타내는 레이블이 붙어 있었다. 이후 새로운 화합물들을 제시하자 AI는 각 화합물의 항생 효과를 추측했다.


    이 기법을 지도학습이라고 부르는 이유는 ‘사용된 데이터 세트 내의 입력’이었던 분자구조들에 ‘바람직한 출력 혹은 결과’인 항생제로서 효과를 나타내는 레이블이 붙었기 때문이다. 지도학습은 다방면에서 사용되고 그중 한 예가 이미지를 인식하는 AI다. 여기서 AI는 이미 레이블이 붙은 이미지들로 훈련하면서, 고양이 이미지를 ‘고양이’ 레이블과 연결하듯이 각 사진을 올바른 레이블과 연관 짓는 법을 학습한다. 이렇게 이미지와 레이블의 관계가 부호화되면 새로운 이미지도 올바르게 인식할 수 있다. 따라서 지도학습은 각각의 입력에 바람직한 출력이 지정된 데이터세트가 확보된 상황에서 새로운 입력에 관한 출력을 예측하는 모델을 만들 때 특히 유용하다.


    하지만 데이터에 레이블이 없을 때는 비지도학습으로 유익한 분석 결과를 도출할 수 있다. 지금은 인터넷이 발달하고 정보가 디지털화되기 때문에 기업, 정부, 연구자가 데이터를 과거보다 대량으로 확보하고 쉽게 이용할 수 있다. 마케터는 더 많은 고객 정보를, 생물학자는 더 많은 DNA 데이터를, 은행은 더 많은 금융거래 정보를 보유한다. 만일 마케터가 고객층을 파악하려 하거나 금융사기 전문가가 수많은 거래에서 불일치하는 부분을 찾으려고 한다면, 비지도학습으로 AI가 출력에 관한 정보 없이도 패턴이나 예외를 식별하게 할 수 있다. 비지도학습의 훈련 데이터에는 입력만 포함된다. 그래서 프로그래머는 학습 알고리즘에게 유사성의 정도를 나타내는 가중치를 토대로 그룹을 만들라고 지시한다. 예를 들어 넷플릭스 같은 영상 스트리밍 서비스는 알고리즘을 이용해 시청 습관이 비슷한 고객들을 그룹화하여 영상을 추천한다. 하지만 이런 알고리즘은 정교하게 조정하기 어려울 수 있다. 대부분의 사람은 관심사가 여러 개라서 동시에 여러 그룹에 속하기 때문이다.


    비지도학습과 지도학습은 주로 AI가 데이터를 토대로 추세를 발견하고, 이미지를 식별하고, 예측을 도출하는 작업을 수행하게 훈련하는 기법이다. 그런데 연구자들은 데이터 분석에서 탈피해 AI가 동적인 환경에서 작동하도록 훈련할 방법도 모색했다. 그래서 탄생한 머신러닝의 세 번째 범주가 강화학습이다.


    강화학습에서는 AI가 데이터 내에 존재하는 관계를 규명하는 수동적 위치에 머물지 않는다. AI는 통제된 환경에서 ‘주체’가 되어 제 행동에 대한 반응을 관찰하고 기록한다. 보통 그 환경은 현실을 단순하게 시뮬레이션한 것으로 현실만큼 복잡하지 않다. 예를 들면 조립라인에서 로봇이 작동하는 상황을 시뮬레이션하기가, 붐비는 거리에서 로봇이 작동하는 상황을 시뮬레이션하기보다 쉽다. 하지만 체스 시합처럼 아무리 단순하게 시뮬레이션된 환경이라고 해도 한 번의 움직임에서 다수의 기회와 위기가 만들어지는 경우가 있다. 그래서 보통은 AI에게 인공적인 환경에서 스스로 훈련하라고 지시만 해서는 수행 능력을 극대화할 수 없다. 피드백이 필수다.


    피드백을 제공해서 AI의 행동이 얼마나 성공적이었는지 알려주는 것이 보상함수다. 인간이 그 역할을 대신하는 데는 한계가 있다. AI는 디지털 프로세서로 구동되면서 단 몇 시간 혹은 며칠 만에 수백, 수만, 수억 번 스스로 훈련하기 때문에 인간이 일일이 피드백을 주기란 사실상 불가능하다. 그래서 프로그래머들은 보상함수를 자동화하고 그 함수가 작동하는 방식과 시뮬레이터가 현실을 모사하는 방식을 정밀하게 설정한다. 이때 시뮬레이터가 현실적 경험을 제공하고 보상함수가 우수한 결정을 촉진한다면 이상적이다.


    AI의 한계와 관리

    이전 세대의 AI는 사회에 축적된 현실에 관한 지식을 인간이 일일이 프로그램의 코드에 집어넣어야 했지만, 머신러닝 기반의 최신 AI는 대개 스스로 현실을 모델링한다. AI가 도출한 결과를 개발자가 검사할 수는 있지만, AI는 무엇을 어떻게 학습했는지 인간의 언어로 ‘설명’해주지 않는다. 개발자가 AI에게 학습한 것을 요약해보라고 요구할 수도 없다. 인간과 마찬가지로 AI도 자신이 무엇을 배웠고 왜 배웠는지 정확히 모르기 때문이다. 단, 이 글을 쓰는 현재를 기준으로, 인간은 많은 상황에서 AI가 제시할 수 없는 설명이나 이유를 제시할 수 있다. 우리는 훈련을 마친 AI가 내놓은 결과물을 다만 관찰할 수 있을 뿐이다. 그래서 그 결과물을 역으로 분석해야 한다. 즉, AI가 결과물을 생성하면 연구자가 됐든 평가자가 됐든 인간이 그 결과물을 당초 목표에 부합하는지 검사해야 한다.


    AI는 자신의 발견을 반추하지 못한다. 유사 이래로 인간은 전쟁을 겪을 때마다 전쟁이 주는 교훈과 슬픔을, 그 극단성을 반추했다. 호메로스의 ‘일리아스’에 묘사된 트로이 성문 앞 헥토르와 아킬레우스의 대결이나 피카소의 ‘게르니카’에 그려진 스페인내전에서 희생당한 시민들의 모습이 그 결과물이다. 하지만 AI는 반추하지 못하고, 그러고 싶다는 윤리적 혹은 철학적 충동도 느끼지 않는다. 그저 제가 아는 기법을 이용해 결과를 산출할 뿐이고, 그 결과는 인간의 관점에서 봤을 때 시시하거나 충격적일 수 있고, 온건하거나 악의적일 수 있다. AI는 반추하지 못하므로 그 행동의 의의를 결정하는 것은 인간의 몫이다. 따라서 인간이 AI를 규제하고 관리해야 한다.


    AI는 인간처럼 맥락을 이해하거나 행동을 반추하지 못하기 때문에 더더욱 인간이 주시해야 한다. 구글의 이미지 인식 소프트웨어가 사진 속 사람을 동물로 인식하고 동물을 총으로 인식한 사례는 이미 잘 알려졌다. 인간이 봤을 때는 당연히 잘못됐지만 AI는 잘못을 인지하지 못했다. AI는 반추만 못 하는 것이 아니라 실수도 저지른다. 인간이라면 어린아이도 저지르지 않을 실수를 범하기도 한다. 개발자가 아무리 결점을 보완한 후 가동한다고 해도 문제가 다 잡히진 않는다.


    위와 같은 오인식의 원인은 여러 가지다. 예를 들면 데이터세트에 존재하는 편향성이 문제일 수 있다. 머신러닝에는 데이터가 필수다. 데이터가 없으면 AI가 좋은 모델을 학습하지 못한다. 그런데 데이터를 취합할 때 세심히 주의를 기울이지 않으면 소수 인종처럼 수적으로 열세인 집단의 데이터가 충분히 확보되지 않는 치명적 문제가 발생한다. 일례로 안면 인식 시스템은 훈련 데이터에 흑인의 사진이 너무 적게 포함돼 정확도가 떨어지는 경우가 많았다. 데이터의 양과 다양성이 모두 중요하다. 아무리 많은 사진으로 훈련됐다고 해도 그 사진들이 대체로 비슷하다면 AI는 이전에 접한 적 없는 사진을 인식해야 할 때 부정확한 결과를 도출할 것이다. 구체적 사례를 충분히 접하지 못하면 위기 상황에서 문제가 발생할 수도 있다. 가령 자율주행차 훈련용 데이터세트에 사슴이 도로에 난입하는 것처럼 이례적인 상황의 예가 충분히 포함되지 않는다면, AI는 그런 시나리오에 대처할 준비가 부족해진다. 그럼에도 실제로 그런 상황에 처했을 때 AI는 어떻게든 작동해야 한다.


    또 한편으로 AI의 편향성은 인간의 편향성을 그대로 반영한 결과일 수 있다. 다시 말해 훈련 데이터에 인간의 행동에 내재한 편향성이 투영됐을 때 AI에도 편향성이 생긴다. 예를 들어 지도학습 시 출력에 고의로든 실수로든 레이블이 잘못 지정됐을 때 AI는 그것을 그대로 부호화한다. 혹은 개발자가 강화학습용 보상함수를 잘못 정의해서 그런 문제가 발생할 수 있다. 체스용 AI를 훈련하는 시뮬레이터에서 개발자가 좋아하는 전술이 과대평가되었다고 해보자. 그러면 설령 그 전술이 실전에서 효력이 없더라도 AI는 그것을 선호하도록 학습될 것이다.


    오인식의 또 다른 원인은 엄밀성 부족이다. 동물이 총기로 잘못 인식된 사례를 생각해보자. AI가 착각한 이유는 사진 속에 인간은 포착할 수 없지만 AI는 포착할 수 있는, 따라서 AI가 혼동할 수 있는 미묘한 특징이 존재했기 때문이다. AI는 우리가 생각하는 상식이 없다. 그래서 간혹 인간은 한눈에 구별하는 사물들을 동일하다고 착각한다. AI가 무엇을 그리고 어떻게 혼동하느냐는 대체로 예측이 불가능한데, 그 이유 중 하나는 이 글을 쓰는 현재를 기준으로 AI를 검정하는 절차가 부실하기 때문이다. 현실 세계에서는 예측 불가능한 실패가 예측 가능한 실패보다 더 대응하기 어렵고 위험하다. 예측하지 못한 사태에 대비할 수는 없기 때문이다.


    AI의 불안정성은 학습의 피상성에서 기인한다. AI가 지도학습이나 강화학습으로 입력과 출력의 관계를 파악하는 방식은 인간이 다차원적 개념화와 경험으로 현상을 이해하는 것과 전혀 다르다. AI의 불안정성은 자의식이 없기 때문에 발생하는 측면도 있다. AI는 지각하는 존재가 아니며 자신이 무엇을 모르는지 모른다. 그래서 인간이 볼 때는 명백한 착오를 못 알아차리고 방치하기도 한다. 이처럼 뻔한 실수를 스스로 막을 수 없기 때문에, 인간이 개입해서 AI가 발휘하는 능력의 한계를 확인하고, AI가 제안하는 행동을 검토하고, AI가 실수할 확률이 높은 상황을 예측하는 테스트 과정이 필요하다.


    글로벌 네트워크 플랫폼

    현재 인간 활동의 저변에 비인간적 지능이 조용히, 때로는 은밀히 편입되고 있다. 신속하게 전개되는 이 변화의 중심에 이른바 ‘네트워크 플랫폼’이라는 신종 서비스가 존재한다. 네트워크 플랫폼은 막대한 이용자를 유치함으로써 이용자에게 편익을 제공하는 디지털 서비스로, 그 사업 영역이 대개 여러 국가 혹은 전 세계에 걸쳐 있다. 대부분의 상품과 서비스가 이용자에게 제공하는 편익은 다른 이용자와 무관하거나 오히려 다른 이용자로 인해 감소하는 반면, 네트워크 플랫폼은 이용자가 늘어날수록 편익과 매력이 커진다. 경제학 용어를 빌리자면 ‘양의 네트워크 효과’가 존재한다. 어떤 업종이든 이용자가 많은 플랫폼에 더 많은 이용자가 몰려들기 때문에 결국에는 소수의 플랫폼만 살아남고, 각 플랫폼은 많으면 수천만에서 수억 명에 이르는 방대한 이용자층을 확보한다. 이 같은 네트워크 플랫폼들이 점점 더 AI에 의존하면서 인간과 AI의 상호작용이 가히 문명사의 전환점을 만든다고 할 만큼 심대하게 발생하고 있다.


    네트워크 플랫폼 이해하기

    AI는 구글 검색엔진에서도 중요한 역할을 하며 이는 비교적 최근의 일이고 빠르게 발전 중이다. 원래 구글 검색엔진은 인간이 개발한 매우 복잡한 알고리즘으로 정보를 정리하고 순위를 매겨 이용자에게 제공했다. 다시 말해 알고리즘이 곧 이용자의 질의를 처리하는 규칙이었다. 검색 결과가 유용하지 않으면 인간 개발자가 알고리즘을 조정했다. 그러다 2015년부터 인간이 개발한 알고리즘 대신 머신러닝을 활용했다. 이를 계기로 검색엔진의 품질과 유용성이 극적으로 향상됨에 따라 구글은 이용자의 질의를 더 효과적으로 예측하고 더 정확한 결과를 제공하게 됐다. 그러나 검색엔진은 대폭 발전했지만, 개발자들은 오히려 검색 결과가 왜 그런 식으로 나오는지 명확히 이해할 수 없게 됐다. 여전히 인간이 검색엔진을 지도하고 조정하지만, 검색 결과에서 특정한 웹페이지가 다른 웹페이지보다 먼저 나오는 이유를 항상 설명하진 못한다. 인간 개발자들은 그처럼 검색엔진의 편의성과 정확성을 향상하는 대신 그 원리를 직접 이해할 방법을 깨끗이 포기해야 했다.


    여기서 보듯이 앞서가는 네트워크 플랫폼들은 더 나은 서비스를 제공하기 위해, 더 효과적으로 고객의 기대에 부응하기 위해, 더 충실히 정부의 요구 사항을 충족하기 위해 점점 AI 의존도를 높인다. 이처럼 네트워크 플랫폼의 필수 요소가 된 AI는 현실을 선별하고 조성하는 역할이 조용히 강화되고 있으며, 이제는 국가나 세계 차원에서 그런 역할을 수행한다.


    주요 네트워크 플랫폼과 그 AI가 사회, 경제, 정치, 지정학에 미치는 영향은 양의 네트워크 효과로 증폭된다. 양의 네트워크 효과는 네트워크 참가자가 늘어날수록 정보교환 행위의 가치가 증가하는 현상을 말한다. 그러면 성공한 네트워크가 대체로 더 큰 성공을 거두며 결국 우위를 차지할 가능성이 커진다. 사람은 이미 형성된 집단에 끼려는 본성이 있기 때문에 이용자가 많을수록 이용자가 더 늘어난다. 게다가 네트워크 플랫폼은 국경의 제약을 비교적 덜 받으므로 더 넓은 권역에 걸쳐, 보통은 여러 나라에 걸쳐 양의 네트워크 효과가 발생하고, 따라서 경쟁자가 거의 존재하지 않는다.


    커뮤니티, 일상, 네트워크 플랫폼

    디지털 세상은 우리의 일상을 바꿔놓았다. 우리는 모두 일상에서 방대한 데이터의 도움을 받으면서 데이터를 생성한다. 그 데이터는 분량과 종류도 많고 소비되는 방식도 다양하다 보니 인간의 정신만으로 처리하기는 역부족이다. 그래서 우리는 필수 정보나 유용한 정보를 선별하는 소프트웨어에 알게 모르게 의존한다. 이런 소프트웨어는 개인이 이전에 선택한 것과 대중이 선택한 것을 기준으로 뉴스, 영화, 음악을 추천한다. 자동으로 정보를 선별해주는 기능이 워낙 편리하다 보니 우리는 그 기능을 쓸 수 없을 때에야 비로소 그 존재감을 느낀다. 예를 들면 타인의 페이스북 계정으로 뉴스를 읽거나 타인의 넷플릭스 계정으로 영화를 고를 때 그렇다.


    AI 기반 네트워크 플랫폼은 이렇게 정보를 자동으로 선별하는 기능을 삶에 더욱 깊이 침투시키면서 우리의 디지털 기술 의존도를 높이고 있다. 인간의 질문과 목표를 감지하고 처리하도록 설계, 훈련된 AI를 통해 네트워크 플랫폼은 비록 AI보다 효율성은 떨어졌을지언정 원래 인간의 정신이 스스로 처리했던 의사결정에 개입해 이용자가 선택할 수 있는 항목을 분석, 선별하고 무엇을 고르는지 기록한다. 네트워크 플랫폼은 이를 위해 한 사람의 정신이나 인생이 감당할 수 있는 것보다 훨씬 많은 정보와 경험을 취합해서 이용자의 상황에 절묘하게 맞아떨어지는 듯 보이는 답과 추천 목록을 생성한다.


    그 결과로 사람들은 이전에 어떤 상품, 서비스, 기계와도 맺지 않았던 관계를 AI 기반 네트워크 플랫폼과 맺는다. 인터넷 탐색 및 검색 기록, 여행 이력, 소득수준, 대인관계 등 자신의 사정과 취향을 고려하는 AI와 암묵적 파트너 관계를 형성하는 것이다. 그래서 본래는 기업, 정부, 타인에게 분산됐던 기능이 네트워크 플랫폼에서 모두 처리된다. 말인즉 네트워크 플랫폼이 우체국, 백화점, 호텔 데스크, 고해 신부, 친구가 된다.


    AI 기반 네트워크 플랫폼의 도움을 받아 각종 작업을 수행하는 사람들은 이전 세대가 겪어보지 못한 수준으로 정보가 취합, 선별되는 현상을 경험한다. 방대한 데이터와 막강한 컴퓨터 성능으로 새로운 행동 양식을 만드는 네트워크 플랫폼은 이용자에게 유례없는 편익을 제공한다. 그리고 이용자는 이전에 경험하지 못했던 인간과 기계의 대화에 참여한다. AI 기반 네트워크 플랫폼이 조성하는 경험은 인간 이용자가 명확히 이해하지 못할 수 있고 심지어는 명확히 정의하거나 설명하기조차 불가능할 수 있다. 그렇다면 좀 더 근본적인 질문이 생길 수밖에 없다. 그런 AI는 어떤 목적함수를 따르는가? 누구의 설계를 따르고 어떠한 규제를 받는가?


    이 질문의 대답이 앞으로도 계속해서 우리의 삶과 사회에 영향을 미칠 것이다. 같은 맥락에서 이런 질문도 가능하다. 그런 AI를 누가 운용하고, 한계는 누가 정하는가? 그런 AI가 사회규범과 제도에 어떤 영향을 미칠 것인가? 그런 AI가 무엇을 인지하는지 확인할 수 있는 사람이 존재한다면 누구인가? 만일 어떤 사람도 AI가 취급하는 데이터를 완전히 이해하거나 열람할 수 없다면, 혹은 AI의 작동 과정 전체를 뜯어볼 수 없다면, 다시 말해 인간의 역할이 여전히 AI를 설계하고, 모니터링하고, 일반적 매개변수를 설정하는 데 머문다면, 그런 한계점에서 우리는 위안과 불안 중 무엇을 느껴야 하는가? 혹은 둘 다 느껴야 하는가?



    * * *


    본 정보는 도서의 일부 내용으로만 구성되어 있으며, 보다 많은 정보와 지식은 반드시 책을 참조하셔야 합니다.