빅데이터 혁명
 
지은이 : 권대석
출판사 : 21세기북스
출판일 : 2019년 12월




  • 미국에서는 영화 마이너리티 리포트에서처럼 일어날 범죄를 미리 예측하는 일이 늘고 있다. 부모도 몰랐던 여고생의 임신을 마트에서 먼저 알아내기도 하고, 누가 대통령이 될지 미리 맞추기도 했다. 이런 일을 가능케 하는 기술이 바로 빅데이터 기술이다. 

    빅데이터 기술은 정치·행정이나 기업의 문제 뿐 아니라, 왕따나 입시 같은 교육 문제, 부부의 예측 수명, 우리 아이의 적성 문제에 이르기까지 지극히 개인적 삶에서도 사용될 수 있다. 

    인류의 수천년 역사를 통해 정치나 경제, 행정 같은 통치 행위로부터 정치학, 경제학, 사회학, 인류학, 역사학 같은 문과 학문에 이르기까지 정치 사회 문화 분야에서 과학 기술의 영향력은 크지 않았다. 그러나, 빅데이터 기술은 통상적으로 ‘문과적’이라고 생각되던 모든 활동과 분야에 영향을 미칠 것으로 보인다.



    빅데이터 혁명


    빅데이터 세상이 온다

    빅데이터는 클라우드, 슈퍼컴퓨팅, 소프트웨어 산업과 전문가의 결합이다

    기본적으로 빅데이터는 어떻게 처리되는 것일까? 상식적으로 생각해 보면 우선 빅데이터를 모아야 한다. 예를 들어 전 국민이 아침에 일어나 어떤 교통수단으로 이동했는지 알려면 모든 버스, 지하철, 택시 등에서 교통카드 사용 로그를 집계해야 할 것이다. 오늘의 국민적 관심사를 보기 위해서는 인터넷 뉴스에서 가장 많이, 처음 읽힌 뉴스가 무엇인지 로그를 집계하면 될 것이다. 이렇듯 기계, 건물, 자동차, 가전제품, 인터넷 등에서 생기는 엄청난 양의 데이터를 우선 모아야 한다.


    그러고 나면 그 무지막지한 양의 데이터를 어디에 어떻게 저장할 것이냐는 이슈가 생긴다. 데이터를 저장하고 나면 그 데이터를 요약하거나 컴퓨터가 쉽게 분석할 수 있도록 표 형태로 정제하고 가공해야 한다. 그다음에는 정제, 요약, 가공된 데이터를 통계 처리하거나 의미 분석을 해서 가령 ‘어? 국민들이 유럽 경제 위기보다는 국회의원 중에 주사파 NL이 있느냐에 더 관심이 많네?’ 같은 몰랐던 정보를 추출하게 된다. 그리고 마지막으로는 미래가 어떻게 될 것인지, 혹은 우리의 결정이 어떤 결과를 낳을 것인지를 예측한다.


    이런 요소 기술들은 서로 연관 관계가 적으면서 개별적으로는 매우 전문적인 기술이다. 빅데이터 기술이라는 이름의 한 가지 기술이 아니고 매우 많은 요소 기술들이 사용되는 것이다. 이런 다양한 기술들을 저렴한 비용으로 많은 사람들이 쓸 수 있게 되면서 빅데이터는 시대적 화두로 떠오를 수 있었다.


    다양한 전문 기술의 집합인 빅데이터 기술의 보급에는 클라우드, 슈퍼컴퓨터, 오픈소스 기술이 큰 역할을 했다. 빅데이터가 성립하기 위해서는 일단 대규모 데이터가 있어야 하는데, 기본적으로 빅데이터의 중요한 원천은 클라우드다. 컴퓨터로 할 수 있는 모든 일을 하는 데 필요한 것들을 모아 두고 인터넷을 통해 빌려 쓸 수 있게 한 것이 클라우드다. 클라우스 상에서의 모든 행적은 디지털 로그를 남긴다. 그것은 우리가 작성한 메일일 수도 있고 SNS에 쓴 글일 수도 있다. 그래서 빅데이터는 클라우드와 긴밀한 관계가 있다. 모든 빅데이터가 클라우드 데이터인 것은 아니지만 클라우드에서 생겨나고 저장되는 데이터는 빅데이터로서 큰 의미가 있다.


    빅데이터는 말 그대로 너무 크기 때문에 한 대의 컴퓨터로 처리할 수 없는 경우가 많다. 일반적으로 처리 능력이 두 배 좋은 컴퓨터는 두 배 비싼 것이 아니라 네 배, 다섯 배 비싸다. 10배 좋은 컴퓨터는 100배 이상 비싸진다. 그런데 20세기 말에 PC 급의 소형 컴퓨터를 수십 대에서 수만 대까지 연결하고, 컴퓨터 한 대가 할 일을 여러 대에 나눠 처리하게 함으로써 속도를 높이는 기술이 등장했다. 이것이 바로 클러스터 슈퍼컴퓨팅 기술이다.


    클러스터 방식으로 만들어진 슈퍼컴퓨터는 일반적인 대형 컴퓨터들과 달리 성능과 가격이 나란히 증가한다. 이전처럼 성능이 두 배 좋은 컴퓨터라고 값이 네 배, 다섯 배씩 되지 않는다는 뜻이다. 10배 빠른 클러스터 컴퓨터는 100배 비싼 것이 아니라 10배만 비싸다. 뿐만 아니라 이전의 컴퓨터는 10배 빠른 것이 고작이었는데, 클러스터 방식 슈퍼컴퓨터는 10배가 아니라 100배, 1만 배 빠른 컴퓨터도 만들 수 있다. 모든 작업을 1만 배 빠르게 할 수는 없지만 많은 빅데이터 문제는 1만 배까지도 빠르게 풀 수 있다. 클러스터 슈퍼컴퓨팅 기술은 컴퓨터 역사에서 그 이전과 이후를 나눌 만큼 획기적인 기술로, 특히 빅데이터 분석용으로 사용되면서 성능과 가격 면에서 위력을 발휘하게 되었다.


    빅데이터 기술의 요소들은 이미 상당 부분 존재하던 기술이다. 다만 소수의 전문가와 전문 기업들에 의해 공급되던 비싼 기술이라 누구나 쓸 수 없었을 뿐이었다. 하지만 이제는 공개 소프트웨어로 구현되면서 누구나 가져다 쓸 수 있게 되었고, 결과적으로 빅데이터가 전 사회적 주목을 끌게 된 것이다.


    공개 소프트웨어는 컴퓨터 프로그램의 소스 코드가 공개된 소프트웨어를 뜻한다. 보통은 워드나 엑셀 같은 소프트웨어의 경우, 사용자가 실행을 할 수 있을 뿐 그것들이 어떻게 만들어져 있는지 본다거나 자기 마음대로 기능을 고친다거나 할 수는 없다. 소스 코드를 공개하면 누구나 자기 마음대로 기능을 고칠 수 있고 다른 사람에게 복사해줄 수 있기 때문에 프로그램 개발자 입장에서는 돈 벌기가 매우 힘들어진다.


    요즘에는 누구나 능력만 있으면 단돈 1달러도 필요 없이 공짜 오픈소스를 가져다가 원하는 슈퍼컴퓨터를 만들어 빅데이터를 분석할 수 있다. 과거와 달리 빅데이터를 분석하는 소프트웨어나 컴퓨터 장비보다 통찰력과 분석력이 중요해진 것이다.


    빅데이터는 많은 경우 ‘생성은 되는데 그냥 버려지던 데이터’일 뿐이라 지우지만 않는다면 데이터를 어떻게 모을 것이냐는 문제가 아니다. 하지만 인터넷에 흩어져 있는 방대한 양의 문서를 모아서 분석에 쓰겠다거나, 트위터나 페이스북에서 오가는 이야기를 분석하겠다거나, 빌딩이나 자동차에서 쏟아내는 데이터는 컴퓨터로 바로 분석하기가 어렵기 때문이다. 빅데이터의 대부분은 컴퓨터가 바로 처리할 수 없는 데이터, 컴퓨터 입장에서는 잘 정돈되지 않은 비정형 데이터다. 설사 정형적 데이터라고 해도 측정값이 빠져 있다거나, 형식이 다르다거나, 내용 자체가 틀린 경우가 매우 많기 때문에 이를 고쳐 주어야 한다. 이런 경우는 매우 드물지만, 빅데이터는 말 그대로 ‘빅(BIG)’이기 때문에 1%만 예외가 생겨도 오류를 찾아 고칠 수 없을 정도로 방대한 양의 예외가 발생한다. 이런 데이터를 가공해서 분석 가능한 형태로 만들거나, 통상적 데이터베이스가 바로 처리할 수 있게 도표 형태로 만드는 데는 굉장히 긴 시간이 걸리고, 자연언어 처리나 분산병렬처리 등 다양한 기술이 사용된다.


    간단히 정리하면, 분산병렬처리 기술은 빅데이터를 나누어 저장하고 있는 수백, 수천 대의 서버 각각에서 저장하고 있는 데이터에 대한 처리를 할 수 있는대로 해서 그 결과값을 모아 최종 결과를 내는 방법이다. 혼자 하면 100분 걸릴 것은 100명이 하면 1분 걸리는 원리인 것이다. 분산병렬처리 기술은 분석 등의 작업을 빨리 할 수 있는 방법과 관련된 이슈로서, 여기서 더 중요한 것은 분석 기술 자체다. 회귀분석이나 의미 분석 같은 분석 기술은 국가적으로나 개인적으로나 가능성이 큰 분야다. 언젠가는 분석 자체도 기계화되겠지만, 적어도 당분간은 인간의 전문적 지식과 직관에 의존하는 모델링이 중요한 역할을 할 것이기 때문이다.


    흔히 빅데이터 이슈를 주도하는 주체가 미국 등의 유명한 대형 컴퓨터 관련 장비나 솔루션 공급사들이기 때문에 고성능 병렬 컴퓨터나 저장장치 등이 빅데이터의 핵심인 것처럼 이야기되는 경우가 많다. 그러나 그런 업체들도 인정하듯이, 어떤 장비나 솔루션을 사더라도 사실 훨씬 중요한 것은 분석의 방향을 설정하고 결과를 보고 진실을 통찰하는 능력을 가진 ‘사람’이다. 사람은 인프라나 장비, 솔루션보다 더 중요하다.



    삶을 혁신하고 내일을 예측하는 빅데이터 혁명

    경제학과 빅데이터 기반 시뮬레이션

    돈이 무엇인지 아는 사람은 의외로 많지 않다. 본질적으로 돈은 타인의 지불 약속, 즉 빚에 대한 청구 권한이다. 최초의 돈은 중앙은행에서 민간은행들의 채권을 매입하는 형태로 현금을 전달하면서 발생한다. 그러면 민간은행은 중앙은행에서 받은 돈을 지불 준비금으로 챙겨 두고, 받은 돈의 10배 이상을 다른 은행이나 회사, 개인들에게 빌려 준다. 그 돈을 빌린 회사나 개인은 필요한 만큼은 쓰고 나머지는 은행에 다시 맡기는데, 그러면 은행은 그 맡은 돈을 이용해 다시 더 큰 액수를 다른 회사나 개인에게 빌려 준다.


    이 과정은 계속 반복되어 결국 개인이나 회사가 은행 잔고의 형태로 가지고 있는 돈은 중앙은행에서 만든 돈이 아니라 시중은행에서 빌려준 빚이거나 다른 누군가가 빚을 갚겠다고 약속한 금액이 된다. 따라서 우리가 쓰는 돈 대부분은 시중은행에서 만든 것이라고 보는 게 맞다.


    물론 중앙은행은 지급준비율과 발권량을 통해 시중 전체에 풀리는 돈의 양을 조절하지만 그 영향력은 꽤 제한적이다. 그렇게 보면 시중에 풀리는 돈의 양은 은행들이 얼마나 돈을 빌려 주기로 할 것이냐 혹은 사람들이 얼마나 돈을 빌리기로 할 것이냐에 의존한다. 돈이 얼마나 풀리느냐는 결국 ‘현재 경제 상황에서 사람들이 보편적으로 돈을 얼마나 잘 갚을 수 있을까’라고 생각하는 정도에 따라 결정되는 것이다. 돈은 비유로서가 아니라 본질적으로 타인에 대한 신용이다. 그래서 신용이 붕괴되면 경제가 마비된다.


    이런 문제들이 골치 아픈 이유 중 하나는 현상의 변화가 다시 현상에 영향을 주기 때문이다. 이를 ‘되먹임(feedback)’이라고 하는데 전형적으로는 미분방정식으로 표현되며, 대개는 아주 많은 변수를 가진 미분방정식 문제가 된다. 그리고 이런 문제들은 미분방정식으로 모델링해 깔끔하게 수학적 해법을 찾기가 매우 어렵다.


    그러나 현재의 사회 네트워크를 모델링하과 참여자들간의 생각과 영향 관계를 수치화해서 시뮬레이션하는 것은 훨씬 쉬울 수 있다. 이런 모델링이나 시뮬레이션 가능성이 중요한 이유는 공황이나 신용 붕괴(흔히 신용 정색이라고 표현한다) 상황을 컴퓨터에서라도 실험해 볼 수 있기 때문이다. 경제 위기 상황에서 돈을 더 풀어야 하느냐 덜 풀어야 하느냐, 어떤 정책이 사회 주체들 간의 신용을 복원시키느냐는 노벨상을 받을 정도로 훌륭한 학자들 사이에서도 의견이 분분하여 누가 옳은지 알 수가 없다. 컴퓨터상의 시뮬레이션이라고 해서 미래가 그렇게 되어 줄지는 의문이지만 적어도 우리에게 ‘이러이러해질 가능성이 있다’는 정도는 보여 줄 수 있다. 그러면 똑똑한 사람들은 그것을 잘 들여다보고 ‘고환율 정책을 쓰다가는 나라 망하겠는데?’, ‘시중 자금 공급을 늘리는 게 별로 도움이 안 되잖아?’ 같은 통찰을 얻을 수 있을 것이다.


    또한 빅데이터와의 연결은 중요한 경제적 예측에 더 높은 신빙성을 제공할 수 있다. 구글은 전 세계 온라인 쇼핑몰의 주요 제품 가격을 24시간 모니터링해 GPI(Google Price Index)라는 수치를 만들어 경기 동향 예측에 사용하고 있다. 구글의 수석 경제학자 할 배리언에 의하면 실제로 구글은 2008년 금융 위기 이후 각국에서 언제 인플레이션인 디플레이션의 기미가 보이는지 해당국 정부보다 먼저 알 수 있었다고 한다.


    사실 기상 예보가 그렇듯이 빅데이터를 이용한 복잡계 시뮬레이션의 경제학적 예측도 맞을지 안 맞을지는 알 수 없다. 대기과학자 데이비드 오렐에 따르면 이런 오차는 기본적으로 초기 측정값의 미세한 오차가 결과적으로 커다란 차이를 빚는 나비 효과 때문이기도 하지만, 그보다 모델이 현실을 정확히 반영하기 어려운 모델 오차 때문에 피할 수 없는 결과라고 한다. 그럼에도 불구하고 그럴듯해 보이는 체계적 예측은 주먹구구나 감에 의한 주장보다는 훨씬 신뢰감을 주고 향후의 개선 가능성도 노려 볼 수 있다는 점에서 전략적으로 육성하고 시도해 볼 만하다.



    세계경제지도를 흔들 클라우드 파워

    빅데이터를 이용한 비즈니스 분석 클라우드

    다음 분기에 우리 회사 매출이 얼마나 될까? 어떤 제품을 확보해야 고객 방문이 늘까? 신규 사업 성공에 회사 내부의 어떤 요소가 가장 큰 영향을 미쳤을까? 고객의 구매 의사 결정에 어떤 활동이 가장 효과적이었을까?


    보통의 회사에서는 서버나 스토리지 클라우드보다 이런 질문들에 대한 답이 더 중요할 수 있다. 바로 비즈니스 분석, 예측 클라우드 서비스다. 사업이나 영업을 하는데 회사나 조직 내외의 어떤 요인이 성패에 얼마만큼 영향을 주었는지, 축적된 사업이 데이터(메일이나 보고서 같은 비정형 빅데이터일 수도 있다)를 컴퓨터로 분석하는 시스템을 비즈니스 인텔리전스 시스템이라고 한다.


    예전에는 오라클로 상징되는 데이터베이스 시스템이 이런 업무의 중추적 역할을 담당했다. 하지만 최근에는 빅데이터 등으로 그 양이 방대해지고 정보를 뽑아내야 하는 시간 주기가 짧아지다 보니, 신뢰성을 보장하느라 속도가 느리고 값이 비쌀 수도 있는 전통적 데이터베이스를 거치지 않고 저가형 소형 서버 수천 대에 저장된 원시 데이터에 분산병렬처리 기술을 적용해 직접 원하는 정보를 추출하는 경향이 늘고 있다. 이렇게 전통적 데이터베이스가 아닌 새로운 방식의 분산병렬 데이터 저장 및 처리 기술을 포괄해 NoSQL이라고 부른다.


    이런 기술은 어떤 분야에서 유용할까? 우선 유통 분야에서 사용될 수 있다. 매일 수천만 명의 손님이 드나들면서 수억 개의 상품이 매입, 매출되는데, 어떤 요소가 매출에 영향을 주는지 알 수 있다면 천금의 값어치가 있을 것이다. 까르푸나 월마트 같은 기업들은 이미 이런 시스템을 운영하고 있다.


    KT나 SKT같은 통신 회사에서는 가입자가 어디서, 누구에게, 어떤 용도로, 얼마나 많은 시간 동안 전화를 했는지 분석하면 통신 회선의 원가 절감이나 부가 상품의 판매 등에 연결해 소비자와 통신 회사 모두에게 적잖은 비용 절감이나 추가 이윤을 발생시킬 방안이 나올 수도 있다. 네이버나 다음 같은 포털도 마찬가지다. 누가 언제 어디서 어디로 접속해서 얼마나 있다 나갔는지, 어떤 사이트가 어떤 이유로 왜 많이 클릭되었는지 등을 알면 광고나 마케팅에도 활용할 수 있고 시스템 반응 속도나 안정선 관리에도 활용할 수 있다.


    이 모든 것이 분석과 예측, 비즈니스 인텔리전스의 영역이다. 경영자로서는 너무나 알고 싶고 어떻게든 손에 넣고 싶은 정보를 알아내는 기술인 것이다. 문제는 이런 정보를 알아내기 위해 사용되는 원천 데이터의 양이 상상을 초월하게 많고, 결과적으로는 엄청난 규모의 계산 시스템이 필요해 막대한 비용이 든다는 것이다. 게다가 이런 일을 할 수 있는 사람이나 이런 일을 해 주는 프로그램이 원체 귀해서 사람이건 소프트웨어건 부르는 게 값인 수준이다.


    여기서 클라우드 컴퓨팅이 등장한다. 대기업의 일개 부서에서 할 수 있는 일도 아니고 중소기업에서는 엄두도 내기 힘들기 때문에 개별 구축을 포기하는 것이다. 그래서 전사적 차원에서 분석 센터를 만들어 조직 전체가 공유하거나(프라이빗 분석 클라우드), 아마존이나 구글 혹은 전문 분석 기업의 분석 인프라와 서비스를 이용해 정보를 얻는다.


    다만 아직 이런 기술을 적용한 상품이 비교적 완성도가 낮아, 원하는 수준의 고급 정보를 얻으려면 매 건마다 전문가의 개입과 맞춤 개발이 불가피한 상황이다. 그뿐만 아니라 통신, 유통, 인터넷 분야를 포함해 온갖 분야에서 다 필요한 기술이지만 모든 분야가 각각 달라서 분야별로 분석과 맞춤 개발이 불가피하다.


    어쨌든 이 분야 역시 응용 소프트웨어 클라우드로서 앞으로 성장해 나갈 대표적 분야로 보인다. 처음에는 회사 대표이사의 의사 결정이나 기업의 성과 확대에 필수적인 분야로 자리 잡을 가능성이 크지만, 나아가서는 개인들의 의사 결정(진학, 취직, 부동산 구매, 상품 구매, 재테크 등)에도 사용될 수 있으리라 짐작된다. 그렇게 되면 역시 만만찮은 규모의 시장이 될 것이다.



    선진 국가로 이끌어 줄 슈퍼컴퓨팅 시대

    슈퍼컴퓨팅 산업 육성으로 고용과 성장 문제를 푼다

    슈퍼컴퓨팅은 어떻게 재발 문제와 중소기업 문제를 해결할까? 수퍼컴퓨터로 미래를 예측해서 산업 전반의 경쟁력을 강화하는 것도 가능하다. 혹은 분석이나 예측 능력 자체를 상품화하여 관련 산업을 키울 수도 있을 것이다. 그러나 내가 말하고픈 것은 그것이 아니다. 답은 슈퍼컴퓨터를 사용해야 할 분야를 슈퍼컴퓨터로 강하게 만들어 주자는 것이다. 그러면 슈퍼컴퓨터는 어디에 사용되는가? 신약, 금융 파생상품, 유전 탐사, 첨단 자동차, 선박, 항공기, 전자제품 등 고부가가치 상품을 만드는 데 주오 사용된다.


    슈퍼컴퓨터가 주로 사용되는 산업 분야와 용도를 보면 학문 연구용이 압도적으로 많고, 산업적으로는 웹 서비스를 제외하면 금융이 1위, 자원 탐사 분야가 2위, 유통 부문이 3위로 우리나라 재벌 기업들도 다 진출해 있는 분야들이다. 그런데 우리나라 재벌들이 슈퍼컴퓨터를 대량 운용한다는 이야기는 들어 본 적이 없다.


    전자, 조선 같은 분야가 아닌 금융, 에너지, 자원 같은 분야가 얼마나 대단한 분야인가 싶을 수도 있지만, 2012년 포춘 선정 세계 1~20위 기업은 대부분 에너지, 유통, 금융, 화학 관련 기업이다. 1위, 3위, 4위가 엑손모빌, 셰브런, 코노코로 석유 에너지 기업이고, 2위는 월마트로 유통 기업이다. 그리고 이들은 모두 세계 최대의 슈퍼컴 사용 기업이기도 하다.


    슈퍼컴퓨터를 대량 운용한다고 해서 세계적 기업이 될 수 있는지는 의문이지만, 세계 최고 기업들의 사업 분야가 세계 최대 슈퍼컴 활용 분야이고 그들이 세계 최대 슈퍼컴을 운영하고 있다는 것은 명확하다. 누군가는 삼성전자나 현대자동차는 세계적 기업인데도 슈퍼컴퓨터 운용을 별로 하지 않는다고 의아해 할 수도 있다. 하지만 전자나 자동차는 원래 슈퍼컴퓨터에 크게 의존하는 산업이 아니다. 그리고 그 분야에서는 우리가 이미 수위권이라서 더 키울 기업도 없고, 더 키워 봐야 고용이 창출되지 않는다.


    쉽게 말해 우리 대기업들도 돈이 되는, 세계적 공룡들이 버티고 있는 분야로 나아가야 살 수 있다. 그러자면 슈퍼컴퓨팅 활용 같은 고급 연구 개발 능력이 필요하고 그런 능력을 확보하기 위해서는 투자가 필요하다. 그런 능력을 보유한 국내외 기업을 인수하거나 연구 개발에 돈을 쏟아붓거나 인재를 모셔 와야 하는 것이다.


    1998년 금융 위기 이후 체질 개선 덕에 호황을 누렸던 국내 대기업들도 그런 생각을 했었는지, 200년대 초반에는 슈퍼컴퓨터 쪽에 꽤 많은 투자가 이뤄졌다. 결과적으로 2005년 6월에는 전 세계 500위 슈퍼컴퓨터 중 14대를 한국이 보유하고 있었다. 상당수는 재벌 기업과 국가 출연 연구소가 보유했었다. 그런데 문제는 슈퍼컴퓨터와 그 활용 능력이 사실은 별 상관이 없다는 것이다. 상관이 있긴 하지만 슈퍼컴퓨터를 중요하게 생각하는 일반적 통념과 달리 슈퍼컴퓨터 활용 능력이 슈퍼컴퓨터보다 훨씬 더 중요하다. 슈퍼컴퓨터를 쓸 사람이 없는데 기계만 사 주고 잘 쓰라고 하는 것은 갓난아기에게 스마트폰을 사 주는 것과 같이 별 의미가 없는 일이다.


    슈퍼컴퓨터는 감가상각이 매우 빨리 일어난다. 2년 동안 두 배 정도로 규모를 키우지 않으면 순위도 내려가고 PC보다 느려질 수도 있다. 슈퍼컴은 빨리, 그리고 많이 써야 의미가 있다. 묵혀 두면 골칫거리가 될 뿐이다. 그러나 국내 여러 기관에서 슈퍼컴퓨터 활용률은 10%를 밑돌았고, 3년 뒤에는 500위 슈퍼컴퓨터에 단 한 대도 랭크되지 못했다. 슈퍼컴퓨터가 아니라 활용 전문가에게 투자했어야 하는 것이다.


    우리는 한 번 투자에 실패하면 굳이 같은 일을 반복하지 않으려 한다. 그래서 국내 대기업이나 출연 연구소들은 꼭 필요한 경우, 예를 들면 지질자원연구원, 기상청 ,국방과학연구소, 에너지자원 신기술 연구소, 포스코, 현대자동차처럼 슈퍼컴퓨터를 잘 쓸 수 있는 능력이 있지 않으면 거의 투자하지 않게 되었다. 그렇게 해서 한국은 슈퍼컴 후진국이 되어 버린 것이다.


    선진 기업들을 추격하기 위해서는 슈퍼컴퓨터를 사용한 제품이나 기술 개발을 포함해 필요한 것들을 기업에서 적극 연구하고 개발해내거나 대학에서 연구해 공급해야 한다. 그리고 개발된 기술이나 상품은 대기업의 국제 경쟁력을 강화하는 데 적극 사용되어야 한다. 반드시 대기업일 필요도 없다. 중소기업에 공급해도 된다. 그 중소기업이 대기업으로 커도 좋고, 대기업에 인수되어 대기업의 경쟁력을 강화해도 좋다. 경쟁력 있는 신제품이나 신기술 개발과 연구에 적극 투자하면 된다. 그리고 슈퍼컴퓨터를 활용하는 계산과학과 계산공학은 그런 기술이나 제품을 만드는 데 중요한 역할을 할 수 있다.


    요약하면 산업별 슈퍼컴퓨터 응용, 빅데이터 응용 개발 활성화로 기업들의 산업 경쟁력을 높이고 고용과 부가가치 창출 확대가 가능하다는 이야기이다. 그런데 우리나라의 이공계 대학들은 계산과학자나 계산공학자를 별로 키워내지 않는다. 계산과학자나 계산 공학자가 따로 있지도 않고, 기존의 기계공학과나 자원공학과, 물리학과나 생물학과에서도 이런 분야를 가르치지 않는다.

    국가경쟁력위원회나 국가과학기술정책연구원 같은 곳에서 가끔 슈퍼컴퓨터 관련 산업을 키우거나 국가 경쟁력 강화를 위해 무엇을 어떻게 하면 되느냐고 묻곤 한다. 그래서 상황을 설명하면 “쓸 기업도 없고 키우는 대학도 없네요. 필요로 하는 산업도 없고 공급하고 싶어 하는 학과도 없으니 다른 산업에 투자하는 것이 낫지 않을까요?”라는 말이 나오곤 한다.


    그 말이 맞다. 하지만 도약이란 그런 것이다. 그렇게 상식적이고 맞는 말에 따랐으면 지금의 포스코도 삼성 전자도 없었을 것이다. 기반도 없는 상태에서 도약을 위해 해야 하는 일들은 대체로 무모하거나 비상식적인 일이기 때문에 도약을 해내는 나라나 개인이 드물다. 우리가 GDP 2조 달러가 되어 총생산이 두 배가 되고, 그 가치가 고루 분배되기 위해서는 과거의 고속도로나 제철소 같은 새로운 기반이 필요하다. 아무것도 없는 상태에서는 철과 도로 등 기초 기반 시설이 필요했지만, 있을 것 다 있는 상태에서 더 많이 가진 나라들을 따라가려면 새로운 지식과 그 지식을 얻을 방법이 필요하다. 슈퍼컴퓨팅(계산과학공학)이나 소프트웨어 클라우드, 빅데이터 같은 것 말이다.


    기업이 슈퍼컴퓨팅 기술을 활용해 신제품이나 기술을 만들지 않고, 대학이 관련 인력을 키우지 않는 또 다른 중요한 이유가 있다. 그렇게 무리하지 않고도 먹고사는 데 지장이 없기 때문이다. 슈퍼컴퓨팅을 활용하지 않아서 죽는다면 아마 하지 않을 사람이 없을 것이다.


    결국 우리나라에서 벌어지고 있는 부의 집중과 중소기업 문제, 교육 문제 등은 기득권인 대기업과, 혁신 기지로서의 역할을 해야 하는 대학들이 정도를 넘어서거나 미치지 못해서 일어나는 문제다. 대기업이나 대학으로서는 법에 저촉될 만한 일을 하지 않았다고, 더 나은 방법이 없었다고 항변할지 모른다. 물론 대기업이 동네 제과점이나 슈퍼를 하면 훨씬 잘할 수 있고 이는 정당한 자본주의적 시도다. 교수에게 좋은 논문 많이 쓰라고 격려하면서 그것으로 평가한다고 하면 그 이상 객관적이고 공정한 평가 방법은 없을 것이다. 그러나 그런 합법과 공정성이 국가와 국민에게 전혀 도움이 되지 않는다는 게 문제다. 재벌과 대학 교수들은 그들만의 리그에서 순위를 매기고 있을 뿐이다.


    비범한 시도만이 비범한 결과를 낳는 법이다. 선진국들과 경쟁하고 그들보다 더 잘살고 싶다면 주어진 법과 제도와 주의를 넘어서는 시도를 하지 않으면 안 된다. 기득권의 것을 빼앗자는 말이 아니다. 새로운 시도를 통해 기득권은 더욱 성장할 수 있도록 지원하고, 이들이 국가와 국민의 힘으로 이룬 것에 대해 책임을 지고 중소기업과 국민을 도울 수 있도록 하자는 것이다.


    * * *


    본 도서 정보는 우수 도서 홍보를 위해 저작권자로부터 정식인가를 얻어 도서의 내용 일부를 발췌 요약한 것으로, 저작권법에 의하여 저작권자의 정식인가 없이 무단전재, 무단복제 및 전송을 할 수 없으며, 원본 도서의 모든 출판권과 전송권은 저작권자에게 있음을 알려드립니다.