비즈
인문
Preview
Trend
Briefing
R&D와 혁신에 혁명을 일으키고 있는 인공지능 기술
인공지능이 인간의 문명에 끼칠 가장 큰 영향은 무인 자동차, 이미지 검색, 언어 인식, 비행 자동차가 아니라 혁신에 새로운 혁신을 일으키는 역...

116
 


인공지능이 인간의 문명에 끼칠 가장 큰 영향은 무인 자동차, 이미지 검색, 언어 인식, 비행 자동차가 아니라 혁신에 새로운 혁신을 일으키는 역량이다. 각종 연구는 오늘날 새로운 연구에 대한 투자가 급격히 증가하고 있지만 그 결과물은 과거와 비교해 비슷하다는 것을 보여주고 있다.  오늘날 칩 밀도를 2배 증가시키는 데 필요한 연구 인력은 1970년대와 비교하면 무려 18배나 늘어났다. 인공지능이 한계에 봉착하고 있는 이러한 문제를 해결해줄 수 있을까? 인공지능이 적용될 R&D 분야는 어디인가?


5가지 기술-경제 혁명은 모두 상호 보완적인 ‘일반목적기술(General-Purpose Technologies, GPTs)’로 인해 동력을 얻어 왔다. 일반목적기술이란 사회 및 경제 전반의 모든 영역에 유익한 가치를 창출하는 기술을 의미한다. 기존 부문의 혁신 외에도 일반목적기술의 가성(price/performance) 역량이 급속히 향상되면서 시간이 지남에 따라 완전히 새로운 애플리케이션과 산업의 창출로 이어지고 있다. 예를 들어, 대량 생산 시대에 전기 가격의 꾸준한 하락과 전기 모터의 효율성 개선은 조립 라인의 출현과 함께 20세기 초 제조의 급진적 변화로 이어졌다. 또한 가전 산업의 창출로 이어졌다. 마찬가지로 디지털 혁명은 반도체 산업의 비상을 이끌어냈다. 이로 인해 지난 두 세기의 산업 경제에서 현재의 정보 경제로의 역사적인 전환이 일어났다. 이 과정에서 다양한 일반목적기술들이 탄생했다.


아마도 이러한 기술들 중에 가장 접근하기 어려운 것은 아마도 인공지능일 것이다. 최첨단 기술 기업들이 이 인공지능을 활용하고 있지만, 우리는 여전히 인공지능 구축의 초기 단계에 있다. 지난 수년 동안 기계 학습에 있어 중요한 진보가 있었고, 인공지능은 실험실에서 얼리어답터로 옮겨졌다. 인공지능의 더 광범위한 구축을 위해 상당한 혁신과 투자가 필요하다. 확실한 점은 인공지능이 21세기에 가장 중요한 일반목적기술 중 하나가 될 것이라는 점이다.


2018년의 한 기술 세미나에서, 토론토 대학교(University of Toronto) 에이비 골드파브(Avi Goldfarb) 교수는 인공지능을 일반목적기술로 설명했다. 골드파브 교수는 그의 동료들과 함께 기계 지능의 경제학에 관한 연구를 수행해 왔다.


“컴퓨터 혁명은 산술 계산 비용을 크게 줄이는 것으로 볼 수 있다. 수년 동안 우리는 인벤토리 관리에서 사진 작업에 이르기까지 디지털 작업과 관련된 모든 종류의 작업을 정의하는 방법을 배웠다. 마찬가지로, 인터넷 혁명의 경제적 가치는 커뮤니케이션 및 검색 비용을 절감함으로써 모든 종류의 정보를 쉽게 찾고 액세스 할 수 있는 것으로 설명할 수 있다.”


2017년의 한 글에서, 골드파브와 그의 동료들은 새로운 급진적 기술의 경제적 영향을 평가하는 가장 좋은 방법은 이 기술로 널리 사용되는 기능의 비용을 줄이는 방법을 살펴보는 것이라고 설명했다.


“이러한 방식의 렌즈를 통해 볼 때, 새로 부상하는 인공지능 혁명은 빅 데이터의 폭발적인 성장, 강력하고 저렴한 컴퓨터 기술, 그리고 진보된 기계 학습 알고리즘을 기반으로 예측 비용을 줄이는 것으로 볼 수 있다. 비즈니스, 정부 및 일상생활에서 예측의 광범위한 역할을 감안할 때 인공지능은 이미 광범위한 응용 프로그램에 큰 영향을 미치고 있는 가장 명백한 일반목적기술이다.”

그러나 인공지능은 혁신 과정의 성격과 R&D 조직을 재구성할 수 있는 새로운 일반목적 혁신방법(method of invention)으로 기능함으로써 경제에 더 큰 영향을 미칠 수 있다. 2017년 9월 인공지능의 경제학(Economics of AI)에 관한 컨퍼런스를 준비했던 이안 코크번 (Iain Cockburn), 레베카 헨더슨 (Rebecca Henderson), 스콧 스턴 (Scott Stern) 교수가 작성한 공동 논문의 내용이 바로 이것이었다.


저자들은 인공 지능 ? 특히 딥 러닝 ? 이 실제로 광범위한 영역에 걸쳐 새로운 탐구 방법을 열어 줄 새로운 종류의 연구 도구라고 주장한다. 즉, ‘발명 방법의 발명’이 그것이다. 이러한 발명은 특정 혁신 활동의 비용을 절감 할뿐만 아니라 실제로 혁신 자체에 새로운 접근법을 사용한다. 즉, 새로운 도구가 적용되는 영역에서 플레이북(playbook)이 변경되는 것이다.


역사를 통틀어 새로운 연구 도구가 ? 예를 들어, 망원경, 현미경, 분광기, DNA 시퀀서 ? 새로운 측정 및 관측을 가능하게 했을 때 과학 혁명이 시작되었다. 즉 새로운 연구 도구로 인해 우리는 많은 양의 데이터를 수집하고 분석하여 우리 주위의 자연 세계에 대한 이해를 크게 높일 수 있었다. 빅 데이터와 인공 지능 학습 알고리즘은 이제 그러한 과학 혁명을 선도하고 있다.


또한, 이러한 새로운 연구 도구는 이제 지식의 모든 영역에 적용될 수 있다. 이제는 거의 모든 관심 분야의 데이터를 수집하고 점점 더 정교해진 인공지능 알고리즘으로 데이터를 분석할 수 있다. 특히, 기계 학습 방법은 분류 및 예측이 필요한 연구 문제에서 큰 잠재력을 가지며, 주요한 도전 과제의 R&D 프로젝트에서 비용을 크게 절감하고 성능을 향상시킬 수 있다.


“인공지능 기반 학습은 분류 및 예측 작업이 중요한 역할을 하는 많은 영역에서의 검색을 실질적으로 자동화할 수 있다.”


한편으로 그들은 실용적으로 다루어 질 수 있는 일련의 문제를 개방하고 과학 및 기술 공동체의 개념적 접근법과 문제의 프레임을 근본적으로 변화시키는 의미에서 플레이북을 확장할 수 있다.

인공지능 기반 학습의 진보가 강력한 범용 연구 도구의 등장을 의미한다면 경제적, 사회적, 기술적으로도 의미있는 결과가 나타날 것이다. 긍정적 측면에서 볼 때, 기술적 기회의 폭발과 R&D 생산성의 증가는 경제 성장을 일으킬 것이다. 단, 이 경제성장은 일자리, 조직, 생산성에 대한 인공지능의 단기적 여파를 상쇄시켜줄 수 있다. 그러나 경쟁과 사회 복지를 증진시키는 방식으로 혁신을 향상시키는 정책을 개발하는 것이 중요하다.


“경쟁, 데이터 공유, 개방성을 장려하는 제도와 정책의 적극적인 개발이 딥러닝의 개발과 적용으로부터의 경제적 이익을 결정짓는 중요한 요소가 될 것이다.”


신약 발견을 생각해 보자. 약 1060가지의 잠재적 약물 성분 분자가 있다고 추정된다. 태양계의 원자보다 훨씬 더 많은 개수이다. 따라서 인간 연구자들이 가능성 있는 모든 조합을 실험하는 것은 불가능하다. 그러나 기계 학습은 그러한 무한한 가능성을 조사하는 데 능숙하다. 기존 분자와 그 속성의 거대한 데이터베이스에 대해 훈련된 이 프로그램은 가능한 모든 관련 분자를 탐색할 수 있다. 이것은 매우 중요한 것이다. 신약 발견은 대단히 비싸고 좌절을 자주 겪는 과정을 거쳐야 한다. 의약 화학자들(medicinal chemist)은 분자 구조가 어떻게 그 특성에 영향을 주는지에 대한 지식을 활용하여, 어떤 화합물이 좋은 약을 만들지를 추측해야 한다. 그런 다음 무수한 변형을 합성하고 테스트한다. 그러나 대부분은 실패를 맛봐야 한다.


이 중요한 단계를 빠르게 수행함으로써 딥러닝은 의약 화학자들에게 훨씬 더 많은 기회를 제공하고, 결과적으로 약물 발견을 훨씬 더 빠르게 진행시킬 수 있다.


다만 이러한 신약 개발도 인공지능이 가져다 줄 수많은 기회의 한 영역일 뿐이다. 또 다른 영역은 새로운 재료를 고안하는 데 기계 학습을 사용하는 것이다. 우리가 기대하는 목록 중에, 보다 향상된 배터리와 유기(organic) 태양 전지가 있다.


화학, 재료 과학, 신약 개발이 복잡하고 데이터가 포화 상태에 이르면서, 획기적인 기술 개발은 점점 더 어려워지고 비용도 더 추가되고 있다. 제약, 생명 공학 산업이 각종 연구에 자금을 쏟을지라도, 새로운 분자를 기반으로 한 신약의 수는 지난 수십 년 동안 저조한 수준에 머물렀다. 그리고 우리는 1990년대 초반에 등장한 리튬 이온 배터리와 이미 수십 년이 지난 실리콘 태양 전지 설계에 머무르고 있다.


이 분야의 진보를 둔화시켜온 복잡성은 딥러닝이 탁월한 역량을 보이는 부문이다. 어제이 애그러월(Ajay Agrawal) 토론토 대학교 로트만경영대학원 석좌교수는 그의 저술서 『Prediction Machines:The Simple Economics of Artificial Intelligence, 예측기계: 인공지능의 단순 경제학』에서 다차원 공간을 탐색하여 가치있는 예측을 내놓는 것이 ‘인공지능의 스위트스팟(sweet spot)’이라고 밝혔다.


전미경제분석국(National Bureau of Economic Research)의 최근 발표 논문에서, MIT, 하버드, 보스턴 대학의 경제학자들은 인공지능의 가장 큰 경제적 영향은 궁극적으로 혁신 과정의 본질과 R&D 조직을 재구성하는 새로운 ‘발명의 방법’으로서의 잠재력에서 비롯된다고 주장했다.


보스턴 대학교 경제학자이자 논문의 공동 저자인 이언 코번(Iain Cockburn) 교수는 이렇게 말했다.


“폭넓은 적용성을 지닌 ‘새로운 발명의 방법’은 그렇게 자주 발생하는 것이 아니다. 우리의 추정이 맞다면, 인공지능은 수많은 분야에서 R&D 비용에 획기적인 변화를 가져다줄 것이다.”


혁신의 상당 부분은 데이터를 기반으로 하는 예측을 포함한다. 이 부문에 있어 코번 교수는 “기계 학습이 수십 수백 배 훨씬 더 빠르고 저렴하다”고 밝혔다.


즉, 인공지능이 문명에 미치는 주요 영향은 무인 자동차, 이미지 검색, 음성 인식, 비행 자동차가 아니라, 혁신 자체를 발전시키기 위해 새로운 것들을 개발할 수 있는 능력인 것이다.


폴 로머(Paul Romer) 교수는 새로운 아이디어와 혁신에 대한 투자가 어떻게 경제 성장을 이끌었는지를 분석한 공로로 2018년 노벨 경제학상을 수상했다. 그러나 새로운 아이디어에 대한 인간의 파이프라인에 흘러야 할 물이 말라붙고 있다면, 우리는 어떻게 해야 하는가? 스탠포드 대학교와 MIT의 경제학자들은 최근 「Are ideas getting harder to find?, 아이디어를 내기가 더 어려워지고 있는가?」라는 논문에서 똑같은 문제를 지적했다. 약물 발견, 반도체 연구, 의료 혁신, 작물 수확량 개선 노력을 살펴보면서, 이들은 공통된 스토리를 발견했다. 연구 조사에 대한 투자는 급격하게 상승하고 있지만, 그 결과는 여전히 일정하다는 것.


경제학자의 관점에서 볼 때, 이것은 생산성 문제이다. 현재 상황은 비슷한 양의 산출물에 대해 더 많은 지출을 하는 것이다. 그리고 그 수치는 더 나빠지고 있다. 반도체 집적회로의 성능이 18개월마다 2배로 증가한다는 무어의 법칙을 계속 연장하는 업무를 보자. 주어진 결과를 산출하는 데 필요한 연구원 수 대비 실제 연구 결과는 매년 6.8%씩 감소하고 있다. 연구자들은 1970년대 초반 대비 오늘날에도 칩 밀도를 두 배 높이려면 이제 18배 이상의 연구원이 필요하다는 사실을 발견했다. 마찬가지로 농작물 수확량으로 측정한 농업 종자의 연구 산출물은 매년 약 5% 씩 떨어지고 있다. 미국 경제로 더 확대하면, 연구 결과는 매년 5.3%씩 떨어지고 있다.


스탠포드와 MIT의 경제학자들에 따르면 이것은 생산적인 새로운 아이디어를 찾는 데 더 많은 연구원과 자금이 필요하다는 것을 의미한다. 이는 최근 수십 년 동안 미국과 유럽 경제가 전반적으로 부진한 성장을 한 하나의 주요 요인으로 보인다. 위 그래프는 전반적인 경제 패턴을 보여 주며 연구원 수 대비 미국의 2000년∽2014년 간의 평균 총요소 생산성(total factor productivity)을 나타내고 있다. 이와 유사한 패턴이 특정 연구 분야들에서 공통적으로 나타나고 있다.


이러한 쇠퇴의 부정적인 영향은 연구에 대한 더 많은 자금과 인원의 투입으로 상쇄되었다. 그러한 희생을 바탕으로, 우리는 여전히 2년 마다 칩에 2배의 트랜지스터를 올리고 있다. 하지만 어떤 변화가 없다면, 우리는 계속 이러한 유지를 위해 앞으로 13년 동안 연구 개발에 대한 투자를 두 배로 늘려야 할 것이다.


작물 과학 및 반도체 연구와 같은 분야에는 오랜 시간이 투입됐고, 시간이 지날수록 혁신을 위한 기회는 그만큼 줄어들고 있다. 연구자들 또한 경제 혁신과 연계된 전반적인 성장이 둔화되었다는 점을 알고 있다. 새로운 분야에 대한 투자와 그들이 창출한 발명이 이러한 전체적인 상황을 바꾸는지는 못하고 있다.


저조한 연구 생산성은 의심할 여지없이 2000년대 후반과 2010년대 초반에 일어난 대불황(Great Recession) 이후의 성장 둔화에 기여하고 있는 하나의 요소이다. 이러한 쇠퇴가 계속 된다면, 미래의 번영과 성장에 심각한 피해를 줄 수도 있다.


디지털 시대의 열매 중, 가장 낮은 곳에 열린 열매는 이미 수확되었다. 그러나 수확되길 기다리고 있는 새롭고 큰 열매들이 훨씬 더 많이 매달려 있다. 과학이 점차 더 복잡해짐에 따라 종래의 방법으로 그 열매들을 발견하려면 더 많은 돈을 들여야 한다. 다음(next) 페니실린이 연구소에 자연적으로 떨어질 가능성은 희박하다. 특히 화학과 생물학 분야에서 발전하는 과학을 이해하려면, 인간과 기술 자원을 결합하여 점점 더 많은 연구 노력을 기울여야 한다.


이러한 사실을 근거하여 우리는 앞으로 다음과 같은 예측을 내려본다.


첫째, 경제 성장에 있어 거대한 도약은 인공지능에 기반하는 R&D와 혁신에 의해 크게 좌우될 것이다.


인공 지능이나 다른 기술들로 인해 대부분의 직업이 자동화될 때, 인간의 노동력은 유명무실해지고 비용은 더 낮아질 것이다. 또한 인공지능이 혁신과 발견을 자동화하면 솔루션 비용이 저렴해질 뿐만 아니라 잠재적으로 완전히 새로운 수요를 만족시키고 더 많은 일자리를 창출하고 소비자와 주주들을 위한 더 많은 가치를 만들어낼 것이다. 질병을 치료하고 더 많은 사람들에게 저렴한 솔루션을 제공하여 잠재적으로 모든 사람들에게 혜택을 제공하게 될 것이다.


둘째, 재료 개발에 인공 지능을 적용하면 연구 생산성이 크게 향상될 것이다.


오늘날, 새로운 재료를 찾는 데 평균 15∽20년이 소요된다. 비즈니스로 본다면 너무나 긴 시간이다. 연구 단체에 있어서도 비실용적이다. 제대로 활용되거나 그렇지 않을 수도 있는 재료에 수년  간의 시간을 누가 투입하길 원할 것인가. 벤처 캐피탈은 일반적으로 7년 이내에 수익을 창출해야 한다. 다행히도 인공지능을 사용하면 재료 발견 속도가 10배 더 빨라질 수 있다. 예를 들어, MIT 연구팀의 목표는 인공 지능과 기계 학습을 사용하여 실험실의 다양한 병목 현상을 무력화시키고 가능한 수많은 프로세스를 자동화함으로써 15∽20년 정도 시간이 걸리는 상황을 2∼5년으로 단축하는 것이다. 더 빨라진 프로세스는 과학자들에게 훨씬 더 잠재력있는 솔루션들을 테스트하되, 수개월이 아닌 수 시간만에 원하는 결과에 도달하도록 해줄 것이다.


셋째, 인간의 편견을 회피함으로써, 인공지능은 인간 연구자에게는 결코 발견되지 않을 수 있는 발견까지 접근할 것이다.


방대한 양의 실험 데이터와 화학 문헌에 대해 교육받은 딥러닝 프로그램은 과학자들이 결코 상상하지 못했던 새로운 화합물을 개발할 수 있다. 시간이 지날수록 딥러닝의 성능은 배가되고, 질과 양의 측면에서 인간은 딥러닝과 경쟁할 수 없을 것이다.


* *

References List :

1. MIT Technology Review.  February 15, 2019.  David Rotman.  AI is reinventing the way

https://www.technologyreview.com/s/612898/ai-is-reinventing-the-way-we-invent/


2. Harvard Business Review.  November 2016.   Ajay Agrawal, Joshua Gans&Avi Goldfarb.  The Simple Economics of Machine Intelligence.
https://hbr.org/2016/11/the-simple-economics-of-machine-intelligence


3. MIT Sloan Management Review.  Spring 2017.  Ajay Agrawal, Joshua Gans&Avi Goldfarb.  What to Expect From Artificial Intelligence.
https://sloanreview.mit.edu/article/what-to-expect-from-artificial-intelligence/


4. Georgia Institute of Technology.  August 2015.  You-Na Lee.  EXPANDING UNDERSTANDING OF THE INNOVATION PROCESS: R&D AND NON-R&D INNOVATION. 
https://smartech.gatech.edu/bitstream/handle/1853/53903/LEE-DISSERTATION-2015.pdf?sequence=1&isAllowed=y


5. NBER.  Working Paper 24449.  March 2018.  Iain M. Cockburn, Rebecca Henderson, & Scott Stern.  THE IMPACT OF ARTIFICIAL INTELLIGENCE ON INNOVATION 
http://www.nber.org/papers/w24449



Artificial Intelligence Could Revolutionize R&D and Innovation
 
Each of the five Techno-Economic Revolutions has been driven by a bundle of complementary General-Purpose Technologies, or GPTs.  Beyond innovations in existing sectors, the rapidly improving price/performance of GPTs has led over time to the creation of entirely new applications and industries.  For example, in the Mass Production era, the steady declines in the price of electricity and improvement in the efficiency of electric motors led to the radical transformation of manufacturing in the early part of the 20th century with the advent of the assembly line.   It also led to the creation of the consumer appliance industry.   Similarly, the Digital Revolution saw the semiconductor industry take-off, which led to the historical transition from the industrial economy of the past two centuries to our ongoing information economy.  The opportunities created by the 12 GPTs of the digital revolution were examined in 2013’s Ride the Wave by Fred Rogers and Richard Lalich.


Among those perhaps the most difficult to assess is Artificial Intelligence, or AI.  Beyond its use by leading edge technology companies, we’re still in the early stages of AI deployment.  It’s only been in the last few years that major advances in machine learning have taken AI from the lab to early adopters in the marketplace. While considerable innovations and investments are required for its wider deployment, AI is likely to become one of the most important GPTs in the 21st century.


At a seminar last year, University of Toronto Professor Avi Goldfarb, offered a compelling explanation for AI as a GPT.   Goldfarb, along with his colleagues, has been conducting research on the economics of machine intelligence.  Goldfarb says, “The computer revolution can be viewed as being all about the dramatic reductions in the cost of arithmetic calculations. Over the years, we’ve learned to define all kinds of tasks - from inventory management to photography - in terms of such digital operations.  Similarly, the economic value of the internet revolution can be described as reducing the cost of communications and of search, thus enabling us to easily find and access all kinds of information.”  

 
In a 2017 article, Goldfarb and his colleagues wrote that the best way to assess the economic impact of a new radical technology is to look at how the technology reduces the cost of a widely used function.  “Viewed through this lens, our emerging AI revolution can be viewed as reducing the cost of predictions, based on the explosive growth of big data, powerful and inexpensive computer technologies, and advanced machine-learning algorithms.  Given the widespread role of predictions, in business, government, and our everyday lives, AI is most definitely a GPT that’s already having a big impact on a wide range of applications.”


But, AI “may have an even larger impact on the economy by serving as a new general-purpose method of invention that can reshape the nature of the innovation process and the organization of R&D.”  This was the thesis behind The Impact of Artificial Intelligence on Innovation, a paper by professors Iain Cockburn, Rebecca Henderson, and Scott Stern that was prepared for a conference on The Economics of AI in September, 2017.


The authors argue that AI--and deep learning in particular-- is actually a new kind of research tool which will open up new avenues of inquiry across a broad set of domains--an invention of a method of inventing.  Such inventions not only reduce the costs of specific innovation activities, but actually enable a new approach to innovation itself, “altering the playbook in the domains where the new tools are applied.”


Throughout history, scientific revolutions have been launched when new research tools make possible new measurements and observations, e.g., the telescope, the microscope, spectrometers and DNA sequencers. They’ve enabled us to significantly increase our understanding of the natural world around us by collecting and analyzing large amounts of data. Big data and AI learning algorithms are now ushering in such a scientific revolution.


Moreover, these new research tools can be applied to just about any domain of knowledge, given that we can now gather data in almost any area of interest and analyze the data with increasingly sophisticated AI algorithms.  In particular, machine learning methods have great potential in research problems requiring classification and prediction, given their ability to dramatically lower costs and improve performance in R&D projects where these represent significant challenges.


“On the one hand, AI-based learning may be able to substantially automate discovery across many domains where classification and prediction tasks play an important role."


On the other, they may also expand the playbook in the sense of opening up the set of problems that can be feasibly addressed, and radically altering scientific and technical communities’ conceptual approaches and framing of problems.


If advances in AI-based learning represent the arrival of a powerful, general purpose research tool, there will likely be significant economic, social, and technological consequences.  On the positive side, “the resulting explosion in technological opportunities and increased productivity of R&D seem likely to generate economic growth that can eclipse any near-term impact of AI on jobs, organizations, and productivity.”


However, it’s important to develop policies that enhance innovation in a way that promotes competition and social welfare. “The proactive development of institutions and policies that encourage competition, data sharing, and openness is likely to be an important determinant of economic gains from the development and application of deep learning.”


Consider drug discovery.  It’s estimated that there are as many as 1060 potential drug-like molecules; that’s more than the number of atoms in the solar system.  Therefore, human researchers can never hope to explore more than the tiniest slice of what is possible.  But investigating such seemingly unlimited possibilities is what machine learning is good at.  Trained on large databases of existing molecules and their properties, the programs can explore all possible related molecules.


This is a big deal because, drug discovery is a hugely expensive and often frustrating process.  Medicinal chemists must guess which compounds might make good medicines, using their knowledge of how a molecule’s structure affects its properties. Then, they synthesize and test countless variants.  And most are failures.


By speeding up this critical step, deep learning could offer far more opportunities for chemists to pursue, thereby making drug discovery much quicker.


And, drug discovery is just one area of opportunity. Another is using machine learning to invent new materials. Among the items on the wish-list are improved batteries and organic solar cells.


Such breakthroughs have become harder and more expensive to attain as chemistry, materials science, and drug discovery have grown mind-bogglingly complex and saturated with data.  Even as the pharmaceutical and biotech industries pour money into research, the number of new drugs based on novel molecules has been flat over the last few decades.  And we’re still stuck with lithium-ion batteries that date to the early 1990s and designs for silicon solar cells that are also decades old.


The complexity that has slowed progress in these fields is where deep learning excels.  Searching through multi-dimensional spaces to come up with valuable predictions is “AI’s sweet spot,” says Ajay Agrawal, author of Prediction Machines: The Simple Economics of Artificial Intelligence.


In a recent paper from the National Bureau of Economic Research, economists at MIT, Harvard, and Boston University argued that AI’s greatest economic impact could come from its potential as a new “method of invention” that ultimately reshapes “the nature of the innovation process and the organization of R&D.”


Iain Cockburn, a BU economist and coauthor of the paper, says: “New methods of invention with wide applications don’t come by very often, and if our guess is right, AI could dramatically change the cost of doing R&D in many different fields.” Much of innovation involves making predictions based on data.  In such tasks, Cockburn adds, “machine learning could be much faster and cheaper by orders of magnitude.”


In other words, AI’s chief impact on civilization might not be driverless automobiles, image search, speech recognition, or flying cars, but its ability to come up with new inventions to fuel innovation itself.


Paul Romer won the 2018 Nobel Prize in economics for work that showed how investments in new ideas and innovation drive robust economic growth.  But what if our pipeline of new ideas is drying up?  Economists at Stanford and MIT looked at the problem in a recent paper called “Are ideas getting harder to find?”   Looking at drug discovery, semiconductor research, medical innovation, and efforts to improve crop yields, they found a common story: investments in research are climbing sharply, but the payoffs are staying constant.


From an economist’s perspective, that’s a productivity problem: we’re paying more for a similar amount of output. And the numbers look bad.  Research yield, that is, the number of researchers it takes to produce a given result, is declining by around 6.8% annually for the task of extending Moore’s Law, which involves finding ways to pack ever more and smaller components on a semiconductor chip in order to keep making computers faster and more powerful.  They found that it takes more than 18 times as many researchers to double chip density today as it did in the early 1970s.  Similarly, the research yield for agricultural seeds, as measured by crop yields, is dropping by around 5% each year.  And, for the broader U.S. economy, research yield is declining by 5.3% a year.


According to the economists at Stanford and MIT, that means it is taking more researchers and more money to find productive new ideas.  And that seems to be a big factor in the overall sluggish growth of the U.S. and European economies in recent decades.  The graph below shows the pattern for the overall economy, highlighting US total factor productivity (by decade average and for 2000?2014) - a measure of the contribution of innovation - versus the number of researchers.  Similar patterns hold for specific research areas.
 
Any negative effect of this decline has been offset, so far, by the fact that we’re putting more money and people into research. So, we’re still doubling the number of transistors on a chip every two years, but only because we’re dedicating far more people to the problem.  And unless something changes, we’ll have to double our investments in research and development over the next 13 years just to keep treading water.


It could be, of course, that fields like crop science and semiconductor research are getting old and the opportunities for innovation are shriveling up.  However, the researchers also found that overall growth tied to innovation in the economy was slow.  Any investments in new areas, and any inventions they have generated, have failed to change the overall story.
 
Dismal research productivity is undoubtedly a contributor to the slow growth we saw after the Great Recession. And if the decline continues, it could do serious damage to future prosperity and growth.


The “low-hanging fruit” of the digital era has been harvested, but there are clearly plenty of big new discoveries out there ready to be harvested; it’s just getting more expensive to find them with conventional methods, as the science becomes increasingly complex.  The chances that the next penicillin will just fall into our laps are slim.  We’ll need more and more research effort delivered by a combination of human and technological resources to make sense of the advancing science especially in chemistry and biology.
 
Given this trend, we offer the following forecasts for your consideration:


First, the enormous leap in economic growth, which the Trends editors have forecasted through the mid-2030s, will be driven largely by AI-based R&D and innovation. 


When AI or another technology automates most jobs it eliminates human labor and lowers cost, which is good for shareholders and consumers, but not necessarily for workers.  On the other hand, when AI automates innovation and discovery, not only is the solution less expensive, but it potentially satisfies a whole new need, creates more jobs, and creates more value for consumers and shareholders.  Curing diseases and reaching more people with affordable solutions to problems, benefits everyone in potentially game-changing ways.


Second, applying AI to materials development will result in order-of-magnitude increases in research productivity.


Today, it takes an average of 15 to 20 years to come up with a new material.  That’s far too long for most businesses.  It’s impractical even for many academic groups.  Who wants to spend years on a material that may or may not work?  Venture capitalists generally need a return within seven years or sooner.   Fortunately, with AI, a 10x acceleration [in the speed of materials discovery] is possible.  For instance, the goal of an MIT team, is to use AI and machine learning to get that 15-to-20-year time frame down to around two-to-five years by attacking the various bottlenecks in the lab and automating as much of the process as possible.  A faster process gives scientists far more potential solutions to test, allows them to find dead-ends in hours rather than months, and helps optimize the materials.  And,


Third, by avoiding human biases, AI will open-up paths to discoveries that might never occur to a human researcher.


Deep-¬learning programs trained on large amounts of experimental data and chemical literature could come up with novel compounds that scientists never imagined.  That’s just one more reason why those who bet against rising affluence and technological progress are always wrong, in the long-run.


References
1. MIT Technology Review.  February 15, 2019.  David Rotman.  AI is reinventing the way we invent.

https://www.technologyreview.com/s/612898/ai-is-reinventing-the-way-we-invent/


2. Harvard Business Review.  November 2016.   Ajay Agrawal, Joshua Gans & Avi Goldfarb.  The Simple Economics of Machine Intelligence.

https://hbr.org/2016/11/the-simple-economics-of-machine-intelligence


3. MIT Sloan Management Review.  Spring 2017.  Ajay Agrawal, Joshua Gans & Avi Goldfarb.  What to Expect From Artificial Intelligence.

https://sloanreview.mit.edu/article/what-to-expect-from-artificial-intelligence/


4. Georgia Institute of Technology.  August 2015.  You-Na Lee.  EXPANDING UNDERSTANDING OF THE INNOVATION PROCESS: R&D AND NON-R&D INNOVATION.

https://smartech.gatech.edu/bitstream/handle/1853/53903/LEE-DISSERTATION-2015.pdf?sequence=1&isAllowed=y


5. NBER.  Working Paper 24449.  March 2018.  Iain M. Cockburn, Rebecca Henderson, & Scott Stern.  THE IMPACT OF ARTIFICIAL INTELLIGENCE ON INNOVATION.

http://www.nber.org/papers/w24449