서비스 로봇이 로봇산업의 주력을 준비 중
로봇이 우리 생활의 일부로 깊숙하게 들어오게 될까? 우리는 TV 만화 프...



  • 서비스 로봇이 로봇산업의 주력을 준비 중

    로봇이 우리 생활의 일부로 깊숙하게 들어오게 될까? 우리는 TV 만화 프로그램에 나오는 고성능 로봇을 생각하지만 그것은 아직 먼 이야기이다. 실제 현실에서 로봇은 우리 생활에 편의성과 유용함을 주는 방향으로 등장하고 있다. 어떤 로봇들이 나오고 있고, 현재 기술은 어디까지 발전했을까? 미래에는 어떤 형태로 로봇 산업이 발달할까?

    수십 년 동안 사람들은 헬스케어와 가정에서의 서비스 로봇을 상상해 왔다. 하지만 우리에게 가장 가깝게 다가온 것은 레벨3 수준의 자율 주행 자동차, 로봇 청소기, 간혹 로봇 바텐더와 병원 내 일부 파일럿 프로젝트였다.

    가장 큰 문제는 실제 세계에서 일어나는 서비스 환경의 복잡성과 실제 세계의 시나리오를 처리하는데 필요한 미묘한 차이를 로봇에게 훈련시키는 데 있다. 다행스럽게도 로봇 연구자들은 실제 세계의 서비스 작업을 수행하는 데 비용 효율적으로 학습 가능한 로봇을 만드는 방향으로 꾸준한 성과를 내고 있다. 그렇다면 오늘날 로봇공학의 첨단 분야에서는 어떤 일이 일어나고 있고, 이것이 수년 내에 상업화에 있어 어떤 전조를 보이고 있는가? 몇 가지 핵심 사안을 살펴보자.

    로봇이 단순히 시연(demonstration)을 보고 학습할 수 있다고 상상해 보자. 이를 통해 우리는 가정 돌봄 로봇에게 식탁을 차리는 것과 같은 일상적인 집안일을 하는 방법을 보여주고 그 일을 시작하게 할 수 있다. 일터에서는 사람들이 신입 직원들을 훈련하는 방식과 같이 로봇을 훈련시켜 특정 업무를 수행하는 방법을 보여주고 그 일을 하도록 할 수 있다. 도로에서 자율주행 자동차는 주변의 인간 운전자들이 운전을 수행하는 것을 단순히 보는 것만으로도 안전하게 운전하는 방법을 배울 수 있다. 즉, 로봇은 사람이 하는 방식을 학습한다.

    다행히 우리는 이러한 비전을 실현하는 데 상당한 진전을 이루고 있다. USC, 서던캘리포니아 대학교(University of Southern California)의 연구자들은 ‘불완전’할 수도 있는 매우 적은 수의 시연을 통해 로봇이 복잡한 작업을 자율적으로 학습할 수 있도록 하는 시스템을 설계했다. ‘신호 시간 로직을 활용한 시연을 통한 학습(Learning from Demonstrations Using Signal Temporal Logic)’으로 명명된 이들의 연구 결과는 2020년 11월 ’로봇 학습 컨퍼런스(the Conference on Robot Learning)‘에 발표되었다.

    USC 연구자들이 만든 시스템은 각 시연의 품질을 평가함으로서 작동하는 데, 이러한 평가는 시스템이 바라보는 실수와 성공을 통해 학습을 수행하도록 한다. 현재 최첨단 방법은 특정 작업을 수행하는 데 최소한 100번의 시연을 필요로 한다. 하지만 USC의 새로운 방법을 사용하면 로봇이 적은 시연만으로도 학습을 충분히 수행할 수 있다. 또한 로봇은 인간이 인간들끼리 서로 배우는 방식을 보다 직관적으로 학습할 수도 있다. 이는 로봇이 사람들 중 누군가가 불완전하더라도 업무를 수행하는 것을 지켜보고, 이를 시도하는 것을 의미한다. 알다시피, 시연은 인간이 서로 업무를 수행하는 것을 지켜봄으로써 지식을 수집하는 것만큼 완벽할 필요는 없다.

    사실 인간도 불완전한 존재이다. 그래서 로봇이 모든 상황에서 무언가를 수행하는 데 필요로 하는 바를 명시적으로 특정 하는 데 있어 ‘모든 프로그래밍 지식’을 가진 사람은 거의 없을 것이다. 인간이 로봇에게 알아야 하는 모든 것을 보여주는 것은 불가능하고, 로봇이 전에 본 적 없는 상황과 직면했을 때 어떤 일이 일어날지 예상하는 것도 불가능하다. 따라서 가정이나 일터에 로봇을 널리 배포하려면 시연을 통한 학습이 중요한 것이다.

    USC 연구자들은 시연의 품질을 평가하고, 순위를 자동으로 매겨 보상을 생성하는 ‘신호 시간 로직’인 STL(Signal Temporal Logic)을 통합함으로써, 로봇 훈련의 일반적인 장애물 문제를 해결했다. 따라서 시연의 일부가 논리 요구 사항에 따라 의미가 없더라도 로봇은 여전히 ​​불완전한 부분에서 학습할 수 있다. 어떤 면에서 이 시스템은 시연의 정확성 또는 시연의 성공에 대한 자체적인 결론을 내리고 있다.

    로봇이 실습 시연, 비디오 또는 시뮬레이션과 같은 다양한 유형의 시연으로부터 학습한다고 가정해 보자. ‘로봇에게 가르치는 교사들’이 매우 안전하지 않은 일을 하는 경우, 표준 접근 방식은 두 가지 중 하나를 수행하는 것이다. 즉, 로봇이 이를 완전히 무시하거나, 혹은 잘못된 것을 학습하는 것이다.

    이와 대조되게, STL은 시연의 어떤 부분이 좋고 어떤 부분이 그렇지 않은지 이해하도록 ‘상식적 추론’을 사용한다. 본질적으로 이는 인간이 실제로 하는 일이기도 하다. 예를 들어, 누군가 정지 신호를 무시하는 운전 시연을 가정해 보자. 이 시연은 양심적인 운전자가 시연하는 것보다 시스템에 의해 더 낮은 순위에 매겨질 것이다. 그러나 이 시연 중에 운전자가 지능적 행동을 한다면, 예를 들어, 충돌을 피하기 위해 브레이크를 밟는 등의 행동을 한다면, 로봇은 여전히 ​​그 지능적 행동에 대해 학습할 것이다.

    STL은 현재와 미래의 결과에 대해 로봇이 추론할 수 있도록 하는 수학적 기호 언어이다. 시간이 중요한 로봇과 자율주행 자동차와 같이 우리가 가상 물리적 시스템의 세계에 진입했을 때, STL은 물리적 신호에 대한 추론을 허용한다. 연구자들은 이 시스템의 성공 수준에 놀라움을 표했다. 앞으로 USC 연구자들은 이 접근 방식을 로봇 시스템에 통합하여 시연과 경험을 통해 로봇을 효율적으로 학습시킬 수 있도록 계속 연구할 것이다.

    한편, 존스 홉킨스 대학교 연구자들은 다음과 같은 질문을 던졌다.

    ‘로봇이 스킬을 학습하게 하려면 우리는 무엇을 해야 하는가?’

    이들의 답은 긍정적 강화(positive reinforcement)로 로봇을 훈련시키는 것이었다. 이 접근법은 강아지의 행동을 바꾸기 위해 간식을 사용해 본 사람이라면 누구에게나 친숙한 것이다. 이 연구 사례에서, 연구팀은 로봇의 스킬을 극적으로 향상시켰는데, 그것도 현실 세계 응용을 위한 훈련 로봇을 더 현실적으로 만들기에 충분할 정도로 빠르게 수행하는 결과를 만들었다.

    고도로 직관적인 두뇌를 가지고 태어난 인간이나 동물과 달리 컴퓨터는 백지 상태로 모든 것을 처음부터 학습해야 한다. 그러나 인간이나 동물 모두 실제 학습은 종종 시행착오를 통해 이루어지며 로봇 공학자들은 ​​로봇도 실수로부터 효율적인 학습을 할 수 있는 방법을 알아내고 있다.

    존 홉킨스 연구팀은 개에게 과제를 처리하는 것과 같은 방식으로, 로봇에 대해 작동하는 보상 시스템을 고안했다. 개가 과제를 잘 처리하면 쿠키를 얻을 수 있는 반면 로봇은 점수를 얻는다. 예를 들어, 연구원들이 스팟(Spot)이라는 로봇에게 블록 쌓기를 가르칠 때, 로봇은 ‘건설적’ 행동에 집중하는 방법을 배워야 했다. 로봇은 블록을 탐색하면서 쌓기와 관련된 올바른 행동은 높은 점수를 얻었지만 잘못된 행동은 아무 것도 얻지 못했다는 것을 빠르게 학습했다. 예를 들어, ‘손을 내밀었지만 블록을 잡지 못했나요?’는 점수를 얻지 못했다. ‘스택이 넘어졌어요?’도 확실히 점수를 얻지 못했다. 스팟은 4블록 스택의 꼭대기에 마지막 블록을 배치하여 가장 많은 점수를 얻었다.

    이 훈련 방법은 효과가 있었을 뿐만 아니라 로봇에게 기존에 가르치는 데 몇 주가 걸리던 것을 며칠로 단축시키는 결과를 이끌었다. 연구팀은 먼저 비디오 게임과 매우 유사한 시뮬레이션 로봇을 훈련시킨 다음 스팟으로 테스트를 실행하여 연습 시간을 단축시킬 수 있었다.

    로봇은 더 높은 점수를 ‘원하도록’ 프로그래밍 되어 있다. 따라서 최고의 보상을 얻기 위한 올바른 행동을 빠르게 학습한다. 다른 접근 방식을 사용하면 스팟이 블록으로 100% 정확도를 달성하는 데 한 달의 연습이 필요했지만, 긍정적 강화 방식을 활용하면 이틀 밖에 걸리지 않았다.

    긍정적 강화는 로봇이 스스로 블록을 쌓는 것을 가르치는 데 도움이 될 뿐만 아니라 포인트 시스템으로 로봇이 시뮬레이션 된 탐색 게임을 플레이하는 방법을 포함, 여러 다른 작업을 빠르게 학습하는 데 도움이 되었다. 중요한 점은 모든 유형의 상황에서 실수로부터 배우는 능력이 새로운 환경에 적응할 수 있는 로봇을 설계하는 데 있다.

    연구팀은 이러한 발견이 가정용 로봇이 세탁과 설거지를 하도록 훈련시키는 데 도움이 될 것으로 기대하고 있다. 또한 자율주행 자동차의 성능을 개선하는 데도 도움이 될 수 있다.

    존 홉킨스 대학 연구팀의 목표는 궁극적으로 제품 조립, 노인 돌보기, 심지어 수술과 같은 실제 세계에서 복잡한 작업을 수행할 수 있는 로봇을 개발하는 것이다. 그러나 현재 우리는 그러한 작업을 프로그래밍하는 방법을 모른다. 현실 세계는 너무나 복잡하기 때문이다. 그러나 이와 같은 연구는 로봇이 안전하고 효율적인 방식으로 이렇게 복잡한 실제 작업을 수행하는 법을 학습할 수 있는 방법이 있음을 보여준다.

    예를 들어, 요리할 수 있는 로봇은 수십 년 동안 공상 과학 소설가, 미래학자, 과학자들의 열망이었다. 그리고 인공지능 기술이 발전함에 따라 프로토타입 로봇 요리사가 탄생했다. 물론 오늘날 상업적으로 이용 가능한 것은 없지만 이는 주로 현재 우리의 기술 수준이 부족하기 때문이다.

    로봇이 음식을 준비하고 요리하도록 가르치는 것은 어려운 작업이다. 일관된 최종 제품을 생산하기 위해 로봇 조작, 컴퓨터 비전, 감지, 인간-로봇 상호 작용의 복잡한 문제를 처리해야 하기 때문이다. 게다가 사람의 취향은 모두 천차만별이다. 그리고 맛은 보편적이지 않기 때문에 보편적인 해결책은 존재하지 않는다. 다른 연구 그룹은 쿠키, 팬케이크, 심지어 피자를 만들기 위해 로봇을 훈련했지만 이 로봇 요리사들은 요리와 관련된 많은 주관적 변수에 최적화되지 않았다.

    계란 요리, 특히 오믈렛은 오랫동안 요리 기술의 시험대로 여겨져 왔다. 오믈렛은 만들기는 쉽지만 잘 만들기는 어려운 요리 중 하나이다. 그래서 영국 케임브리지 대학교의 연구팀은 요리 로봇의 경우 맛, 질감, 향, 외형을 위해 오믈렛을 만드는 로봇 요리사를 최적화하는 하는 것이 이상적 테스트가 될 것이라고 생각했다.

    연구팀은 영국의 가전업체 베코(Beko)와 협력하여 로봇 요리사가 계란을 깨는 것부터 완성된 요리를 접시에 올리는 ‘플레이팅’까지 모든 단계를 수행하여 오믈렛을 준비하도록 훈련시켰다. 이 연구는 베코와 심포니 그룹에서 제공한 테스트 키친을 사용하여 캐임브리지 엔지니어링 학과에서 수행되었다.

    이들이 개발한 기계 학습 기술은 베이지안 추론(Bayesian inference)이라는 통계 도구를 사용한 것이다. 베이지안 추론은 베이즈 추론(Bayes’ inference)이라고도 불리는데, 실험을 통해 추가 정보를 얻은 다음, 베이즈 정리를 사용하여 가설 확률을 업데이트하는 통계적 추론 방법이다. 최근 인공지능 분야에서는 사전 데이터로부터 배운 지식을 추가 데이터로 조건에 맞게 업데이트할 때 이 베이지안 추론을 사용하고 있다. 오믈렛을 맛보는 사람이 과식하는 것을 피하기 위해 이 기술은 제한된 수의 데이터 샘플에서 가능한 한 많은 정보를 압축했다.

    연구팀이 직면한 또 다른 도전 과제는 인간 미각의 주관적 속성이었다. 인간은 음식에 관해 절대 평가를 잘 하지 못하기 때문에 일반적으로 맛에 관해서는 상대 평가를 해야 한다. 그래서 연구팀은 배치 알고리즘(the batch algorithm)으로 불리는 기계 학습 알고리즘을 수정해야 했다. 그래야 인간 맛보기가 절대 평가가 아닌 비교 평가를 기반으로 피드백을 줄 수 있기 때문이다.

    그렇다면 로봇 요리사는 어떤 평가를 받았을까? 훈련 과정이 끝날 때 만든 오믈렛은 일반적으로 ‘훌륭한’ 맛이 났다. 연구원들이 예상한 것보다 훨씬 더 맛이 좋았다!

    연구 결과는 기계 학습을 사용하여 로봇의 음식 준비 기술을 정량적으로 개선할 수 있음을 보여주었다. 또한 이러한 접근 방식은 여러 로봇 요리사에게 쉽게 확대될 수 있다.

    이 연구 결과는 IEEE 로봇 자동화 레터스(IEEE Robotics and Automation Letters) 저널에 보고되었으며 IEEE 국제 컨퍼런스(IEEE International Conference on Robotics and Automation)에서 소개가 이뤄졌다.

    앞으로 이와 또 다른 최적화 기술과 그 실행 가능성을 찾기 위한 추가 연구가 수행될 것이다. 연구에 참여한 가전 회사 베코는 미래의 주방을 설계하는 데 열정적이며 이와 같은 로봇 공학 응용 프로그램이 중요한 역할을 할 것이라고 믿고 있다.

    대중 시장을 겨냥한 상업용 로봇은 21세기 후반에 엄청난 수익을 창출할 것이 분명하다. 이중 정교한 서비스 로봇을 상용화할 수 있는 자원과 장기적 비전을 가진 유력한 산업들이 있다. 바로 헬스케어 산업과 군수 산업이다. 현재 군수 산업 분야에서는 센서, 배터리, 모터, 컴퓨팅 성능 측면에서 고된 과업을 수행 중이다. 헬스케어 산업에서는 로봇을 위한 최첨단 훈련 기술을 개발하는 데 필요한 사용 사례와 자금을 제공하고 있다.

    오늘날 헬스케어 환경에서 사용되는 로봇의 종류는 수행해야 하는 업무만큼이나 다양하다. 그러나 이러한 로봇은 대부분 현재 ‘파일럿 프로그램’으로 운용되고 있다. 예를 들어, 현재 병원 직원이 환자를 안전하게 들어 올리는 데 도움이 되는 로봇 외골격이 있으며, 전동식 룸서비스 카트와 같이 병원 복도를 오가는 이송용 로봇이 있다. 한편, 인형 같이 생긴 치료 로봇은 ‘방향 감각 상실 치매 증상’으로 불안한 환자를 위로하고 진정시킨다. 그리고 인간 약사는 처방전을 작성할 때 로봇 조제 시스템과 함께 일하고 있다.

    확실한 사실은 점점 더 고급 훈련 및 감지 기술로 인해 로봇이 인간 간병인들을 힘들게 하는 업무를 대신할 준비를 하고 있다는 것이다. 예를 들어 로봇이 사람들의 식사를 돕는 역할을 한다고 생각해 보자. 2010년 인구 조사 데이터에 따르면 미국 성인 약 100만 명이 식사를 도와줄 사람을 필요로 했다. 2030년까지 이 수치는 극적으로 증가할 것으로 예상된다. 간병인을 통해 매일 식사를 의존하면 사람의 독립심에 문제가 발생한다. 따라서 이들에게 자신의 삶에 대한 더 많은 통제권을 부여할 필요가 있다.

    이러한 수요를 해결하기 위해 워싱턴 대학교의 연구자들은 휠체어에 부착되어 먹고 싶은 것을 먹여주는 자율 급식 시스템을 연구하고 있다. 이 아이디어는 접시에 있는 다양한 음식을 식별하고 포크를 사용하여 원하는 것을 집어 사람의 입에 전달할 수 있는 로봇 시스템과 관련이 있다.

    워싱턴 연구팀은 자신들의 연구 결과를 ‘IEEE 로봇 자동화 레터스’ 저널에 게재하고, ACM IEEE 국제 컨퍼런스에서 이를 공식 발표했다.

    프로젝트를 시작했을 때 연구원들은 다음과 같은 사실을 깨달았다. 음식의 크기, 모양 또는 일관성에 따라 음식을 먹을 수 있는 방법이 너무 많아서 어디서부터 시작해야 할지 알기 어렵다는 것이었다. 해결책은 인간이 포도, 당근과 같은 일반적 음식을 어떻게 먹는지 알아보기 위한 실험을 설정하는 것에 있었다.

    연구자들은 단단한 당근에서 부드러운 바나나에 이르기까지 약 12가지 종류의 음식이 담긴 접시를 배열했다. 접시에는 토마토, 포도와 같이 껍질이 있고 속이 부드러운 음식도 포함되어 있었다. 그런 다음 연구팀은 자원 봉사자들에게 포크를 주고 다른 음식 조각을 집어 마네킹에게 먹일 것을 요청했다. 포크에는 사람들이 음식을 집었을 때 얼마나 많은 힘을 가했는지 측정하는 센서가 설치되어 있었다.

    자원 봉사자들은 다양한 전략을 사용하여 일관성이 다른 음식을 집어 들었다. 예를 들어, 바나나와 같은 부드러운 물건은 포크에서 미끄러지지 않도록 비스듬히 꼬챙이에 꽂았다. 당근, 포도와 같은 품목의 경우 포크를 꼽기 위해 더 큰 힘을 사용했다.

    음식 항목에 따라 달라지는 이러한 부분들을 설계하기 위해 연구원들은 두 가지 다른 알고리즘을 결합했다. 첫째, 그들은 접시를 스캔하고 그 위의 음식 유형을 식별하고 각 항목 주위에 프레임을 배치하는, 레티나넷(RetinaNet)이라는 물체 감지 알고리즘을 사용했다. 이후 연구팀은 특정 프레임에서 음식 유형을 검사하고 로봇에게 음식을 집는 가장 좋은 방법을 알려주는 알고리즘인 SP넷(SPNet)을 개발했다. 예를 들어 SP넷은 로봇에게 중간에 딸기나 바나나 한 조각을 꽂고 양쪽 끝에 당근을 꽂으라고 지시하는 것이다.

    연구팀은 로봇이 음식 조각을 집어 자원 봉사자에게 SP넷 또는 보다 균일한 전략을 사용하여 먹이도록 했다. SP넷의 다양한 전략은 모든 식품에 대한 균일한 접근 방식을 능가하거나 동일하게 수행했다. 

    연구팀은 현재 사람들의 필요에 맞게 시스템을 개선하는 방법에 대해 생활 보조 시설의 간병인과 환자로부터 피드백을 받고 있다. 이 연구의 궁극적 목표는 간병인을 대체하는 것이 아니라 로봇이 사람들이 스스로 점심이나 저녁을 먹도록 돕는 것이다. 로봇의 도움으로 간병인은 접시를 세팅한 다음 환자가 식사하는 동안 다른 중요한 일을 할 수 있을 것이다.

    훈련이 필요한 또 다른 헬스케어 응용 프로그램은 사람들이 옷을 입도록 돕는 것이고 이는 매우 큰 시장이다. 미국에서만 약 백만 명 이상이 부상, 질병, 고령의 이유로 옷을 입기 위해 매일 타인의 도움을 필요로 한다. 이 부문에 있어 로봇이 잠재적으로 도움이 될 수 있다. 그러나 옷감과 인체를 다루는 일은 로봇에게 복잡한 과제이다.

    이러한 요구를 해결하기 위해 조지아 공과 대학교(Georgia Institute of Technology)가 제작한 로봇은 환자의 팔에 병원 가운을 성공적으로 밀어 넣고 있는 중이다. PR2로 불리는 로봇은 인간의 팔에 가운을 입히는 시뮬레이션 사례 약 11,000개를 분석하여 하루 만에 스스로 학습을 완료했다.

    사람들은 시행착오를 통해 새로운 기술을 배운다. 그래서 조지아 공대 연구자들은 PR2에게 같은 기회를 제공했다. 인간에게 직접적으로 수천 번의 시도를 하는 것은 위험할 뿐만 아니라 불가능할 정도로 지루한 일이기에, 로봇은 시뮬레이션을 사용하여 단 하루 만에 사람이 옷을 입는 동안 신체적으로 느낄 수 있는 것들을 학습했다.

    로봇은 또한 가운을 다양한 방식으로 움직일 때 그 결과를 예측하는 법도 학습했다. 어떤 동작은 가운을 팽팽하게 만들어 사람의 몸에 세게 잡아당겼고, 또 다른 움직임은 환자의 팔을 따라 가운을 부드럽게 움직인다. 로봇은 이러한 예측을 활용하여 팔에 편안하게 옷을 입히는 동작을 선택한다.

    시뮬레이션에 성공한 후 PR2는 사람들에게 옷을 입히려고 시도했다. 참가자들은 로봇 앞에 앉아 가운이 팔에 미끄러지듯 착용되는 모습을 지켜보았다. 로봇은 시각 대신 촉각을 사용하는 시뮬레이션을 통해 학습한 내용을 기반으로 이 과제를 수행했다.

    핵심은 이 로봇이 항상 앞서 생각한다는 점이다. 로봇은 스스로에게 묻는다. ‘이 방식으로 가운을 당기면 사람의 팔에 어느 정도 힘이 가해질까?’ ‘대신 다른 방법을 쓰면 어떤 일이 일어날까?’

    연구자들은 로봇의 타이밍을 변화시켰고 로봇이 다음 움직임에 대해 전략을 세우는 동안 바로 앞에 일어날 일에 대해 1/5초만큼 생각할 수 있도록 조정했다. 로봇은 행동의 물리적 영향을 예측함으로써 보다 안전하고 편안하며 효과적인 지원을 제공할 수 있었다.

    산업용 로봇과 달리 서비스 로봇은 사람의 감정에 대한 반응, 상황에 대한 반응을 예상해야 하는 과제를 목표로 하는 경우가 많다. 그렇기 때문에 인간의 감정을 읽고 모방하도록 로봇을 훈련시키는 것이 또 하나의 매우 중요한 개발 영역이다. 그리고 이는 이미 뚜렷한 결과를 내고 있다.

    타임 지는 스티비(Stevie)를 신체적으로 그리고 사회적으로 참여하여 사용자를 돕도록 설계된 ‘사회적 보조 로봇’이라 소개한 바 있다. 이 4피트 7인치 로봇에는 자율주행 기능이 탑재되어 있다. 당연히 누구의 도움이 없어도 복도를 굴러갈 수 있지만, 스티비는 통제권자 없이는 절대 방을 떠나지 않는다. 스티비는 아마존(Amazon)의 알렉사(Alexa)와 유사한 음성 활성화 컨트롤을 지니고 있으며 말, 제스처, 머리 움직임으로 단어에 응답한다. 예를 들어 로봇에게 아프다고 말하면 LED 화면에 슬픈 표정을 지으며 앞으로 몸을 숙이고 ‘미안해요’라고 말한다. 스티비에게 칭찬을 하면 화면이 웃는 얼굴로 바뀐다. 쉬고 있을 때는 머리를 부드럽게 기울이고 디지털 갈색 눈을 깜박이며 참을성 있게 다음 명령을 기다린다.

    스티비와 같은 ‘사회적 보조 로봇’은 생활 보호기관이나 요양원에서 유용하다. 스티비는 몸에 장착할 수 있는 터치스크린으로 식사 주문을 받으며 곳곳을 찾아갈 수 있다. 그리고 이 로봇은 ‘도와주세요’와 같은 음성 명령을 인식할 수 있기 때문에 직원에게 곤경에 처한 거주자를 알릴 수도 있다.

    사람들은 이보다 앞서 로봇이 자신들과 함께 머물면서 상호작용하기를 원한다. 그들은 로봇과 친구관계 맺기, 즉 ‘로봇 친구’를 원한다. 따라서 로봇의 최종 버전은 여전히 운송이나 배송을 할 수 있겠지만, 주된 역할은 사교성이 될 것이다. 물론 이것은 중요한 발견이지만 새로운 것은 아니다.

    사회적 로봇에 대한 연구는 감정에 반응하는 기계가 노인과 어린이를 포함한 가장 취약한 사람들을 도울 수 있음을 보여준 바 있다. 그리고 로봇이 사회적으로 더 널리 받아들여지게 만들 수도 있다.

    다른 사람을 돌보는 데 도움이 되는 로봇은 종종 감정적 상호작용의 최첨단에 있다. 로보카인드(RoboKind)라는 기업은 마일로(Milo)라는 로봇을 만들었는데, 마일로는 자폐 스펙트럼 장애가 있는 어린이에 대한 진행 상황 데이터를 수집한다. 동시에 해당 어린이들이 감정 표현과 공감에 대해 더 많이 학습할 수 있도록 유도한다. 즉, 마일로는 로봇 교사이자 학생인 셈이다. 이 로봇의 친근한 얼굴은 접근성을 높여주는데, 아이들이 사회적 불안감을 느끼지 않으면서 로봇의 표현을 분석할 수 있도록 고안되었다.

    로봇이 스트레스를 줄여줄 수 있는 또 다른 상황은 병원 환경이다. 이 문제를 해결하기 위해 엑스퍼 테크(Expper Tech)의 로빈(Robin)이라는 로봇은 치료를 받는 아이들에게 정서적 지지를 제공하는 동반자로 설계되었다. 로빈은 아이들에게 의료 절차를 설명하고, 게임을 하고, 이야기를 들려주고, 치료 중에는 통증에 대한 인식을 줄이기 위해 주의를 분산시킨다.

    엑스퍼 테크의 로봇은 인공지능을 사용하여 공감을 만들고 표정과 대화를 기억하여 후속 세션을 위한 대화를 구축한다. 실험에서 연구팀은 로빈이 그와 한 번 이상 상호 작용한 120명 어린이들의 스트레스를 34% 감소시키고 행복을 26% 증가시키는 것으로 나타났다.

    의료 로봇은 모두 인간의 감정을 인식하고 반응하고 어느 정도는 관리하는 감성 지능을 표시함으로써 이점을 얻을 수 있다. 이러한 수준의 정교함이 가져오는 문제는 로봇이 사회적 상황을 처리하는 데 더 능숙해짐에 따라 이 업무를 수행해왔던 인간의 직업을 사라지게 할 수 있다는 두려움이다.

    그러나 인구 추세에 따르면 로봇이 돌봄에 있어 사람들과 함께 일하는 수요는 시간이 지남에 따라 증가할 것이다. 2050년까지 전 세계적으로 65세 이상 인구는 16억 명이 될 것이며 이는 현재 인구의 약 2배에 해당한다. 추가로 350만 명의 간병인이 필요할 것이며, 이는 많은 감성 지능 로봇을 위한 공간을 마련해야 한다는 의미이다.

    이미 상대적으로 간단한 시스템이 이러한 수요를 충족시키기 위해 훈련되고 있다. 여기에는 걷는 방식으로 사람의 기분을 추측할 수 있는 바퀴 달린 작은 로봇 프록스에모(ProxEmo)가 포함된다. 또 다른 사례는 영국 링컨 대학교의 ‘생활환경 보조 로봇’인 엔리치미(ENRICHME)이다. 엔리치미는 노인들이 육체적, 정신적으로 활동적인 상태를 유지하도록 돕는다.

    앞으로 진정한 인간 상호 작용의 복잡성에 대처하기 위해 전체 스펙트럼의 감성 인공지능이 필요할 것이며, 이것이 어펙티바(Affectiva)와 같은 기업의 목표이다. 지금까지 이 기업은 분노, 경멸, 혐오, 두려움, 놀람, 슬픔, 기쁨의 7가지 감정을 감지하도록 알고리즘을 훈련시켰다. 이 학습을 수행하기 위해 전 세계 국가에서 900만 명이 넘는 얼굴이 사용되었다.

    지금까지 사회적 로봇이 우리 삶에 미치는 영향은 미미했다. 그러나 곧 큰 돌파구를 마련할 더 새롭고 더 정교한 모델이 도입되고 있다. 인간의 감정은 정의하기 어렵지만 로봇에 대한 신뢰가 높아질수록 심리적 장벽을 깨는 것은 어려워 보이지 않는다.

    서비스 로봇에 대한 결론은 무엇일까?

    그것은 현실 속의 장소에서 실제 사람을 다루는 훈련 서비스 로봇이 전 세계적으로 점점 더 연구의 초점이 되고 있다는 것이다. 그리고 혁신적인 사고, 정교한 소프트웨어, 고급 센서, 컴퓨팅 성능의 결합으로 한때 불가능했던 기능을 매우 비용 효율적으로 만들 수 있다는 것이다. 이는 티핑 포인트에 접근하는 산업의 특징이기도 하다.

    이러한 추세를 감안할 때 우리는 다음과 같은 예측을 내린다.

    첫째, 서비스 로봇은 실제 현실의 환경에서 비용 효율적으로 실질적 결과를 생성할 수 있는 경우에만 사용자들에게 받아들여질 것이다.

    다양한 버전의 로봇 청소기 룸바(Roomba)와 바닥 청소 경쟁 로봇들이 이 점을 증명하고 있다. 기존 센서와 소프트웨어를 사용하여 이 청소 로봇이 집안을 탐색하고 문제를 회피하여 바닥을 청소하도록 훈련시킬 수 있을 만큼의 수준에 이르자, 사람들은 이 로봇을 전적으로 편안하게 받아들이고 있다. 그외 다른 범주에 속하는 서비스 로봇들은 아직 이 수준에 이르지 못했다.

    둘째, 서비스 로봇의 대규모 도입은 장기 요양 시설에서 발현될 것이다.

    하버드 대학교의 클레이튼 크리스텐센(Clayton Christensen)이 강조했듯이, 파괴적 기술은 먼저 기존 제품이 잘 제공되지 않는 시장에 침투한다. 건강한 사람들은 많은 가사 일을 빠르고 저렴하게 스스로 수행할 수 있다. 건강 문제가 있는 부유한 사람들은 스스로 할 수 없거나 하지 않을 작업을 수행하도록 다른 사람을 쉽게 고용할 수 있다. 그러나 장기 요양 시설에 있는 사람들은 일반적으로 시설 직원들이 제공 가능한 것보다 더 많은 사회적 상호 작용과 개인적 서비스를 원한다. 음식을 먹여주거나, 옷을 입혀주거나, 장소를 이동할 때, 특수 목적 로봇은 이들에게 연중무휴 솔루션이 될 것이다.

    셋째, 오늘날 헬스케어 시범 서비스에서 볼 수 있듯, 최적의 서비스 로봇은 하나의 다목적 로봇이 아닌 특정 목적의 로봇 무리들을 도입하는 형태로 받아들여질 것이다.

    가정에서 이 무리들은 기존 최첨단 기기 사이의 간격을 채울 것이다. 예를 들어 식기 세척기, 냉장고, 전자레인지, 텔레비전, 경보 시스템, 조명 시스템, 스마트 수도꼭지, 헬스케어 모니터, 알렉사와 같은 스마트 비서 등이 모두 지금보다 더 통합적이 되면서, 강력해지고 기능은 더 풍부해질 것이다. 식품, 종이 제품, 개인위생 용품과 같은 소모품 하위 시스템은 RF-ID 기술을 사용하여 품목을 보충하고 준비하고 폐기하는 형태로 운용될 것 같다. 원격 의료 시스템에는 웨어러블 센서와 인공지능 기반의 모니터링 시스템이 포함될 수 있다.

    넷째, TV 만화 프로그램 우주가족 젯슨(Jetson)에 등장하는 하녀 로봇인 로지(Rosie)처럼 고급 범용 가정용 로봇은 2030년까지 기술적으로 실현 가능하지만 2040년 이전에는 비용 효율적이지 않을 것이다.

    고급 범용 가정용 로봇은 군사용 보병 로봇과 마찬가지로 해당 목적을 수행하는 데 필요한 민첩성, 안정성, 내구성을 갖추는 데 가까워지고 있다. 그러나 F-35 전투기와 마찬가지로 구축 및 유지 비용이 매우 비싸다. 다행히도 대부분의 방어 시스템과 마찬가지로 핵심 기술이 성숙해지면서, 점차 비용 효율적으로 이동하게 될 것이다. 고급 범용 가정용 로봇 또한 그 이후에나 등장할 것이다.

    * * 

    References List :
    1. Conference on Robot Learning (CoRL) 2020. February 15, 2021. Aniruddh G. Puranic, Jyotirmoy V. Deshmukh & Stefanos Nikolaidis. Learning from Demonstrations using Signal Temporal Logic.
    https://arxiv.org/pdf/2102.07730.pdf

    2. IEEE Robotics and Automation Letters (2020). Kai Junge et al. Improving Robotic Cooking using Batch Bayesian Optimization.

    3. IEEE Robotics and Automation Letters, 2020. Andrew Hundt, Benjamin Killeen, Nicholas Greene, Hongtao Wu, Heeyeon Kwon, Chris Paxton & Gregory D. Hager. “Good Robot!”: Efficient Reinforcement Learning for Multi-Step Visual Tasks with Sim to Real Transfer.

    4. IEEE Robotics and Automation Letters, 2019. Tapomayukh Bhattacharjee, Gilwoo Lee, Hanjun Song & Siddhartha S. Srinivasa. Towards Robotic Feeding: Role of Haptics in Fork-Based Food Manipulation.

    5. TechXplore.com. January 11, 2018. New ’emotional’ robots aim to read human feelings.

    6. Time Magazine. October 4, 2019. Corinne Purtill. Stop Me if You’ve Heard This One: A Robot and a Team of Irish Scientists Walk Into a Senior Living Home.

    7. IEEE Robotics and Automation Letters, 2020. Kai Junge, Josie Hughes, Thomas George Thuruthel & Fumiya Iida. I mproving Robotic Cooking Using Batch Bayesian Optimization.

    8. Reuters.com. August 3, 2017. Mark Miller. The Future of U. S. Caregiving: High Demand, Scarce Workers.