로봇이 우리 생활의 일부로 깊숙하게 들어오게 될까? 우리는 TV 만화 프로그램에 나오는 고성능 로봇을 생각하지만 그것은 아직 먼 이야기이다. 실제 현실에서 로봇은 우리 생활에 편의성과 유용함을 주는 방향으로 등장하고 있다. 어떤 로봇들이 나오고 있고, 현재 기술은 어디까지 발전했을까? 미래에는 어떤 형태로 로봇 산업이 발달할까?
수십 년 동안 사람들은 헬스케어와 가정에서의 서비스 로봇을 상상해 왔다. 하지만 우리에게 가장 가깝게 다가온 것은 레벨3 수준의 자율 주행 자동차, 로봇 청소기, 간혹 로봇 바텐더와 병원 내 일부 파일럿 프로젝트였다.
가장 큰 문제는 실제 세계에서 일어나는 서비스 환경의 복잡성과 실제 세계의 시나리오를 처리하는데 필요한 미묘한 차이를 로봇에게 훈련시키는 데 있다. 다행스럽게도 로봇 연구자들은 실제 세계의 서비스 작업을 수행하는 데 비용 효율적으로 학습 가능한 로봇을 만드는 방향으로 꾸준한 성과를 내고 있다. 그렇다면 오늘날 로봇공학의 첨단 분야에서는 어떤 일이 일어나고 있고, 이것이 수년 내에 상업화에 있어 어떤 전조를 보이고 있는가? 몇 가지 핵심 사안을 살펴보자.
로봇이 단순히 시연(demonstration)을 보고 학습할 수 있다고 상상해 보자. 이를 통해 우리는 가정 돌봄 로봇에게 식탁을 차리는 것과 같은 일상적인 집안일을 하는 방법을 보여주고 그 일을 시작하게 할 수 있다. 일터에서는 사람들이 신입 직원들을 훈련하는 방식과 같이 로봇을 훈련시켜 특정 업무를 수행하는 방법을 보여주고 그 일을 하도록 할 수 있다. 도로에서 자율주행 자동차는 주변의 인간 운전자들이 운전을 수행하는 것을 단순히 보는 것만으로도 안전하게 운전하는 방법을 배울 수 있다. 즉, 로봇은 사람이 하는 방식을 학습한다.
다행히 우리는 이러한 비전을 실현하는 데 상당한 진전을 이루고 있다. USC, 서던캘리포니아 대학교(University of Southern California)의 연구자들은 ‘불완전’할 수도 있는 매우 적은 수의 시연을 통해 로봇이 복잡한 작업을 자율적으로 학습할 수 있도록 하는 시스템을 설계했다. ‘신호 시간 로직을 활용한 시연을 통한 학습(Learning from Demonstrations Using Signal Temporal Logic)’으로 명명된 이들의 연구 결과는 2020년 11월 ’로봇 학습 컨퍼런스(the Conference on Robot Learning)‘에 발표되었다.
USC 연구자들이 만든 시스템은 각 시연의 품질을 평가함으로서 작동하는 데, 이러한 평가는 시스템이 바라보는 실수와 성공을 통해 학습을 수행하도록 한다. 현재 최첨단 방법은 특정 작업을 수행하는 데 최소한 100번의 시연을 필요로 한다. 하지만 USC의 새로운 방법을 사용하면 로봇이 적은 시연만으로도 학습을 충분히 수행할 수 있다. 또한 로봇은 인간이 인간들끼리 서로 배우는 방식을 보다 직관적으로 학습할 수도 있다. 이는 로봇이 사람들 중 누군가가 불완전하더라도 업무를 수행하는 것을 지켜보고, 이를 시도하는 것을 의미한다. 알다시피, 시연은 인간이 서로 업무를 수행하는 것을 지켜봄으로써 지식을 수집하는 것만큼 완벽할 필요는 없다.
사실 인간도 불완전한 존재이다. 그래서 로봇이 모든 상황에서 무언가를 수행하는 데 필요로 하는 바를 명시적으로 특정 하는 데 있어 ‘모든 프로그래밍 지식’을 가진 사람은 거의 없을 것이다. 인간이 로봇에게 알아야 하는 모든 것을 보여주는 것은 불가능하고, 로봇이 전에 본 적 없는 상황과 직면했을 때 어떤 일이 일어날지 예상하는 것도 불가능하다. 따라서 가정이나 일터에 로봇을 널리 배포하려면 시연을 통한 학습이 중요한 것이다.
USC 연구자들은 시연의 품질을 평가하고, 순위를 자동으로 매겨 보상을 생성하는 ‘신호 시간 로직’인 STL(Signal Temporal Logic)을 통합함으로써, 로봇 훈련의 일반적인 장애물 문제를 해결했다. 따라서 시연의 일부가 논리 요구 사항에 따라 의미가 없더라도 로봇은 여전히 불완전한 부분에서 학습할 수 있다. 어떤 면에서 이 시스템은 시연의 정확성 또는 시연의 성공에 대한 자체적인 결론을 내리고 있다.
로봇이 실습 시연, 비디오 또는 시뮬레이션과 같은 다양한 유형의 시연으로부터 학습한다고 가정해 보자. ‘로봇에게 가르치는 교사들’이 매우 안전하지 않은 일을 하는 경우, 표준 접근 방식은 두 가지 중 하나를 수행하는 것이다. 즉, 로봇이 이를 완전히 무시하거나, 혹은 잘못된 것을 학습하는 것이다.
이와 대조되게, STL은 시연의 어떤 부분이 좋고 어떤 부분이 그렇지 않은지 이해하도록 ‘상식적 추론’을 사용한다. 본질적으로 이는 인간이 실제로 하는 일이기도 하다. 예를 들어, 누군가 정지 신호를 무시하는 운전 시연을 가정해 보자. 이 시연은 양심적인 운전자가 시연하는 것보다 시스템에 의해 더 낮은 순위에 매겨질 것이다. 그러나 이 시연 중에 운전자가 지능적 행동을 한다면, 예를 들어, 충돌을 피하기 위해 브레이크를 밟는 등의 행동을 한다면, 로봇은 여전히 그 지능적 행동에 대해 학습할 것이다.
STL은 현재와 미래의 결과에 대해 로봇이 추론할 수 있도록 하는 수학적 기호 언어이다. 시간이 중요한 로봇과 자율주행 자동차와 같이 우리가 가상 물리적 시스템의 세계에 진입했을 때, STL은 물리적 신호에 대한 추론을 허용한다. 연구자들은 이 시스템의 성공 수준에 놀라움을 표했다. 앞으로 USC 연구자들은 이 접근 방식을 로봇 시스템에 통합하여 시연과 경험을 통해 로봇을 효율적으로 학습시킬 수 있도록 계속 연구할 것이다.
한편, 존스 홉킨스 대학교 연구자들은 다음과 같은 질문을 던졌다.
‘로봇이 스킬을 학습하게 하려면 우리는 무엇을 해야 하는가?’
이들의 답은 긍정적 강화(positive reinforcement)로 로봇을 훈련시키는 것이었다. 이 접근법은 강아지의 행동을 바꾸기 위해 간식을 사용해 본 사람이라면 누구에게나 친숙한 것이다. 이 연구 사례에서, 연구팀은 로봇의 스킬을 극적으로 향상시켰는데, 그것도 현실 세계 응용을 위한 훈련 로봇을 더 현실적으로 만들기에 충분할 정도로 빠르게 수행하는 결과를 만들었다.
고도로 직관적인 두뇌를 가지고 태어난 인간이나 동물과 달리 컴퓨터는 백지 상태로 모든 것을 처음부터 학습해야 한다. 그러나 인간이나 동물 모두 실제 학습은 종종 시행착오를 통해 이루어지며 로봇 공학자들은 로봇도 실수로부터 효율적인 학습을 할 수 있는 방법을 알아내고 있다.
존 홉킨스 연구팀은 개에게 과제를 처리하는 것과 같은 방식으로, 로봇에 대해 작동하는 보상 시스템을 고안했다. 개가 과제를 잘 처리하면 쿠키를 얻을 수 있는 반면 로봇은 점수를 얻는다. 예를 들어, 연구원들이 스팟(Spot)이라는 로봇에게 블록 쌓기를 가르칠 때, 로봇은 ‘건설적’ 행동에 집중하는 방법을 배워야 했다. 로봇은 블록을 탐색하면서 쌓기와 관련된 올바른 행동은 높은 점수를 얻었지만 잘못된 행동은 아무 것도 얻지 못했다는 것을 빠르게 학습했다. 예를 들어, ‘손을 내밀었지만 블록을 잡지 못했나요?’는 점수를 얻지 못했다. ‘스택이 넘어졌어요?’도 확실히 점수를 얻지 못했다. 스팟은 4블록 스택의 꼭대기에 마지막 블록을 배치하여 가장 많은 점수를 얻었다.
이 훈련 방법은 효과가 있었을 뿐만 아니라 로봇에게 기존에 가르치는 데 몇 주가 걸리던 것을 며칠로 단축시키는 결과를 이끌었다. 연구팀은 먼저 비디오 게임과 매우 유사한 시뮬레이션 로봇을 훈련시킨 다음 스팟으로 테스트를 실행하여 연습 시간을 단축시킬 수 있었다.
로봇은 더 높은 점수를 ‘원하도록’ 프로그래밍 되어 있다. 따라서 최고의 보상을 얻기 위한 올바른 행동을 빠르게 학습한다. 다른 접근 방식을 사용하면 스팟이 블록으로 100% 정확도를 달성하는 데 한 달의 연습이 필요했지만, 긍정적 강화 방식을 활용하면 이틀 밖에 걸리지 않았다.
긍정적 강화는 로봇이 스스로 블록을 쌓는 것을 가르치는 데 도움이 될 뿐만 아니라 포인트 시스템으로 로봇이 시뮬레이션 된 탐색 게임을 플레이하는 방법을 포함, 여러 다른 작업을 빠르게 학습하는 데 도움이 되었다. 중요한 점은 모든 유형의 상황에서 실수로부터 배우는 능력이 새로운 환경에 적응할 수 있는 로봇을 설계하는 데 있다.
연구팀은 이러한 발견이 가정용 로봇이 세탁과 설거지를 하도록 훈련시키는 데 도움이 될 것으로 기대하고 있다. 또한 자율주행 자동차의 성능을 개선하는 데도 도움이 될 수 있다.
존 홉킨스 대학 연구팀의 목표는 궁극적으로 제품 조립, 노인 돌보기, 심지어 수술과 같은 실제 세계에서 복잡한 작업을 수행할 수 있는 로봇을 개발하는 것이다. 그러나 현재 우리는 그러한 작업을 프로그래밍하는 방법을 모른다. 현실 세계는 너무나 복잡하기 때문이다. 그러나 이와 같은 연구는 로봇이 안전하고 효율적인 방식으로 이렇게 복잡한 실제 작업을 수행하는 법을 학습할 수 있는 방법이 있음을 보여준다.
예를 들어, 요리할 수 있는 로봇은 수십 년 동안 공상 과학 소설가, 미래학자, 과학자들의 열망이었다. 그리고 인공지능 기술이 발전함에 따라 프로토타입 로봇 요리사가 탄생했다. 물론 오늘날 상업적으로 이용 가능한 것은 없지만 이는 주로 현재 우리의 기술 수준이 부족하기 때문이다.
로봇이 음식을 준비하고 요리하도록 가르치는 것은 어려운 작업이다. 일관된 최종 제품을 생산하기 위해 로봇 조작, 컴퓨터 비전, 감지, 인간-로봇 상호 작용의 복잡한 문제를 처리해야 하기 때문이다. 게다가 사람의 취향은 모두 천차만별이다. 그리고 맛은 보편적이지 않기 때문에 보편적인 해결책은 존재하지 않는다. 다른 연구 그룹은 쿠키, 팬케이크, 심지어 피자를 만들기 위해 로봇을 훈련했지만 이 로봇 요리사들은 요리와 관련된 많은 주관적 변수에 최적화되지 않았다.
계란 요리, 특히 오믈렛은 오랫동안 요리 기술의 시험대로 여겨져 왔다. 오믈렛은 만들기는 쉽지만 잘 만들기는 어려운 요리 중 하나이다. 그래서 영국 케임브리지 대학교의 연구팀은 요리 로봇의 경우 맛, 질감, 향, 외형을 위해 오믈렛을 만드는 로봇 요리사를 최적화하는 하는 것이 이상적 테스트가 될 것이라고 생각했다.
연구팀은 영국의 가전업체 베코(Beko)와 협력하여 로봇 요리사가 계란을 깨는 것부터 완성된 요리를 접시에 올리는 ‘플레이팅’까지 모든 단계를 수행하여 오믈렛을 준비하도록 훈련시켰다. 이 연구는 베코와 심포니 그룹에서 제공한 테스트 키친을 사용하여 캐임브리지 엔지니어링 학과에서 수행되었다.
이들이 개발한 기계 학습 기술은 베이지안 추론(Bayesian inference)이라는 통계 도구를 사용한 것이다. 베이지안 추론은 베이즈 추론(Bayes’ inference)이라고도 불리는데, 실험을 통해 추가 정보를 얻은 다음, 베이즈 정리를 사용하여 가설 확률을 업데이트하는 통계적 추론 방법이다. 최근 인공지능 분야에서는 사전 데이터로부터 배운 지식을 추가 데이터로 조건에 맞게 업데이트할 때 이 베이지안 추론을 사용하고 있다. 오믈렛을 맛보는 사람이 과식하는 것을 피하기 위해 이 기술은 제한된 수의 데이터 샘플에서 가능한 한 많은 정보를 압축했다.
연구팀이 직면한 또 다른 도전 과제는 인간 미각의 주관적 속성이었다. 인간은 음식에 관해 절대 평가를 잘 하지 못하기 때문에 일반적으로 맛에 관해서는 상대 평가를 해야 한다. 그래서 연구팀은 배치 알고리즘(the batch algorithm)으로 불리는 기계 학습 알고리즘을 수정해야 했다. 그래야 인간 맛보기가 절대 평가가 아닌 비교 평가를 기반으로 피드백을 줄 수 있기 때문이다.
그렇다면 로봇 요리사는 어떤 평가를 받았을까? 훈련 과정이 끝날 때 만든 오믈렛은 일반적으로 ‘훌륭한’ 맛이 났다. 연구원들이 예상한 것보다 훨씬 더 맛이 좋았다!
연구 결과는 기계 학습을 사용하여 로봇의 음식 준비 기술을 정량적으로 개선할 수 있음을 보여주었다. 또한 이러한 접근 방식은 여러 로봇 요리사에게 쉽게 확대될 수 있다.
이 연구 결과는 IEEE 로봇 자동화 레터스(IEEE Robotics and Automation Letters) 저널에 보고되었으며 IEEE 국제 컨퍼런스(IEEE International Conference on Robotics and Automation)에서 소개가 이뤄졌다.
앞으로 이와 또 다른 최적화 기술과 그 실행 가능성을 찾기 위한 추가 연구가 수행될 것이다. 연구에 참여한 가전 회사 베코는 미래의 주방을 설계하는 데 열정적이며 이와 같은 로봇 공학 응용 프로그램이 중요한 역할을 할 것이라고 믿고 있다.
대중 시장을 겨냥한 상업용 로봇은 21세기 후반에 엄청난 수익을 창출할 것이 분명하다. 이중 정교한 서비스 로봇을 상용화할 수 있는 자원과 장기적 비전을 가진 유력한 산업들이 있다. 바로 헬스케어 산업과 군수 산업이다. 현재 군수 산업 분야에서는 센서, 배터리, 모터, 컴퓨팅 성능 측면에서 고된 과업을 수행 중이다. 헬스케어 산업에서는 로봇을 위한 최첨단 훈련 기술을 개발하는 데 필요한 사용 사례와 자금을 제공하고 있다.
오늘날 헬스케어 환경에서 사용되는 로봇의 종류는 수행해야 하는 업무만큼이나 다양하다. 그러나 이러한 로봇은 대부분 현재 ‘파일럿 프로그램’으로 운용되고 있다. 예를 들어, 현재 병원 직원이 환자를 안전하게 들어 올리는 데 도움이 되는 로봇 외골격이 있으며, 전동식 룸서비스 카트와 같이 병원 복도를 오가는 이송용 로봇이 있다. 한편, 인형 같이 생긴 치료 로봇은 ‘방향 감각 상실 치매 증상’으로 불안한 환자를 위로하고 진정시킨다. 그리고 인간 약사는 처방전을 작성할 때 로봇 조제 시스템과 함께 일하고 있다.
확실한 사실은 점점 더 고급 훈련 및 감지 기술로 인해 로봇이 인간 간병인들을 힘들게 하는 업무를 대신할 준비를 하고 있다는 것이다. 예를 들어 로봇이 사람들의 식사를 돕는 역할을 한다고 생각해 보자. 2010년 인구 조사 데이터에 따르면 미국 성인 약 100만 명이 식사를 도와줄 사람을 필요로 했다. 2030년까지 이 수치는 극적으로 증가할 것으로 예상된다. 간병인을 통해 매일 식사를 의존하면 사람의 독립심에 문제가 발생한다. 따라서 이들에게 자신의 삶에 대한 더 많은 통제권을 부여할 필요가 있다.
이러한 수요를 해결하기 위해 워싱턴 대학교의 연구자들은 휠체어에 부착되어 먹고 싶은 것을 먹여주는 자율 급식 시스템을 연구하고 있다. 이 아이디어는 접시에 있는 다양한 음식을 식별하고 포크를 사용하여 원하는 것을 집어 사람의 입에 전달할 수 있는 로봇 시스템과 관련이 있다.
워싱턴 연구팀은 자신들의 연구 결과를 ‘IEEE 로봇 자동화 레터스’ 저널에 게재하고, ACM IEEE 국제 컨퍼런스에서 이를 공식 발표했다.
프로젝트를 시작했을 때 연구원들은 다음과 같은 사실을 깨달았다. 음식의 크기, 모양 또는 일관성에 따라 음식을 먹을 수 있는 방법이 너무 많아서 어디서부터 시작해야 할지 알기 어렵다는 것이었다. 해결책은 인간이 포도, 당근과 같은 일반적 음식을 어떻게 먹는지 알아보기 위한 실험을 설정하는 것에 있었다.
연구자들은 단단한 당근에서 부드러운 바나나에 이르기까지 약 12가지 종류의 음식이 담긴 접시를 배열했다. 접시에는 토마토, 포도와 같이 껍질이 있고 속이 부드러운 음식도 포함되어 있었다. 그런 다음 연구팀은 자원 봉사자들에게 포크를 주고 다른 음식 조각을 집어 마네킹에게 먹일 것을 요청했다. 포크에는 사람들이 음식을 집었을 때 얼마나 많은 힘을 가했는지 측정하는 센서가 설치되어 있었다.
자원 봉사자들은 다양한 전략을 사용하여 일관성이 다른 음식을 집어 들었다. 예를 들어, 바나나와 같은 부드러운 물건은 포크에서 미끄러지지 않도록 비스듬히 꼬챙이에 꽂았다. 당근, 포도와 같은 품목의 경우 포크를 꼽기 위해 더 큰 힘을 사용했다.
음식 항목에 따라 달라지는 이러한 부분들을 설계하기 위해 연구원들은 두 가지 다른 알고리즘을 결합했다. 첫째, 그들은 접시를 스캔하고 그 위의 음식 유형을 식별하고 각 항목 주위에 프레임을 배치하는, 레티나넷(RetinaNet)이라는 물체 감지 알고리즘을 사용했다. 이후 연구팀은 특정 프레임에서 음식 유형을 검사하고 로봇에게 음식을 집는 가장 좋은 방법을 알려주는 알고리즘인 SP넷(SPNet)을 개발했다. 예를 들어 SP넷은 로봇에게 중간에 딸기나 바나나 한 조각을 꽂고 양쪽 끝에 당근을 꽂으라고 지시하는 것이다.
연구팀은 로봇이 음식 조각을 집어 자원 봉사자에게 SP넷 또는 보다 균일한 전략을 사용하여 먹이도록 했다. SP넷의 다양한 전략은 모든 식품에 대한 균일한 접근 방식을 능가하거나 동일하게 수행했다.
연구팀은 현재 사람들의 필요에 맞게 시스템을 개선하는 방법에 대해 생활 보조 시설의 간병인과 환자로부터 피드백을 받고 있다. 이 연구의 궁극적 목표는 간병인을 대체하는 것이 아니라 로봇이 사람들이 스스로 점심이나 저녁을 먹도록 돕는 것이다. 로봇의 도움으로 간병인은 접시를 세팅한 다음 환자가 식사하는 동안 다른 중요한 일을 할 수 있을 것이다.
훈련이 필요한 또 다른 헬스케어 응용 프로그램은 사람들이 옷을 입도록 돕는 것이고 이는 매우 큰 시장이다. 미국에서만 약 백만 명 이상이 부상, 질병, 고령의 이유로 옷을 입기 위해 매일 타인의 도움을 필요로 한다. 이 부문에 있어 로봇이 잠재적으로 도움이 될 수 있다. 그러나 옷감과 인체를 다루는 일은 로봇에게 복잡한 과제이다.
이러한 요구를 해결하기 위해 조지아 공과 대학교(Georgia Institute of Technology)가 제작한 로봇은 환자의 팔에 병원 가운을 성공적으로 밀어 넣고 있는 중이다. PR2로 불리는 로봇은 인간의 팔에 가운을 입히는 시뮬레이션 사례 약 11,000개를 분석하여 하루 만에 스스로 학습을 완료했다.
사람들은 시행착오를 통해 새로운 기술을 배운다. 그래서 조지아 공대 연구자들은 PR2에게 같은 기회를 제공했다. 인간에게 직접적으로 수천 번의 시도를 하는 것은 위험할 뿐만 아니라 불가능할 정도로 지루한 일이기에, 로봇은 시뮬레이션을 사용하여 단 하루 만에 사람이 옷을 입는 동안 신체적으로 느낄 수 있는 것들을 학습했다.
로봇은 또한 가운을 다양한 방식으로 움직일 때 그 결과를 예측하는 법도 학습했다. 어떤 동작은 가운을 팽팽하게 만들어 사람의 몸에 세게 잡아당겼고, 또 다른 움직임은 환자의 팔을 따라 가운을 부드럽게 움직인다. 로봇은 이러한 예측을 활용하여 팔에 편안하게 옷을 입히는 동작을 선택한다.
시뮬레이션에 성공한 후 PR2는 사람들에게 옷을 입히려고 시도했다. 참가자들은 로봇 앞에 앉아 가운이 팔에 미끄러지듯 착용되는 모습을 지켜보았다. 로봇은 시각 대신 촉각을 사용하는 시뮬레이션을 통해 학습한 내용을 기반으로 이 과제를 수행했다.
핵심은 이 로봇이 항상 앞서 생각한다는 점이다. 로봇은 스스로에게 묻는다. ‘이 방식으로 가운을 당기면 사람의 팔에 어느 정도 힘이 가해질까?’ ‘대신 다른 방법을 쓰면 어떤 일이 일어날까?’
연구자들은 로봇의 타이밍을 변화시켰고 로봇이 다음 움직임에 대해 전략을 세우는 동안 바로 앞에 일어날 일에 대해 1/5초만큼 생각할 수 있도록 조정했다. 로봇은 행동의 물리적 영향을 예측함으로써 보다 안전하고 편안하며 효과적인 지원을 제공할 수 있었다.
산업용 로봇과 달리 서비스 로봇은 사람의 감정에 대한 반응, 상황에 대한 반응을 예상해야 하는 과제를 목표로 하는 경우가 많다. 그렇기 때문에 인간의 감정을 읽고 모방하도록 로봇을 훈련시키는 것이 또 하나의 매우 중요한 개발 영역이다. 그리고 이는 이미 뚜렷한 결과를 내고 있다.
타임 지는 스티비(Stevie)를 신체적으로 그리고 사회적으로 참여하여 사용자를 돕도록 설계된 ‘사회적 보조 로봇’이라 소개한 바 있다. 이 4피트 7인치 로봇에는 자율주행 기능이 탑재되어 있다. 당연히 누구의 도움이 없어도 복도를 굴러갈 수 있지만, 스티비는 통제권자 없이는 절대 방을 떠나지 않는다. 스티비는 아마존(Amazon)의 알렉사(Alexa)와 유사한 음성 활성화 컨트롤을 지니고 있으며 말, 제스처, 머리 움직임으로 단어에 응답한다. 예를 들어 로봇에게 아프다고 말하면 LED 화면에 슬픈 표정을 지으며 앞으로 몸을 숙이고 ‘미안해요’라고 말한다. 스티비에게 칭찬을 하면 화면이 웃는 얼굴로 바뀐다. 쉬고 있을 때는 머리를 부드럽게 기울이고 디지털 갈색 눈을 깜박이며 참을성 있게 다음 명령을 기다린다.
스티비와 같은 ‘사회적 보조 로봇’은 생활 보호기관이나 요양원에서 유용하다. 스티비는 몸에 장착할 수 있는 터치스크린으로 식사 주문을 받으며 곳곳을 찾아갈 수 있다. 그리고 이 로봇은 ‘도와주세요’와 같은 음성 명령을 인식할 수 있기 때문에 직원에게 곤경에 처한 거주자를 알릴 수도 있다.
사람들은 이보다 앞서 로봇이 자신들과 함께 머물면서 상호작용하기를 원한다. 그들은 로봇과 친구관계 맺기, 즉 ‘로봇 친구’를 원한다. 따라서 로봇의 최종 버전은 여전히 운송이나 배송을 할 수 있겠지만, 주된 역할은 사교성이 될 것이다. 물론 이것은 중요한 발견이지만 새로운 것은 아니다.
사회적 로봇에 대한 연구는 감정에 반응하는 기계가 노인과 어린이를 포함한 가장 취약한 사람들을 도울 수 있음을 보여준 바 있다. 그리고 로봇이 사회적으로 더 널리 받아들여지게 만들 수도 있다.
다른 사람을 돌보는 데 도움이 되는 로봇은 종종 감정적 상호작용의 최첨단에 있다. 로보카인드(RoboKind)라는 기업은 마일로(Milo)라는 로봇을 만들었는데, 마일로는 자폐 스펙트럼 장애가 있는 어린이에 대한 진행 상황 데이터를 수집한다. 동시에 해당 어린이들이 감정 표현과 공감에 대해 더 많이 학습할 수 있도록 유도한다. 즉, 마일로는 로봇 교사이자 학생인 셈이다. 이 로봇의 친근한 얼굴은 접근성을 높여주는데, 아이들이 사회적 불안감을 느끼지 않으면서 로봇의 표현을 분석할 수 있도록 고안되었다.
로봇이 스트레스를 줄여줄 수 있는 또 다른 상황은 병원 환경이다. 이 문제를 해결하기 위해 엑스퍼 테크(Expper Tech)의 로빈(Robin)이라는 로봇은 치료를 받는 아이들에게 정서적 지지를 제공하는 동반자로 설계되었다. 로빈은 아이들에게 의료 절차를 설명하고, 게임을 하고, 이야기를 들려주고, 치료 중에는 통증에 대한 인식을 줄이기 위해 주의를 분산시킨다.
엑스퍼 테크의 로봇은 인공지능을 사용하여 공감을 만들고 표정과 대화를 기억하여 후속 세션을 위한 대화를 구축한다. 실험에서 연구팀은 로빈이 그와 한 번 이상 상호 작용한 120명 어린이들의 스트레스를 34% 감소시키고 행복을 26% 증가시키는 것으로 나타났다.
의료 로봇은 모두 인간의 감정을 인식하고 반응하고 어느 정도는 관리하는 감성 지능을 표시함으로써 이점을 얻을 수 있다. 이러한 수준의 정교함이 가져오는 문제는 로봇이 사회적 상황을 처리하는 데 더 능숙해짐에 따라 이 업무를 수행해왔던 인간의 직업을 사라지게 할 수 있다는 두려움이다.
그러나 인구 추세에 따르면 로봇이 돌봄에 있어 사람들과 함께 일하는 수요는 시간이 지남에 따라 증가할 것이다. 2050년까지 전 세계적으로 65세 이상 인구는 16억 명이 될 것이며 이는 현재 인구의 약 2배에 해당한다. 추가로 350만 명의 간병인이 필요할 것이며, 이는 많은 감성 지능 로봇을 위한 공간을 마련해야 한다는 의미이다.
이미 상대적으로 간단한 시스템이 이러한 수요를 충족시키기 위해 훈련되고 있다. 여기에는 걷는 방식으로 사람의 기분을 추측할 수 있는 바퀴 달린 작은 로봇 프록스에모(ProxEmo)가 포함된다. 또 다른 사례는 영국 링컨 대학교의 ‘생활환경 보조 로봇’인 엔리치미(ENRICHME)이다. 엔리치미는 노인들이 육체적, 정신적으로 활동적인 상태를 유지하도록 돕는다.
앞으로 진정한 인간 상호 작용의 복잡성에 대처하기 위해 전체 스펙트럼의 감성 인공지능이 필요할 것이며, 이것이 어펙티바(Affectiva)와 같은 기업의 목표이다. 지금까지 이 기업은 분노, 경멸, 혐오, 두려움, 놀람, 슬픔, 기쁨의 7가지 감정을 감지하도록 알고리즘을 훈련시켰다. 이 학습을 수행하기 위해 전 세계 국가에서 900만 명이 넘는 얼굴이 사용되었다.
지금까지 사회적 로봇이 우리 삶에 미치는 영향은 미미했다. 그러나 곧 큰 돌파구를 마련할 더 새롭고 더 정교한 모델이 도입되고 있다. 인간의 감정은 정의하기 어렵지만 로봇에 대한 신뢰가 높아질수록 심리적 장벽을 깨는 것은 어려워 보이지 않는다.
서비스 로봇에 대한 결론은 무엇일까?
그것은 현실 속의 장소에서 실제 사람을 다루는 훈련 서비스 로봇이 전 세계적으로 점점 더 연구의 초점이 되고 있다는 것이다. 그리고 혁신적인 사고, 정교한 소프트웨어, 고급 센서, 컴퓨팅 성능의 결합으로 한때 불가능했던 기능을 매우 비용 효율적으로 만들 수 있다는 것이다. 이는 티핑 포인트에 접근하는 산업의 특징이기도 하다.
이러한 추세를 감안할 때 우리는 다음과 같은 예측을 내린다.
첫째, 서비스 로봇은 실제 현실의 환경에서 비용 효율적으로 실질적 결과를 생성할 수 있는 경우에만 사용자들에게 받아들여질 것이다.
다양한 버전의 로봇 청소기 룸바(Roomba)와 바닥 청소 경쟁 로봇들이 이 점을 증명하고 있다. 기존 센서와 소프트웨어를 사용하여 이 청소 로봇이 집안을 탐색하고 문제를 회피하여 바닥을 청소하도록 훈련시킬 수 있을 만큼의 수준에 이르자, 사람들은 이 로봇을 전적으로 편안하게 받아들이고 있다. 그외 다른 범주에 속하는 서비스 로봇들은 아직 이 수준에 이르지 못했다.
둘째, 서비스 로봇의 대규모 도입은 장기 요양 시설에서 발현될 것이다.
하버드 대학교의 클레이튼 크리스텐센(Clayton Christensen)이 강조했듯이, 파괴적 기술은 먼저 기존 제품이 잘 제공되지 않는 시장에 침투한다. 건강한 사람들은 많은 가사 일을 빠르고 저렴하게 스스로 수행할 수 있다. 건강 문제가 있는 부유한 사람들은 스스로 할 수 없거나 하지 않을 작업을 수행하도록 다른 사람을 쉽게 고용할 수 있다. 그러나 장기 요양 시설에 있는 사람들은 일반적으로 시설 직원들이 제공 가능한 것보다 더 많은 사회적 상호 작용과 개인적 서비스를 원한다. 음식을 먹여주거나, 옷을 입혀주거나, 장소를 이동할 때, 특수 목적 로봇은 이들에게 연중무휴 솔루션이 될 것이다.
셋째, 오늘날 헬스케어 시범 서비스에서 볼 수 있듯, 최적의 서비스 로봇은 하나의 다목적 로봇이 아닌 특정 목적의 로봇 무리들을 도입하는 형태로 받아들여질 것이다.
가정에서 이 무리들은 기존 최첨단 기기 사이의 간격을 채울 것이다. 예를 들어 식기 세척기, 냉장고, 전자레인지, 텔레비전, 경보 시스템, 조명 시스템, 스마트 수도꼭지, 헬스케어 모니터, 알렉사와 같은 스마트 비서 등이 모두 지금보다 더 통합적이 되면서, 강력해지고 기능은 더 풍부해질 것이다. 식품, 종이 제품, 개인위생 용품과 같은 소모품 하위 시스템은 RF-ID 기술을 사용하여 품목을 보충하고 준비하고 폐기하는 형태로 운용될 것 같다. 원격 의료 시스템에는 웨어러블 센서와 인공지능 기반의 모니터링 시스템이 포함될 수 있다.
넷째, TV 만화 프로그램 우주가족 젯슨(Jetson)에 등장하는 하녀 로봇인 로지(Rosie)처럼 고급 범용 가정용 로봇은 2030년까지 기술적으로 실현 가능하지만 2040년 이전에는 비용 효율적이지 않을 것이다.
고급 범용 가정용 로봇은 군사용 보병 로봇과 마찬가지로 해당 목적을 수행하는 데 필요한 민첩성, 안정성, 내구성을 갖추는 데 가까워지고 있다. 그러나 F-35 전투기와 마찬가지로 구축 및 유지 비용이 매우 비싸다. 다행히도 대부분의 방어 시스템과 마찬가지로 핵심 기술이 성숙해지면서, 점차 비용 효율적으로 이동하게 될 것이다. 고급 범용 가정용 로봇 또한 그 이후에나 등장할 것이다.
* *
References List :
1. Conference on Robot Learning (CoRL) 2020. February 15, 2021. Aniruddh G. Puranic, Jyotirmoy V. Deshmukh & Stefanos Nikolaidis. Learning from Demonstrations using Signal Temporal Logic.
https://arxiv.org/pdf/2102.07730.pdf
2. IEEE Robotics and Automation Letters (2020). Kai Junge et al. Improving Robotic Cooking using Batch Bayesian Optimization.
3. IEEE Robotics and Automation Letters, 2020. Andrew Hundt, Benjamin Killeen, Nicholas Greene, Hongtao Wu, Heeyeon Kwon, Chris Paxton & Gregory D. Hager. “Good Robot!”: Efficient Reinforcement Learning for Multi-Step Visual Tasks with Sim to Real Transfer.
4. IEEE Robotics and Automation Letters, 2019. Tapomayukh Bhattacharjee, Gilwoo Lee, Hanjun Song & Siddhartha S. Srinivasa. Towards Robotic Feeding: Role of Haptics in Fork-Based Food Manipulation.
6. Time Magazine. October 4, 2019. Corinne Purtill. Stop Me if You’ve Heard This One: A Robot and a Team of Irish Scientists Walk Into a Senior Living Home.
7. IEEE Robotics and Automation Letters, 2020. Kai Junge, Josie Hughes, Thomas George Thuruthel & Fumiya Iida. I mproving Robotic Cooking Using Batch Bayesian Optimization.
For decades people have envisioned service robots in health care and the home, yet the closest we’ve come are Level III self-driving cars, robot vacuums, an occasional robot bartender, and some pilot projects in hospitals.
The biggest problem is the complexity of real-world service environments and the nuances of training a robot to deal with real-world service scenarios. Fortunately, researchers are making steady progress toward creating robots that can be cost-effectively trained to perform real-world service tasks.
What is happening on the leading-edge of robotics and what does this portend for commercialization in the coming years? Consider some key examples.
Imagine if robots could learn from simply watching demonstrations. That would enable us to show a home-care robot how to do routine chores like setting a dinner table and then just let it start doing it. In the workplace, people could train robots the way they train new employees, showing them how to perform a specific set of duties and then letting them do them. And on the road, a self-driving car could learn how to drive safely by simply watching a human drive around the neighborhood. In short, robots would learn the way people do.
Fortunately, we’re making significant progress toward realizing that vision. Researchers at USC have designed a system that lets robots autonomously learn complicated tasks from a very small number of demonstrations which might be “imperfect.” The results of their study titled Learning from Demonstrations Using Signal Temporal Logic was presented at the Conference on Robot Learning in November 2020.
The system the USC researchers have created works by evaluating the quality of each demonstration, enabling the system to learn from the mistakes it sees, as well as the successes. While current state-of-art methods need at least 100 demonstrations to nail a specific task, the new method allows robots to learn from only a handful of demonstrations. It also allows robots to learn more intuitively, the way humans learn from each other. That means watching as someone executes a task, even imperfectly, then trying it. As we all know, demonstration don’t have to be “perfect” for humans to glean knowledge from watching each other perform them.
Few people have the programming knowledge needed to explicitly specify what the robot needs to do in every situation. Furthermore, humans cannot possibly demonstrate everything that a robot needs to know or anticipate what happens when the robot encounters something it hasn’t seen before. Therefore, learning from demonstrations is important for widely deploying robots in the home or workplace.
The USC researchers addressed the common hurdles to robot training by integrating “signal temporal logic” (or STL) which evaluates the quality of demonstrations and automatically ranks them to create inherent rewards. Therefore, even if some parts of the demonstrations do not make any sense based on the logic requirements, the robot can still learn from the imperfect parts. In a way, the system is coming to its own conclusions about the accuracy or success of a demonstration.
Let’s say a robot learns from different types of demonstrations such as hands-on demonstrations, videos, or simulations; if the “robot’s teacher” does something that is very unsafe, standard approaches will do one of two things: either, the robot will completely disregard it, or it will learn the wrong thing.
In contrast, STL uses “common sense reasoning” to understand which parts of a demonstration are good and which parts are not. In essence, this is exactly what humans also do. Take, for example, a driving demonstration where someone ignores a stop sign. This would be ranked lower by the system than a demonstration by a good driver. But, if during this demonstration, the driver does something intelligent - for instance, applies their brakes to avoid a crash - the robot will still learn from that smart action.
STL is an expressive mathematical symbolic language that enables robotic reasoning about current and future outcomes. When we go into the world of cyber-physical systems, like robots and self-driving cars, where time is crucial, STL allows reasoning about physical signals. And the researchers were surprised by the extent of the system’s success.
Going forward, the USC researchers will continue working to integrate this approach into robotic systems to help them efficiently learn from demonstrations and experience.
The question several Johns Hopkins University researchers asked was, “How do we get the robot to learn a skill?”
Their answer was to training robots with positive reinforcement. This approach is familiar to anyone who has used treats to change a dog’s behavior. In this case, the team dramatically improved a robot’s skills and did it quickly enough to make training robots for real-world applications more realistic.
Unlike humans and animals which are born with highly intuitive brains, computers are blank slates and must learn everything from scratch. But in both cases, true learning is often accomplished with trial-and-error, and roboticists are still figuring out how robots can learn efficiently from their mistakes.
The Johns Hopkins team accomplished that by devising a reward system which works for a robot the same way treats work for a dog. Whereas a dog might get a cookie for a job well done, the robot earns numeric points.
For instance, when the researchers wanted to teach a robot named Spot to stack blocks, the robot needed to learn how to focus on “constructive” actions. As the robot explored the blocks, it quickly learned that correct behaviors related to stacking earned high points, but incorrect ones earned nothing. For example, “Reach out but don’t grasp a block?” earned no points. And, “Knock over a stack?” definitely earned no points. On the other hand, Spot earned the most points by placing the last block on top of a four-block stack.
This training tactic not only worked, it took just days to teach the robot what used to take weeks. The team was able to reduce the practice time by first training a simulated robot, which is a lot like a video game, then running tests with Spot.
The robot is programmed to “want” the higher score. So, it quickly learns the right behavior to get the best reward. Using other approaches, it took Spot a month of practice to achieve 100% accuracy with the blocks, but it took only two days with positive reinforcement.
Positive reinforcement not only worked to help the robot teach itself to stack blocks, with the point system the robot just as quickly learned several other tasks - including how to play a simulated navigation game. The important take away is that the ability to learn from mistakes in all types of situations is critical for designing a robot that could adapt to new environments.
The team anticipates that these findings could help train household robots to do laundry and wash dishes - tasks that could be commercially useful and help seniors live independently. It could also help improve self-driving cars.
At Johns Hopkins, the goal is to eventually develop robots that can do complex tasks in the real world - like product assembly, caring for the elderly and even surgery. Today, people don’t know how to program tasks like those - the real world is just too complex. But work like this shows us that there are ways that robots can learn how to accomplish such real-world tasks in a safe and efficient way.
For instance, a robot that can cook has been an aspiration of science fiction writers, futurists, and scientists for decades. As artificial intelligence techniques have advanced, companies have built prototype robot chefs, although none of these are commercially available today, largely because they lack the skill level of their human counterparts.
Teaching a robot to prepare and cook food is a challenging task, since it must deal with complex problems in robotic manipulation, computer vision, sensing and human-robot interaction in order to produce a consistent end-product.
In addition, tastes differ from person-to-person. And since taste is not universal, universal solutions don’t exist. Other research groups have trained robots to make cookies, pancakes and even pizza, but these robot chefs have not been optimized for the many subjective variables involved in cooking.
Egg dishes, omelets in particular, have long been considered a test of culinary skill. An omelet is one of those dishes that is easy to make, but difficult to make well. Therefore, a research team at England’s Cambridge University thought it would be an ideal test to optimize an omelet-making robot chef for taste, texture, aroma and appearance.
In collaboration with domestic appliance company Beko, the Cambridge team trained their robot chef to prepare an omelet by performing every step from cracking the eggs through to “plating” the finished dish. The work was performed in Cambridge’s Department of Engineering, using a test kitchen supplied by Beko plc and Symphony Group.
The machine learning technique they developed makes use of a statistical tool called Bayesian Inference. In order to avoid over-stuffing, the human tasters with omelets, this technique squeezed as much information as possible out of a limited number of data samples.
Another challenge they faced was the subjectivity of the human sense of taste. Humans aren’t very good at giving absolute assessments when it comes to food and they generally need to give relative ones when it comes to taste. So, the team needed to tweak a machine learning algorithm, called the batch algorithm, so that human tasters could give feedback based on comparative evaluations, rather than absolute ones.
So, how did the robot measure up as a chef? The omelets it produced at the end of the training process generally tasted “great;” much better than the researchers expected!
The results demonstrated that machine learning can be used to produce quantifiable improvements in a robot’s food preparation skills. Furthermore, such an approach can be easily extended to multiple robotic chefs.
The results of this research were reported in the journal IEEE Robotics and Automation Letters and presented at the IEEE International Conference on Robotics and Automation.
Going forward, further studies will be conducted to discover other optimization techniques and their viability. Beko, the domestic appliance company involved in the research is passionate about designing the kitchen of the future and believes robotics applications such as this will play a crucial part.
Obviously, domestic and commercial robots aimed at mass markets are nice and they will generate huge revenues later in the 21st century. However, the two industries that have the resources and long-term perspective to commercialize sophisticated service robots are healthcare and defense. At this point, defense is doing the heavy lifting in terms of sensors, batteries, motors and raw computing power. On the other hand, healthcare is providing the use cases and the funding needed to develop cutting-edge training techniques for robots.
Today, there are as many different kinds of robots used in health care settings as there are tasks for them to perform. But those robots are mostly part of “pilot programs.” Already there are robotic exoskeletons that help staff lift patients safely and there are delivery robots that zip around hospital hallways like motorized room service carts. Meanwhile, Doll like therapy robots comfort and calm patients agitated by the disorienting symptoms of dementia. And human pharmacists work alongside robotic dispensing systems when filling prescriptions.
Increasingly, advanced training and sensing techniques are preparing robots to take over tasks that drain human caregivers. For instance, consider the role robots could play in helping people to eat. According to census data from 2010, about 1 million adults in the United States needed someone to help them eat. By 2030, that number is expected to be dramatically higher. Being dependent on a caregiver to feed them every bite every day takes away a person’s sense of independence. So, there is a need is to give people more control over their lives.
To address this need, researchers at the University of Washington are working on an autonomous feeding system that would be attached to people’s wheelchairs and feed them whatever they wanted to eat. The idea involves a robotic system that can identify different foods on a plate and use a fork to pick up and deliver the desired bites to a person’s mouth.
The UW team published its results in the journal IEEE Robotics and Automation Letters and presented it at the ACM/IEEE International Conference on Human-Robot Interaction.
When they started the project, the researchers realized: There are so many ways that people can eat a piece of food depending on its size, shape or consistency that it’s hard to know where to start. The solution was to set up an experiment to see how humans eat common foods like grapes and carrots.
The researchers arranged plates with about a dozen different kinds of food, ranging in consistency from hard carrots to soft bananas. The plates also included foods which have a tough skin and soft insides, like tomatoes and grapes. Then the team gave volunteers a fork and asked them to pick up different pieces of food and feed them to a mannequin. The fork contained a sensor to measure how much force people used when they picked up food.
The volunteers used various strategies to pick up food with different consistencies. For example, people skewered soft items like bananas at an angle to keep them from slipping off the fork. For items like carrots and grapes, the volunteers tended to use wiggling motions to increase the force and spear each bite.
To design a skewering and feeding strategy that changes based on the food item, the researchers combined two different algorithms. First, they used an object-detection algorithm called RetinaNet, which scans the plate, identifies the types of food on it and places a frame around each item.
Then they developed SPNet, an algorithm that examines the type of food in a specific frame and tells the robot the best way to pick up the food. For example, SPNet tells the robot to skewer a strawberry or a slice of banana in the middle, and spear carrots at one of the two ends.
The team had the robot pick up pieces of food and feed them to volunteers using SPNet or a more uniform strategy: an approach that skewered the center of each food item regardless of what it was. SPNet’s varying strategies outperformed or performed the same as the uniform approach for all the food.
The team is currently getting feedback from caregivers and patients in assisted living facilities on how to improve the system to match people’s needs.
Ultimately the goal is for the robot to help people have their lunch or dinner on their own. But the point is not to replace caregivers; the goal is to empower them. With a robot to help, the caregiver can set up the plate, and then do something else while the person eats.
Another health care application requiring training is helping people get dressed. It’s a big market: more than 1 million Americans require daily physical assistance to get dressed because of injury, disease and advanced age. Robots could potentially help. But dealing with cloth and the human body is complex for robots.
To address this need, a robot at the Georgia Institute of Technology is successfully sliding hospital gowns on people’s arms.
The machine, called PR2, taught itself in one day by analyzing nearly 11,000 simulated examples of a robot putting a gown onto a human arm.
People learn new skills using trial-and-error. So, the Georgia Tech researchers gave PR2 the same opportunity. Doing thousands of trials on a human would have been dangerous as well as impossibly tedious. But in just one day, using simulations, the robot learned what a person may physically feel while getting dressed.
The robot also learned to predict the consequences of moving the gown in different ways. Some motions made the gown taut, pulling hard against the person’s body. Other movements slide the gown smoothly along the person’s arm. The robot uses these predictions to select motions that comfortably dress the arm.
After success in simulation, the PR2 attempted to dress people. Participants sat in front of the robot and watched as it held a gown and slid it onto their arms. Rather than vision, the robot used its sense of touch to perform the task based on what it learned about forces during the simulations.
The key is that the robot is always thinking ahead. It asks itself, ‘if I pull the gown this way, will it cause more or less force on the person’s arm? What would happen if I go that way instead?'”
The researchers varied the robot’s timing and allowed it to think as much as a fifth of a second into the future while strategizing about its next move. Less than that caused the robot to fail more often.
By predicting the physical implications of their actions, robots can provide assistance that is safer, more comfortable and more effective.
Unlike industrial robots, service robots are often targeted at tasks where they have to respond to people’s emotions and anticipate their reactions to situations. That’s why training robots to read and emulate human emotions has become a particularly important area of development. And it’s a specialized area of research that’s already delivering results.
Time Magazine profiled Stevie a “socially assistive robot” designed to help users by engaging with them socially as well as physically. The 4-foot, 7-inch robot is equipped with autonomous navigation. While it can roll through hallways unassisted, Stevie never leaves his room without a handler. He has voice activated controls similar to Amazon’s Alexa and responds to words with speech, gestures, and head movements. For instance, if you tell the robot, you’re sick it will it slump forward with a sorrowful frown on its LED-screen face and say, “I’m sorry to hear that.” If you pay Stevie a compliment, the screen reverts to a smile. When at rest, its head tilts gently and its digital brown eyes blink, patiently waiting for the next command.
A “socially assistive robot” such as Stevie can be useful in assisted living and nursing homes in a number of ways. Stevie could go door-to-door taking meal orders on the touchscreen attachment that can be mounted to its body. And since the robot can recognize voice commands such as “help me,” it could alert staff to a resident in distress.
But generally speaking, the residents want the robot to stay and interact with them. They want the robot to keep them company. In short, they want a “robot friend.” Therefore, while the final version of the machine will still be able to make deliveries, it’s primary role is likely to be more social and enjoyable. The developers have found that the enjoyable things are probably more important to “get right” in the short term, because those are the things that seem to affect people’s quality of life.
That’s an important finding, but it’s not something new.
Research into social robots has shown that machines which respond to emotion can help the most vulnerable people including the elderly and children. And they could lead to robots becoming more widely socially accepted.
Robots that help care for others are often at the cutting edge of emotional interaction. RoboKind created a robot named Milo to help children with autism spectrum disorders learn more about emotional expression and empathy while collecting data on their progress. Milo is both a robotic teacher and a student. His friendly face makes him approachable, making it possible for children to analyze his expressions without feeling social anxiety.
Another situation where robots can reduce stress is in hospital settings. To address this problem, Expper Tech’s ‘Robin’ robot was designed as a companion to provide emotional support for children undergoing medical treatment. Robin explains medical procedures to them, plays games and tells stories, and during treatment he distracts them to reduce their perception of pain.
Expper’s robot uses AI to create empathy, remembering facial expressions and conversations to build dialogue for follow-up sessions.
In trials, the team found that Robin led to a 34% decrease in stress and a 26% increase in happiness among the 120 children who interacted with him at least once.
Healthcare robots could all benefit from displaying emotional intelligence, both recognizing and responding to human emotions, and to some extent, managing them. A problem with this level of sophistication is the fear that human jobs may be lost as robots become more adept at handling social situations.
However, population trends suggest that the de mand for robots to work alongside people in care situations will grow over time. By 2050, the number of people aged 65 and over globally will be 1.6 billion, representing roughly twice the proportion of the population it does today. An extra 3.5 million care workers will be needed and that should make room for lots of emotionally intelligent robots.
Already relatively simple systems are being trained to meet some of that demand. This includes ProxEmo, a little wheeled robot that can guess how you are feeling from the way you walk. Another example is ENRICHME - an ‘ambient assisted living’ robot from the University of Lincoln in the UK; ENRICHME helps older people to stay physically and mentally active.
Going forward, full-spectrum emotional AI will be needed to cope with the complexity of true human interaction, and that is the goal of organizations such as Affectiva . So far, the company has trained its algorithms to detect seven emotions: anger, contempt, disgust, fear, surprise, sadness, and joy. To do this training, it used more than nine million faces from countries around the world. Affectiva expects that in order to respond to our needs in a more under-standing way, devices will contain emotion chips as standard equipment. Obviously, technology companies could potentially use these advances to manipulate our emotions, but this seems like a small risk, compared to the benefits.
To date, the impact of social robots on our lives has been tiny. And service robot manufacturers come and go without robots becoming a fixture in people’s lives. But newer and more sophisticated models are being introduced that should soon produce a big breakthrough. Human emotions are difficult to define, but as trust in robots increases, cracking the psychological barrier becomes easier to imagine.
What’s the bottom line?
Training service robots to deal with real people in real places is increasingly the focus of research around the world. And a combination of innovative thinking, sophisticated software, advanced sensors and raw computing power promises to make capabilities that were once impossible, highly cost-effective. Those are the hallmarks of an industry approaching tipping-point.
Given this trend, we offer the following forecasts for your consideration.
First, service robots will only be accepted when they can produce real results cost-effectively, in a real-world environment.
Various versions of Roomba and their floor cleaning competitors prove this point. Existing sensors and software make it possible for ordinary people to train them to navigate a home, avoiding problems, and cleaning the floors. Other categories of service robots have not been able to overcome this training hurdle.
Second, the first large-scale adoption of service robots will be in long-term care facilities. As Harvard’s Clayton Christensen emphasized, disruptive technologies first penetrate markets that are not well-served by existing offerings. Healthy people can quickly and cheaply do many household tasks themselves. Wealthy people with health issues can easily hire humans to perform the tasks they can’t or won’t do themselves. However, people in long-term care facilities would typically like more social interaction and personal service than the staff can readily give them. Whether it’s being fed, dressed, or taken from place-to-place, a swarm of special-purpose robots is a 24/7 solution.
Third, as we’re seeing in today’s health care trials, the optimal service robot will take the form of a swarm of s p e c i a l - purpose robots, rather than one all-purpose robot.
In the home, that swarm will likely fill the gaps between existing state-of-theart appliances. For example, dishwashers, refrigerators, microwave ovens, televisions, alarm systems, lighting systems, smart faucets, health care monitors and smart assistants like Alexa, will all become more integrated, powerful and function-rich. The consumables subsystem (for food, paper goods, and personal care items) is likely to use RF-ID technology to replenish, prepare and dispose of items. A telemedicine system could involve wearable sensors and an AI-based monitoring system. And,
Fourth, advanced general-purpose household robots like the Jetson’s Rosie will be technologically feasible by 2030, but will not be cost-effective before 2040. Infantry robots are getting close to having the dexterity, stability and durability needed to serve this purpose. But, like an F-35 fighter, they are very expensive to build and maintain. Fortunately, just like most defense systems, its core technologies will become inexpensive as they mature.
* *
References List :
1. Conference on Robot Learning (CoRL) 2020. February 15, 2021. Aniruddh G. Puranic, Jyotirmoy V. Deshmukh & Stefanos Nikolaidis. Learning from Demonstrations using Signal Temporal Logic.
https://arxiv.org/pdf/2102.07730.pdf
2. IEEE Robotics and Automation Letters (2020). Kai Junge et al. Improving Robotic Cooking using Batch Bayesian Optimization.
3. IEEE Robotics and Automation Letters, 2020. Andrew Hundt, Benjamin Killeen, Nicholas Greene, Hongtao Wu, Heeyeon Kwon, Chris Paxton & Gregory D. Hager. “Good Robot!”: Efficient Reinforcement Learning for Multi-Step Visual Tasks with Sim to Real Transfer.
4. IEEE Robotics and Automation Letters, 2019. Tapomayukh Bhattacharjee, Gilwoo Lee, Hanjun Song & Siddhartha S. Srinivasa. Towards Robotic Feeding: Role of Haptics in Fork-Based Food Manipulation.
6. Time Magazine. October 4, 2019. Corinne Purtill. Stop Me if You’ve Heard This One: A Robot and a Team of Irish Scientists Walk Into a Senior Living Home.
7. IEEE Robotics and Automation Letters, 2020. Kai Junge, Josie Hughes, Thomas George Thuruthel & Fumiya Iida. I mproving Robotic Cooking Using Batch Bayesian Optimization.