지능형 로봇 에버 “인간이 꿈이에요”
지능형 로봇 에버 “인간이 꿈이에요”
  • 손수정 기자
  • 승인 2009.03.08
  • 호수 1290
  • 댓글 0
이 기사를 공유합니다

모션캡쳐ㆍ음성인식ㆍ대화엔진 기술로 인간 모사 향상

한국생산기술연구소 로봇연구소에 들어서자마자 한복을 곱게 차려입은 에버가 눈에 들어왔다. 연예인을 만난 팬이 된 것처럼 가슴이 설렜다. ‘흥보가 기가 막혀’를 부르면서 짓는 표정과 몸짓은 인간의 동작과 너무도 유사했다. 에버는 지능형로봇으로 스스로 판단해서 움직이고 인간과 상호작용 할 수 있는 로봇이다. 에버와 관련한 지능형 로봇의 작동원리를 모션캡처, 음성인식, 대화엔진 등의 기술을 통해 살펴봤다.

내 이름은 ‘에버’
에버(EveR)라는 이름은 최초의 여성 이브(Eve)와 로봇(Robot)의 합성어로 끊임없이 발전한다는 뜻을 담고 있다. 신장 157cm에 몸무게 50kg, 실리콘 복합소재 피부를 가져 사람의 형체와 비슷한 외모를 가졌다.
닮은 것은 외형만이 아니다. 에버는 언어를 인식해 사람과 대화하고 감정 표현을 할 수도 있다. 이런 로봇을 지능형 로봇이라고 한다. 기존의 로봇은 반복적인 작업을 정해진 규칙에 따라 일했다. 그러나 지능형 로봇은 인공지능을 통해 상황마다 다양한 대처가 가능하다. 

지능형 로봇 분야는 2000년부터 본격적으로 각광받은 연구 분야다. 대표적인 지능형 로봇으로는 일본의 ‘아시모’와 KAIST가 만든 ‘휴보’가 있다. 지능형 로봇은 여러 역할을 하는데 공항이나 백화점 등 서비스가 필요한 곳에서 안내나 접수 등의 일을 하기도 하고 가정이나 사무실에서 인간의 육체적, 정신적 노동을 대신하기도 한다. 또 건물이나 기계에 내장돼 실시간으로 현장 상황을 지켜보기도 한다.

2003년 인간의 외형을 닮은 로봇인 일본의 엑스로이드가 개발되고 2005년도에 우리나라의 한국생산기술연구원에서도 본격적으로 에버를 제작했다. 에버는 인간에게 오락, 교육 기능을 제공하는 에듀테인먼트 로봇의 역할을 한다. 때문에 2006년 처음 선보였던 에버1을 시작으로 가수로 데뷔한 에버2, 현재 배우로 활동하고 있는 에버3까지 문화ㆍ예술ㆍ과학기술의 융합을 목표로 하고 있다.

얼굴도 샤방샤방, 매력도 샤방샤방
에버는 ‘매력적인 20대 여성’을 컨셉으로 만들어졌다. 외형은 모델의 몸을 3D 입체로 본을 떴고 얼굴은 조각으로 만들었다. 외피는 인간 피부의 색깔이나 촉감이 비슷하도록 실리콘으로 만들어졌다.

에버는 총 62개의 관절을 갖고있다. 상반신은 인간과 거의 비슷하게 움직이지만 하반신은 고정돼 현재는 걸을 수 없다. 발 크기가 230mm이고 발목도 얇아 큰 모터가 장착될 수 없기 때문이다.

에버가 들 수 있는 무게는 겨우 자신의 팔을 들 수 있을 정도다. 인간의 팔 외형에 맞는 작은 모터를 넣어 큰 힘을 낼 수 없기 때문이다. 감지기의 역할을 하는 부분은 눈에 장착돼 있는 카메라와 얼굴에 터치 센서가 있다. 그래서 카메라로 사람을 감지해 인사를 하기도 하고 얼굴에 손을 대거나 뽀뽀를 하면 놀라는 동작을 취하기도 한다.

컴퓨터 본체에 스피커를 설치하고 입 안에도 스피커를 내장해 입을 움직이면서 말을 하도록 했다. 현재 컴퓨터 본체와 로봇은 선으로 연결 됐을 뿐 내장돼있지 않다. 조만간 본체를 소형화해 내장할 예정이다.
얼굴에는 안면 근육의 역할을 담당하는 23개의 모터가 장착돼 있어 12가지 표정을 지을 수 있다. 얼굴표정은 인간의 6대 감정인 슬픔, 기쁨, 놀람, 화남, 두려움, 혐오를 모두 표현할 수 있다. 이런 표정은 표정을 담당하는 모터의 움직임을 수치화 해 정도를 조절하며 만든다.

에버가 ‘흥보가 기가 막혀’를 부르면서 손을 뻗거나 고개를 갸웃하는 등의 자연스러운 동작이 가능한 것은 모션캡처 기술 덕분이다. 표정을 조절하듯 팔이나 고개에 내장된 관절로 움직일 수 있으나 세밀한 작업을 요하므로 자칫 잘못하면 ‘로봇’과 같이 뻣뻣하게 된다.

모션캡처는 인체가 동작하는 움직임을 즉시 또는 약간의 시간 차이를 두고 기록하는 작업을 말한다. 동작을 수치화하기 위해 특수한 옷을 착용하고 인간의 각 관절에 센서를 붙인다. 인간의 움직임은 센서의 위치, 회전의 각도를 카메라를 통해 실시간으로 컴퓨터 정보로 저장된다. 에버는 1초에 30개의 동작을 저장한다. 기록된 정보를 바탕으로 에버에게 위치 정보를 포함하는 정보를 전달해 인체의 움직임이 그대로 에버에게 나타날 수 있도록 했다.

표정 알고리즘
에버는 상대방에게 애교를 부리기도 하고 칭찬을 하면 활짝 웃기도 한다. 못생겼다고 말하면 바로 화난 표정을 지어 자신의 현재 감정을 표현한다. 또 짓궂은 질문은 적당히 받아치기도 한다.
이런 에버의 ‘지능적인 것처럼 보이는’ 행동이 가능한 이유는 음성인식과 대화엔진 기술 덕분이다. 음성 정보가 마이크를 통해 중앙처리 프로그램으로 전송되면 음성 정보를 일정 범주에 속해 음성 정보를 분석하고 인식하게 된다.

이 과정에서 인식률을 측정 할 수 있는데 음성인식에서는 사람이 억양, 말투가 다르더라도 약 70%만 넘어도 인식이 가능하기 때문에 몇 글자 다르더라도 오류 없이 알아듣는다.

에버의 재치 있는 대답과 표정은 대화엔진 과정인 데이터베이스 입력을 통해 이뤄진다. ‘질문ㆍ답ㆍ표정ㆍ몸짓’을 한 묶음으로 일일이 저장 하는 것이다. 그 정보들 중에서 일정 기준을 정하면 답을 상황에 따라 조금씩 다르게 정한다. 현재 이런 묶음은 약 천 개 정도 저장돼 있다.

에버는 감정을 기준으로 정했다. 각 질문마다 긍정, 부정의 정도를 정해 이에 따라 에버의 감정 상태를 조절한다. “못생겼다”는 말은 부정으로 분류되기 때문에 이 말을 에버에게 하면 즉시 화난 표정으로 변한다. 여기서 계속 부정형 질문을 하면 에버의 감정 수치가 점점 내려가 이에 맞게 대답도 퉁명스럽게 된다. 반대로 긍정형 질문을 하면 감정 수치가 올라가 친철하게 변한다.

인공 지능이라 하더라도 컴퓨터 스스로 생각을 하는 기술은 아직까진 불가능하다. 이런 기술이 나오기까지는 적게는 50년이 걸린다고 하니 로봇과 농담을 주고받는 것은 미래의 일로 기약해야 할 듯하다.

한양대와 함께하는 에버
에버 연구에는 대화엔진에 사용되는 알고리즘 개발이 중요한 관건이다. 알고리즘의 정교함에 따라 로봇의 지능도 올라가기 때문이다. 이에 알고리즘 분야의 전문가 확보를 위해 현재 한국생산기술연구원은 우리학교와 국제기술이전협약(이하 MOU) 협력관계를 맺었다.

이 협약으로 기술과 산업정보를 교류ㆍ연구, 기업의 기술수요 발굴, 기술 공동개발 및 현지화 지원 등을 하고 있다. MOU 협약으로 알고리즘 개발에 우리학교 교수와 연구원들이 참여하고 있다. 이 외에도 지속적으로 학ㆍ연ㆍ산 협약을 맺어 학생들이 인턴을 지원할 수 있도록 하고 있다.

다음달, 에버는 독일 하노버 메세에 출품을 앞두고 있다. 로봇 배우로의 데뷔를 세계에 알리기 위해서다. 특히 에버는 우리나라의 문화를 알리기 위해 한복을 입고 판소리를 부를 예정이다. 에버가 세계 속에서 우리나라를 알리는 또 하나의 우리문화 홍보대사가 될 지 기대해 본다.

도움 : 이동욱<한국생산기술연구원> 선임연구원


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.