눈빛과 손짓도 읽는 AI… 인터휴먼, 31억 투자 유치

| 김민준 기자

사람의 표정, 몸짓, 목소리 높낮이 같은 비언어적 신호를 파악하는 '사회적 지능' 기반 인공지능(AI)을 개발 중인 인터휴먼AI(Interhuman AI)가 프리시드 라운드에서 200만 유로(약 31억 원)의 투자를 유치했다. 이번 라운드는 벤처캐피털 PSV 테크가 주도했으며, EIFO, Antler, Yope 및 Ada Ventures의 엔젤 투자자들도 함께 참여했다.

인터휴먼AI가 주목하는 부분은 인간 간 대화에서 실제로 말로 전달되는 정보만으로는 소통이 완성되지 않는다는 사실이다. 미소, 어깨를 으쓱하는 제스처, 시선 회피 등은 대화의 맥락을 반영하며, 실제 의미 전달에서 중요한 역할을 한다. 현재 대부분의 생성형 AI 모델들은 언어 텍스트에는 반응하지만 이러한 비언어적 단서에 대해서는 거의 '맹목'에 가깝다.

이러한 한계를 극복하기 위해 인터휴먼AI는 영상 및 음성 기반 AI 처리 기술을 결합해 얼굴 표정, 손동작, 목소리의 억양 및 강세 등 다양한 신호들을 종합 분석하는 '사회적 신호 합성기(Social Signal Synthesizer)' 개발에 나섰다. 이 기술을 통해 AI가 실시간으로 사용자의 감정 상태나 의사소통 맥락을 파악함으로써, 보다 자연스럽고 공감할 수 있는 대화가 가능해진다는 것이다.

회사의 공동 창업자이자 CEO인 폴라 페트쿠(Paula Petcu)는 “AI가 단순히 효율성이나 워크플로우 최적화만을 위한 도구로 머무를 수 없다”며 “인공지능 진화의 다음 단계는 인간과의 커뮤니케이션 능력을 키우는 것”이라고 강조했다.

인터휴먼은 이번 투자 유치를 통해 핵심 엔지니어 인력을 대거 충원하고, AI 모델 정교화 및 상용화 준비에 박차를 가할 계획이다. 초기 적용 분야는 교육, 헬스케어, 고객 서비스 등 접점에서 인간과 긴밀히 상호작용해야 하는 영역이 될 전망이다.

투자사 PSV 테크의 파트너인 알렉산더 비테르보-호르텐(Alexander Viterbo-Horten)은 “AI가 사회적 지능을 갖춘다는 것은 단순한 기술적 업그레이드 그 이상”이라며 “교육, 의료, 상담 등 사람 중심의 산업 전반에서 판도를 바꿔놓을 수 있는 잠재력을 지녔다”고 평가했다.

구체적으로는 AI 기반 튜터링 앱이 학생이 이해하지 못하는 표현에 직면했을 때, 목소리나 표정 변화를 감지하여 대화 속도를 조율하거나 설명 방식을 바꾸는 방식이 될 수 있다. 유저가 별도로 요청하지 않아도 AI가 먼저 반응함으로써 자연스러운 학습 지원이 가능해지는 것이다.

또한 고객 응대나 환자 상담용 AI에서는 긴장되거나 혼란스러워하는 표정을 포착해 더 섬세한 안내를 제공하고, 필요 시 인간 전문가에게 연결하는 지능적인 대응이 가능해진다. 이러한 정서적인 이해 없이 단지 정해진 답변만 반복하는 기존 AI는 사용자 경험을 떨어뜨릴 수 있다는 점에서, 인터휴먼의 접근은 실용성과 감성 두 영역을 모두 겨냥하고 있다.

AI 기반 서비스가 인간을 대체하는 것이 아닌 보조하는 방식으로 확대되고 있는 흐름 속에서, 인터휴먼AI는 인간 중심 설계를 본질에 두고 기술을 진화시키는 것을 목표로 삼고 있다. 향후 이 기술이 실제 현장에서 얼마나 정교하게 작동하고, 사용자로부터 어떤 신뢰를 얻을 수 있을지가 핵심 평가 기준이 될 것으로 보인다.