10년 대전환 예고… 메타 CTO “터치·스와이프 끝, ‘의도 기반’ 인터페이스·AR 안경이 승부처”

| 민태윤 기자

급변하는 소비자 기술의 다음 경쟁 무대는 ‘무엇을 누르느냐’가 아니라 ‘무엇을 원하느냐’에 맞춰지고 있다. 메타(Meta)의 최고기술책임자(CTO) 앤드루 보즈워스(Andrew Bosworth)는 향후 10년을 이끌 키워드로 ‘의도 기반 인터랙션’과 ‘AR(증강현실) 안경’, 그리고 ‘문제 해결형 AI’를 꼽으며, 스마트폰 중심의 컴퓨팅 환경이 서서히 ‘몰입형 컴퓨팅’으로 옮겨갈 것이라고 전망한다.

이번 대담에서 보즈워스는 메타 리얼리티 랩스(Reality Labs)를 이끄는 책임자로서, 차세대 소비자 기술이 어떻게 설계돼야 하는지, 그리고 AI·하드웨어·UI(사용자 인터페이스)가 어떤 식으로 맞물려 진화하고 있는지에 대해 비교적 구체적인 청사진을 제시했다. 특히 레이밴 메타(Ray-Ban Meta) 안경의 진화를 예로 들며, ‘스마트 글라스’에서 ‘AI 글라스’로의 전환이 어떤 의미를 가지는지 설명했다.

터치·스와이프 넘어 ‘의도 기반’ 인터페이스

보즈워스가 가장 강조한 변화는 ‘입력 방식’이다. 그는 “다음 세대 소비자 기술은 탭과 스와이프가 아니라 ‘의도(intent)’ 위에서 돌아갈 것”이라고 단언한다. 지금까지 사용자는 앱을 켜고, 메뉴를 찾고, 버튼을 눌러야 원하는 작업에 도달했다. 앞으로는 “내가 무엇을 하려는지”를 기기가 먼저 파악하고, 그에 맞춰 동작하는 구조가 중심이 될 것이라는 설명이다.

이를 위해서는 두 가지 축이 필요하다. 첫째는 뇌파·시선·제스처·음성 등 다양한 신호를 정교하게 읽어낼 수 있는 하드웨어, 둘째는 그 신호를 ‘사용자의 의도’로 해석해내는 AI다. 보즈워스는 현재 AI가 가진 문맥 이해 능력이 “생각보다 훨씬 빠르게” 발전하고 있다며, 이 역량이 향후 인터페이스 혁신의 핵심 동력이 될 것이라고 봤다.

그는 이러한 의도 기반 인터랙션이 구현되면 사용성 측면에서 “훨씬 자연스럽고, 마찰이 적은 경험”이 가능해질 것이라고 강조했다. 결국 미래 소비자 기술 경쟁은 누가 더 정확하게 사용자의 의도를 읽고, 적절한 피드백을 제공하느냐에 달려 있다는 이야기다.

AR 안경이 여는 ‘몰입형 콘텐츠 소비’

콘텐츠 소비 방식도 크게 바뀔 것으로 내다봤다. 보즈워스는 “앞으로 10년 안에, 우리는 스마트폰 화면만이 아니라 훨씬 다양한 방식으로 콘텐츠를 시야에 불러올 수 있게 될 것”이라며 AR 안경을 유력한 후보로 지목했다.

그에 따르면 차세대 콘텐츠 소비 환경은 ‘하나의 단말’이 아니라 ‘스펙트럼’에 가깝다. 고가의 고성능 기기부터 보다 접근성 높은 보급형 디바이스까지, 다양한 단계의 경험이 공존하는 구조가 될 것이라는 전망이다. 공통점은 모두가 현실 공간 위에 디지털 정보를 겹쳐 보여주는 ‘몰입형 컴퓨팅’ 방식을 지향한다는 점이다.

보즈워스는 이러한 흐름이 단순히 시각적 효과를 늘리는 수준이 아니라, 뉴스·동영상·게임·소셜 네트워크 등 전반적인 콘텐츠 소비를 ‘항상 켜져 있는 것처럼’ 만드는 방향으로 나아갈 것이라고 본다. 그 과정에서 AR 안경은 손을 쓰지 않고도 자연스럽게 정보를 불러오고, 주변 환경과 상호작용할 수 있는 핵심 플랫폼이 될 수 있다는 것이다.

이번 AI 혁신이 다른 점: ‘손에 잡히는 문제 해결’

AI에 대한 그의 평가는 분명했다. 현재 진행 중인 AI 혁신은 과거의 기술 버블과 달리 “손에 잡히는(real) 문제들을 실제로 풀고 있다”는 점에서 의미가 다르다는 것이다. 문서 작성 보조, 코드 생성, 이미지 편집, 번역, 검색 보조 등 지금의 AI 서비스 대부분이 “사용자들이 이미 갖고 있던 불편함”을 직접적으로 줄여준다는 설명이다.

보즈워스는 AI가 모든 문제를 해결하지는 못하고, 새로운 문제도 함께 만든다고 인정했다. 다만 그럼에도 불구하고 “실제 효용이 분명하기 때문에, 업계 전반의 열기가 쉽게 식지 않을 것”이라고 본다. 즉, 지금의 AI 붐은 일시적 유행이 아니라, 소비자 기술의 인터페이스와 서비스 모델을 ‘근본적으로 다시 짜는’ 계기가 될 수 있다는 판단이다.

하드웨어와 UX, 두 개의 ‘어려운 산’

새로운 인터랙션 방식을 구현하려면, 눈에 보이는 디바이스와 눈에 보이지 않는 경험 설계 두 측면 모두에서 난제가 쌓여 있다. 보즈워스는 레이밴 메타 프로젝트를 예로 들며 “놀라운 기능을 하는 하드웨어를 만들면서도 동시에 보기 좋아야 하고, 가벼워야 하고, 가격도 맞춰야 했다. 이런 조합은 이전에 없었다”고 회상했다.

이와 함께 그는 “디바이스를 만드는 것만으로는 반쪽짜리”라고 강조한다. 이용자가 “이걸 어떻게 써야 자연스러운지” 느끼게 만드는 사용자 경험 설계가 뒤따라야 한다는 것이다. 새로운 입력 방식과 화면 배치, 피드백 구조, 실패했을 때의 복구 시나리오까지 모두 다시 짜야 하고, 이 과정에서 사람의 인지 습관과 심리까지 고려해야 한다.

그는 이 두 가지 과제를 동시에 해결하는 팀만이 ‘진짜로 쓰이는’ 새로운 플랫폼을 만들 수 있을 것이라고 전망했다. 단순히 기술 시연용 프로토타입이 아니라, 일상 속에서 반복 사용되는 제품을 만들기 위해서는 특히 UX 설계 역량이 중요하다고 덧붙였다.

AI가 UX 설계의 ‘의도 해석기’가 된다

보즈워스는 “2년 전 예상보다 훨씬 빨리, 지금 수준의 AI가 등장한 것은 우리에게 커다란 행운”이라고 표현했다. 현재의 AI는 텍스트와 음성, 이미지, 상황 정보를 함께 받아들여 사용자가 무엇을 하려는지 추론해낼 수 있는 수준에 가까워지고 있다. 이는 곧 ‘의도 기반 인터랙션’을 구현하기 위한 퍼즐의 핵심 조각이라는 의미다.

예를 들어 사용자가 “이 문서 정리해서 팀에 공유해줘”라고 말했을 때, 어떤 앱을 열고, 어떤 형식으로 정리하고, 누구에게 어떻게 보내야 할지를 사용자가 일일이 지시하는 대신, AI가 전체 맥락 속에서 사용자의 의도를 파악해 작업을 대신 처리하는 식이다. 그는 이런 경험이 쌓이면 “기기를 조작하는 법을 배우는 시간”이 크게 줄어들 수 있다고 내다봤다.

향후 UX 디자이너와 개발자의 역할도 바뀔 수 있다. 화면 레이아웃·버튼 위치 같은 전통적인 UI 요소 못지않게, ‘AI가 사용자의 의도를 어떻게 이해하고 응답해야 하는지’를 설계하는 일이 중요해진다는 것이다. 보즈워스는 이 점에서 AI를 “인터랙션 디자인을 한 단계 끌어올릴 수 있는 핵심 도구”로 평가했다.

레이밴 메타, ‘스마트’에서 ‘AI 안경’으로

메타와 레이밴이 함께 만든 레이밴 메타 안경은 이 같은 변화를 상징적으로 보여주는 사례다. 보즈워스에 따르면 이 프로젝트는 애초 ‘스마트 글라스’를 목표로 출발했다. 카메라와 마이크, 스피커를 탑재해 사진을 찍고, 음악을 듣고, 전화를 받을 수 있는 수준을 상정한 것이다.

하지만 프로젝트가 진행되는 사이 AI 기술이 급격히 발전하면서, 동일한 폼팩터(form factor) 속에 ‘AI 비서’를 넣을 수 있는 환경이 마련됐다. 보즈워스는 “출발은 스마트 글라스였지만, 형태와 연산 능력, 센서 구성이 이미 갖춰져 있었기 때문에 자연스럽게 AI 안경으로 진화할 수 있었다”고 설명했다.

이제 레이밴 메타는 단순한 카메라 안경을 넘어, 주변을 보며 질문하면 실시간으로 정보를 제공하고, 사용자의 상황에 맞춰 안내를 제안하는 ‘머리에 쓰는 AI 단말’로 자리매김하고 있다. 그는 이 사례가 “하드웨어와 AI가 맞물리면서 소비자 제품의 성격이 얼마나 빠르게 바뀔 수 있는지 보여주는 대표적 예”라고 의미를 부여했다.

그래도 5년 안에 스마트폰을 대체하긴 어렵다

그럼에도 보즈워스는 스마트폰의 단기적 지위는 견고하다고 본다. 그는 “5년 horizon(전망)을 두고 보면, 스마트폰이 지배력을 잃는 장면을 떠올리기조차 어렵다”고 말했다. 그만큼 스마트폰은 개인의 일상과 업무, 결제, 인증, 엔터테인먼트까지 깊숙이 파고들어 있으며, 방대한 앱 생태계를 기반으로 ‘기본 단말’ 자리를 유지하고 있다는 설명이다.

이 때문에 AR 안경이나 다른 웨어러블 기기들이 성장하더라도, 최소한 중기적으로는 스마트폰과 공존하는 구조가 될 것이라는 전망이 우세하다. 새로운 디바이스들이 스마트폰을 완전히 대체하기보다는, 특정 상황에서 스마트폰의 불편함을 보완하는 보조 단말로서 먼저 자리 잡을 가능성이 크다는 평가다.

‘웹 전환 앱’의 실패, 네이티브 설계의 필수성

보즈워스는 과거 메타가 경험한 시행착오도 솔직히 언급했다. 그는 “터치스크린이 아닌 방식으로 앱을 제어해보니, 웹에서 크게 성공했던 제품이 그대로는 통하지 않았다”고 말했다. 이는 곧 ‘웹에서 잘 되던 UX를 단순히 모바일이나 새로운 폼팩터로 옮겨오는 것만으로는 부족하다’는 교훈으로 이어진다.

그는 모바일 환경에서 성공한 앱은 대부분 “해당 플랫폼을 전제로 처음부터 다시 설계된 네이티브 경험”을 제공했다고 짚었다. 버튼 크기, 스크롤 동작, 알림과 백그라운드 동작, 화면 전환 속도 등, 세부 요소 하나하나가 기기 특성과 사용자 습관을 기반으로 맞춰져야만 사용자가 ‘자연스럽다’고 느낀다는 것이다.

이 논리는 AR 안경이나 다른 차세대 디바이스에도 그대로 적용된다. 단순히 기존 앱 인터페이스를 3D 공간 위에 띄우는 것만으로는 의미 있는 사용자 경험을 만들기 어렵고, ‘공간 컴퓨팅’을 전제로 처음부터 다시 설계된 서비스가 결국 승부를 가를 것이라는 시각이다.

AI가 ‘앱 모델’을 뒤집을 가능성

보즈워스가 제시한 가장 급진적인 관점은 “AI가 현재의 앱 중심 모델을 통째로 뒤집을 수 있다”는 주장이다. 지금까지 사용자는 특정 작업을 위해 적절한 앱을 골라 열고, 필요한 메뉴를 찾아 들어가야 했다. 그는 “앞으로는 내가 어떤 앱을 열어야 하는지까지 책임지고 싶지 않다”고 말하며, 이 구조가 바뀔 수 있다고 전망했다.

AI의 발전으로, 사용자는 단지 “하고 싶은 일”을 말하거나 표현하기만 하면 된다. 예를 들어 “저녁 약속 일정 조정해서 팀 채팅방에 공유해줘”라고 요청하면, AI가 일정 앱과 메신저, 이메일 등 여러 서비스를 가로질러 필요한 작업을 대신 수행하는 방식이다. 이 경우 사용자는 개별 앱을 직접 다루기보다, AI를 통해 ‘의도’를 전달하는 데 집중하게 된다.

이런 변화가 현실화되면 앱은 지금처럼 전면에 드러나는 존재가 아니라, AI 뒤에서 특정 기능을 제공하는 ‘모듈’에 가까운 위치로 물러날 수 있다. 보즈워스는 이를 “AI 발전이 인터페이스뿐 아니라 서비스 구조까지 재편할 수 있음을 보여주는 단면”으로 해석했다.

소비자 기술의 다음 10년: 몰입형·의도 기반·AI 결합

보즈워스의 전망을 종합하면, 앞으로의 소비자 기술은 ‘몰입형 컴퓨팅’과 ‘의도 기반 인터랙션’, 그리고 ‘문제 해결형 AI’가 한데 묶여 진화하는 그림에 가깝다. AR 안경 같은 새로운 폼팩터는 콘텐츠 소비와 상호작용 방식을 바꾸고, AI는 사용자의 의도를 읽어 그 경험을 자연스럽게 연결하는 역할을 맡는다.

다만 단기간에 스마트폰을 밀어내는 급격한 전환보다는, 다양한 기기가 공존하며 사용자의 일상을 조금씩 잠식해가는 점진적 변화가 유력하다. 하드웨어 설계와 UX, AI 이해 능력이라는 세 축에서 얼마나 완성도 높은 해답을 내놓느냐가 기업들의 성패를 가를 관전 포인트가 될 전망이다.


💡 "AI·AR·몰입형 인터페이스 시대, 결국 남는 건 '이해하고 설계할 줄 아는 사람'입니다"

보즈워스 CTO가 말한 것처럼, 앞으로 10년의 소비자 기술은 터치가 아니라 ‘의도(intent)’를 읽는 인터페이스, 스마트폰 화면이 아닌 ‘몰입형 컴퓨팅’과 AR 안경, 그리고 실제 문제를 해결하는 AI가 이끌어갈 가능성이 큽니다.

하지만 이런 패러다임 전환 속에서 기회를 잡으려면, 단순히 기기를 쓰는 사용자 수준을 넘어:

- 새로운 인터페이스가 어떤 경제적·기술적 구조 위에서 돌아가는지,

- AI·온체인 데이터·토크노믹스가 어떻게 맞물려 가치와 리스크를 만들어내는지,

- 그리고 이런 변화를 자산 포트폴리오와 투자 전략에 어떻게 녹여낼지

를 이해하는 ‘설계자 관점’이 필요합니다.

바로 이 지점을 체계적으로 다루는 곳이 토큰포스트 아카데미(TokenPost Academy)입니다.

단순 코인 매매가 아니라, 기술·시장 구조·위험 관리를 함께 이해하는 7단계 마스터클래스로 구성돼 있습니다.

◆ 스마트폰 이후, '몰입형·의도 기반' 시대를 위한 7단계 마스터클래스

보즈워스가 언급한 ‘의도 기반 인터랙션’, ‘AR 안경’, ‘AI 비서’는 단순한 유행이 아니라, 앞으로의 인터페이스와 서비스 구조를 통째로 다시 짜는 키워드입니다. 토큰포스트 아카데미 커리큘럼은 이런 변화를 투자자의 언어로 해석하는 데 초점을 맞춥니다.

◆ 인터페이스가 바뀌어도, 사라지지 않는 경쟁력: 구조를 이해하는 투자자

AI가 앱 모델을 뒤집고, AR 안경이 ‘머리에 쓰는 AI 단말’로 자리 잡는 시대가 온다 해도,

결국 기회를 잡는 사람은 "구조를 먼저 보고, 가격은 나중에 보는 사람"입니다.

토큰포스트 아카데미는:

- 코인·디파이·파생상품·매크로까지 전체 구조를 관통하는 시야,

- 기술 서사를 투자 언어로 번역하는 능력,

- 그리고 하락장에서도 살아남는 리스크 관리 역량

을 단계별로 쌓을 수 있도록 설계된 실전형 교육 과정입니다.

지금, AI와 AR이 만들어낼 다음 10년의 인터페이스 전쟁 속에서

단순 소비자가 아닌 ‘판을 읽는 투자자’로 포지셔닝하고자 한다면,

토큰포스트 아카데미에서 그 기반을 다져보세요.

토큰포스트 아카데미 수강 신청하기

커리큘럼: 기초부터 온체인·디파이·선물옵션·매크로까지, 7단계 마스터클래스

파격 혜택: 첫 달 무료 이벤트 진행 중!

바로가기: https://www.tokenpost.kr/membership


기사요약 by TokenPost.ai

🔎 시장 해석

메타 CTO 앤드루 보즈워스는 향후 10년 소비자 기술의 핵심을 ‘의도 기반 인터랙션’, ‘AR 안경 중심의 몰입형 컴퓨팅’, ‘실질 문제 해결형 AI’로 제시한다.

스마트폰은 단기적으로 확고한 중심 기기로 남지만, AR 안경과 웨어러블이 보조 단말로 일상을 잠식하며 점진적으로 영향력을 키울 것으로 본다.

레이밴 메타 안경 사례에서 보듯, 하드웨어에 AI가 결합되면 동일한 폼팩터라도 제품 카테고리 자체가 ‘카메라 안경 → AI 안경’으로 재정의된다.

앱 중심 구조는 장기적으로 약화되고, 사용자는 앱을 고르기보다 AI에게 ‘하고 싶은 일(의도)’만 전달하는 방식으로 전환될 가능성이 크다.

💡 전략 포인트

의도 기반 인터랙션 구현을 위해서는 ‘다양한 입력 신호를 읽는 센서·하드웨어’와 ‘문맥을 이해하는 고성능 AI’ 두 축에 동시 투자해야 한다.

AR·공간 컴퓨팅용 서비스는 기존 웹·모바일 UX를 단순 이식하는 방식이 아닌, 폼팩터에 최적화된 네이티브 경험으로 처음부터 재설계해야 경쟁력을 얻는다.

UX팀의 역할은 버튼·레이아웃 설계를 넘어, “AI가 사용자의 맥락과 의도를 어떻게 해석하고 응답할지”를 시나리오 단위로 디자인하는 방향으로 확장될 것이다.

단기(5년 내)에는 스마트폰과 AR 안경·웨어러블의 ‘멀티 디바이스 공존’을 전제로, 각 기기가 잘하는 사용 시나리오(핸즈프리·실시간 정보·현장 작업 등)를 선점하는 전략이 중요하다.

📘 용어정리

의도 기반 인터랙션(Intent-based Interaction): 사용자가 앱·버튼을 직접 고르지 않고, 자연어·시선·제스처 등으로 ‘의도’를 표현하면 시스템이 알아서 적절한 작업과 앱을 선택해 실행하는 인터페이스 방식.

몰입형 컴퓨팅(Immersive Computing): 스마트폰 화면처럼 ‘틀 안의 화면’을 보는 것이 아니라, 현실 공간 위에 디지털 정보를 겹쳐 보거나(AR), 완전히 가상 공간에 들어가는(VR) 형태의 상호작용 환경.

AR 안경(증강현실 안경): 실제 시야 위에 텍스트·이미지·아이콘 등을 겹쳐 보여주는 안경형 디스플레이 기기. 레이밴 메타처럼 카메라·마이크·스피커·AI를 결합해 정보 안내·번역·검색 등의 기능을 수행할 수 있다.

문제 해결형 AI: 데모용 ‘기술 과시’가 아니라, 문서 정리·코딩·번역·요약·검색 보조·작업 자동화 등 사용자가 일상에서 겪는 구체적 불편을 줄이는 데 초점을 둔 실용 중심 AI.

앱 중심 모델(App-centric Model): 사용자가 할 일을 기준으로 앱을 고르는 현재 구조(“일정은 캘린더 앱, 대화는 메신저 앱”)를 말하며, 향후에는 AI가 여러 앱을 뒤에서 호출하고 사용자는 AI와만 상호작용하는 구조로 옮겨갈 가능성이 있다.

💡 자주 묻는 질문 (FAQ)

Q.

‘의도 기반 인터랙션’은 기존 터치·음성 명령과 뭐가 다른가요?

기존에는 사용자가 먼저 앱을 열고, 메뉴를 찾고, 버튼을 눌러야 했습니다. 음성 명령도 결국 “어떤 앱에서, 어떤 기능을 쓰고 싶은지”를 비교적 구체적으로 말해야 했죠. 의도 기반 인터랙션은 반대로, 사용자가 “무엇을 하고 싶은지”만 자연스럽게 말하거나 행동하면, AI가 상황·이전 기록·화면 내용을 모두 참고해 필요한 앱과 작업을 자동으로 선택해 처리하는 방식을 뜻합니다. 예를 들어 “회의 내용 정리해서 팀이랑 공유해줘”라고 말하면, 어떤 문서를 요약할지, 어떤 형식으로 정리할지, 어떤 메신저나 이메일로 보낼지를 AI가 스스로 판단해 실행하는 식입니다.

Q.

AR 안경과 AI가 결합되면 일상에서 무엇이 달라지나요?

AR 안경만으로는 단순히 정보 “표시 장치”에 가까웠습니다. 여기에 AI가 결합되면, 안경이 사용자의 시야와 주변 상황을 이해하는 ‘머리에 쓰는 비서’가 됩니다. 예를 들어 길을 걷다가 간판을 보면 바로 리뷰·운영시간을 띄워주거나, 외국어 메뉴판을 자동 번역해 보여주고, “이 제품 싸게 살 수 있는 곳 찾아줘”라고 말하면 온라인 가격 비교까지 해줄 수 있습니다. 손을 자유롭게 둔 채로 실시간 정보·번역·검색·기록을 받게 되면서, 스마트폰을 꺼내는 횟수 자체가 줄어드는 변화가 나타날 수 있습니다.

Q.

AI가 발전하면 지금의 ‘앱 생태계’는 어떻게 달라질까요?

지금은 사용자가 할 일을 앱 기준으로 쪼개서 생각합니다. 사진은 사진 앱, 메모는 메모 앱, 소통은 메신저 앱처럼요. 보즈워스가 말하는 미래에서는 사용자가 앱을 직접 고르지 않고, AI에게 “하고 싶은 일”만 말하면 됩니다. 그러면 AI가 여러 앱과 서비스를 백그라운드에서 조합해 실행합니다. 이 경우 앱은 화면에 전면 등장하는 아이콘이 아니라, AI가 호출하는 ‘기능 모듈’처럼 작동하게 되고, 사용자 경험의 중심 축은 개별 앱이 아니라 AI 인터페이스로 이동하게 됩니다. 개발사 입장에서는 “어떤 화면을 만들 것인가” 못지않게 “AI가 쉽게 불러 쓸 수 있는 기능과 API를 어떻게 제공할 것인가”가 중요해지는 구조로 바뀔 수 있습니다.

TP AI 유의사항

TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.

본 기사는 시장 데이터 및 차트 분석을 바탕으로 작성되었으며, 특정 종목에 대한 투자 권유가 아닙니다.