맨위로 가기
  • 공유 공유
  • 추천 추천

리콜 네트워크(Recall Network): AI의 평판 화폐

23 Sep, 2025


서론

 

지난 2년간 자율 AI 에이전트의 폭발적 성장과 함께 인간과 디지털 경제의 상호작용 방식을 재정의하려는 암호화폐 네트워크의 병행 붐이 일어났다. AI 모델이 점점 더 의사결정과 가치 이전을 주도하면서, 뚜렷한 신뢰 격차가 나타났다. AI 출력물은 여전히 조작에 취약하고, 성능 벤치마크는 쉽게 게이밍되며, 사용자들은 종종 독립적인 검증 없이 에이전트의 주장을 받아들여야 한다.

 

이에 대응하여, 검증 가능성이라는 암호화폐의 핵심 정신이 잠재적 해결책으로 부상하고 있다. 신뢰할 수 있는 중립적 인프라의 역량은 에이전트 행동과 결과를 검증하는 투명하고 견고한 메커니즘을 제공함으로써 AI 시스템에 대한 신뢰를 가능하게 한다.

 

이는 온체인 프리미티브를 사용하여 지능 자체를 검증하는 새로운 내러티브를 촉발했다. 리콜 네트워크(Recall Network)는 AI와 암호화폐의 교차점에서 "무신뢰 발견 엔진"이자 AI 에이전트를 위한 평판 레이어로 자리하며, 블록체인이 금융 거래에 가져온 것과 동일한 투명성과 엄격성을 AI 성능에 가져오는 것을 목표로 한다.

 

2025년 초 두 개의 베테랑 웹3 데이터 팀(세라믹(Ceramic)의 3박스 랩스(3Box Labs)와 테이블랜드(Tableland)의 텍스타일(Textile))의 합병으로 출범한 리콜은 탈중앙화 데이터 인프라에 대한 깊은 전문성을 물려받았다. 리콜 네트워크는 AI를 위한 평판 레이어로 특별히 구축된 탈중앙화 프로토콜이다. 간단히 말해, AI 도구와 시스템이 자신의 역량을 증명하고 시간이 지남에 따라 평판을 구축할 수 있는 중립적인 플랫폼을 제공한다.

 

리콜은 트레이딩 봇에서 콘텐츠 생성기에 이르기까지 다양한 도메인의 자율 에이전트를 위한 개방적이고 실적 기반의 환경을 제공한다. 성능은 투명하고 독립적으로 검증된 결과를 기반으로 측정된다. 현재까지 멀티코인(Multicoin), 코인베이스 벤처스(Coinbase Ventures), 코인펀드(Coinfund), USV 등으로부터 3천만 달러를 모금했다.

Infographic showing Recall Network’s fundraising backed by leading crypto investors.


주요 시사점

 

• AI의 신뢰 격차는 구조적 문제다: AI는 금융, 기업, 소비자 앱으로 확산되고 있지만, 발견은 여전히 입증된 성능보다는 과대광고와 데모에 의존한다. 평판 레이어 없이는 역량 있는 에이전트는 숨겨진 채로 있고 과대평가된 에이전트가 주목받는다.

 

• 전통적인 벤치마크는 망가졌다: 정적인 리더보드와 테스트 세트는 좁고 게이밍 가능하며, 일반화보다는 과적합하는 취약한 에이전트를 생산한다.

 

• 경쟁이 골드 스탠다드다: 실시간 AI 경쟁은 재생 가능하고 유출 저항적인 작업, 동적 평가, 정적 벤치마크가 제공할 수 없는 엄격성을 제공한다. 리콜은 이 구조를 활용하여 에이전트가 평판을 구축하기 위해 지속적으로 통과해야 하는 감사 가능한 경쟁을 만든다.

 

• 리콜 랭크가 평판을 이식 가능하게 만든다: 리콜 경쟁에서의 AI 성능은 리콜 랭크(Recall Rank)를 통해 지속적이고 추적 가능한 점수로 축적된다. 이는 에이전트, 비즈니스, 소비자가 다양한 맥락에서 신뢰할 수 있는 지속적인 신뢰 신호를 생성한다.

 

• $RECALL 인센티브: $RECALL 토큰은 경쟁 참가, 스테이킹, 큐레이션을 지원하여 AI 평판을 투자 가능한 자산으로 전환한다. 큐레이터는 성과를 내는 AI를 지원할 때만 수익을 얻으며, 이는 조작을 억제하는 스킨-인-더-게임 역학을 만든다.


AI 경제의 부상과 신뢰 격차

 

많은 사람들이 AI의 에이전트 시대(agentic era)라고 부르는 시기에 진입하고 있으며, 이는 고립된 AI 도구에서 최소한의 인간 감독으로 의사결정을 내리고 거래를 실행하며 서로 상호작용할 수 있는 자율 에이전트로의 전환을 나타낸다. 사용 사례는 금융(알고리즘 트레이딩 봇), 콘텐츠 생성, 개인 비서, 기업 워크플로 등 다양하다. 버츄얼스(Virtuals)의 자율 헤지펀드 클러스터(Autonomous Hedge Fund cluster)를 예로 들면, 사용자는 단순히 중개인 에이전트와 상호작용한다. 에이전트는 디파이 수익률(DeFi yields), 트레이딩, 밈코이닝(memecoining) 에이전트 네트워크 전반에 걸쳐 사용자의 위험 프로필과 성향에 가장 적합한 시장을 탐색한다.

Diagram of Virtuals’ Autonomous Hedge Fund cluster in the AI agent economy.

이러한 급속한 성장 속에서 근본적인 과제가 남아있다. 바로 신뢰와 발견이다. AI 에이전트(및 기본 모델)의 수가 증가함에 따라, 어떤 AI가 유능하고 신뢰할 수 있는지 식별하는 것이 더욱 복잡해진다.

 

현재 AI 제품을 위한 신용 점수나 구글 검색 순위에 해당하는 것이 없다. 대신, 발견은 종종 화려한 데모, 소셜 미디어 인기도 또는 기업 브랜딩과 같은 피상적인 신호에 의존한다. 이 모든 것은 오해의 소지가 있거나 쉽게 위조될 수 있는 신호들이며, 진정으로 역량 있는 에이전트는 노이즈 속에 숨겨진 채로 있을 수 있는 반면 과대평가된 에이전트가 주목받는다는 것을 의미한다.

 

게다가, "그린 캔들 = 프로젝트 좋음, 레드 캔들 = 프로젝트 나쁨"이라는 시장에서, 주목은 단순히 지난주 10배 상승한 다음 AI 프로젝트 코인으로 옮겨간다. 설령 그 코인이 아무런 목적이나 유용성이 없더라도 말이다. 따라서 AI 경제는 모든 에이전트가 동일한(또는 약간 다른) 에코 챔버에서 자신의 역량을 광고하는 신뢰 격차에 직면해 있다.

 

시장 전망: 암호화폐 에이전트, 비즈니스, 소비자 간의 흐름

 

AI와 암호화폐 네트워크의 교차점은 전혀 새로운 경제적 흐름을 열어주며, 종종 세 가지 세그먼트로 설명된다: A2A(에이전트 간), A2B(에이전트-비즈니스), A2C(에이전트-소비자). 각각은 신뢰 레이어에 의해 잠금 해제될 수 있는 프론티어를 나타낸다.

 

• 에이전트 간(A2A): AI 도구와 에이전트가 온체인에서 직접 서로 협력하거나 거래한다. 이는 초기 단계이지만 유망한 영역으로, 특화된 에이전트 클러스터가 인간 개입 없이 24시간 연중무휴로 서비스, 데이터 또는 기술을 거래한다. 초기 사례들이 등장하고 있다. 예를 들어, 버츄얼스와 같은 프로토콜은 프레임워크를 통해 에이전트 협업을 표준화할 것을 제안했으며, 자율 헤지펀드 클러스터에서 볼 수 있듯이 에이전트가 서로 작업을 협상하고 실행할 수 있도록 한다.

 

A2A가 번성하려면, 에이전트는 서로의 역량에 대한 신뢰할 수 있는 신호가 필요하다. 에이전트를 위한 평가 시스템과 같은 것이다. 리콜의 인프라는 에이전트가 다른 에이전트를 신뢰하고 대금을 지불하기로 결정하기 전에 참조하는 평판 오라클로 정확히 기능할 수 있다. 실제로 리콜은 신뢰할 수 있는 에이전트가 동료로부터 더 많은 비즈니스를 찾는 AI의 자유 시장을 가능하게 할 수 있다.

 

• 에이전트-비즈니스(A2B): 기업이나 프로토콜에 서비스를 제공하는 AI 에이전트다. 여기에는 DAO를 위한 자금 관리를 하는 자율 에이전트, 비즈니스를 위한 고객 지원이나 운영을 처리하는 AI 봇, 또는 트레이딩 회사에 분석 및 예측을 제공하는 에이전트가 포함된다.

 

이는 2024년 4분기 온체인 AI 붐 동안 매우 인기가 있었으며, 가장 주목할 만한 것은 자금 관리, 투자, 벤처 캐피털을 위해 AI를 통합한 최초의 DAO 중 하나인 ai16z였다(유명한 a16z 회사를 모방).

Chart displaying AI16z DAO’s assets under management (AUM).

• 에이전트-소비자(A2C): 개인 비서나 개인을 위한 자율 투자 자문과 같이 최종 사용자에게 직접 서비스를 제공하는 에이전트다. 암호화폐는 이러한 에이전트에 대한 결제 레일, 신원 및 데이터 이식성을 제공함으로써 작동한다. 예를 들어, AI 회계 에이전트는 x분의 작업당 스테이블코인으로 마이크로 수수료를 청구하고 온체인 회계 표준 데이터 저장소에서 지식을 업데이트할 수 있다. 소비자가 그러한 에이전트를 받아들이려면,

 

사용자는 "AI 자문가"가 견고한 성과 이력을 가지고 있다는 확신이 필요하다. 마치 가기 전에 레스토랑의 리뷰를 확인하는 것처럼 말이다.

 

이 모든 흐름에서 검증 가능한 신호 필터링이 공통적인 필요사항이다. 세계경제포럼(World Economic Forum)은 "신뢰는 AI 에이전트 경제에서 새로운 화폐"라고 설명했으며, 이는 성과 이력과 예측 가능한 행동 위에 구축될 것이다. 리콜은 소비자 앱, 기업 서비스, 에이전트 네트워크 전반에 걸쳐 AI의 신뢰 레이어를 구축함으로써 누가(또는 무엇이) 무엇을 할 수 있는지에 대한 온체인 공개 기록을 수립하여 바로 이 문제를 해결하고자 한다.

Survey results on trust and acceptance of AI systems.


전통적인 AI 벤치마크가 실패하는 이유

 

리더보드, 정적 테스트 세트, 선별된 데모로 구성된 레거시 AI 벤치마킹 스택은 신뢰할 수 있는 결과를 반환하지 못한다. "AI 에이전트가 중요하다(AI Agents That Matter)"에 관한 프린스턴 연구 논문에 설명된 대로 세 가지 실패 모드가 반복된다.

 

• 첫째, 일반적으로 정적이고 좁으며, 종종 고정된 데이터셋이나 작업에서 모델을 평가하는데, 이는 종종 실제 세계의 복잡성과 역동성을 제대로 대표하지 못한다. AI 모델이 통제된 환경에서 리더보드 상위에 오르는 것과, 금융 시장이나 개방형 네트워크와 같이 역동적이고 빠르게 변화하는 고노이즈 환경에서 일관되게 수행하는 것은 전혀 다른 문제다.

 

• 많은 벤치마크는 게이밍 가능하거나 불투명하다. 팀은 종종 진정으로 일반화된 지능을 달성하기보다는 평가 지표의 특이점을 활용하여 테스트를 이기도록 특별히 최적화한다.

 

• 비용, 신뢰성, 일반화 가능성을 무시하는 정확도만의 사고방식이다. 최종 결과는 서류상으로는 강해 보이지만 장기 계획, 도구 사용, 오류 복구가 필요한 작업에서는 실패하는 에이전트다.

 

오픈AI(OpenAI)의 컴퓨터 사용 에이전트(CUA, Computer-Using Agent) 벤치마크 보고서에서 다음 벤치마킹 도구가 사용되었다.

Screenshot of OpenAI’s Computer-Using-Agent benchmark report.

• OSWorld는 픽셀, 마우스, 키보드를 통해 전체 데스크톱 환경(우분투/윈도우/맥OS)을 운영하는 에이전트를 평가한다. OSWorld는 총 369개의 작업(및 분석을 위한 윈도우의 추가 43개 작업)을 포함한다. OSWorld는 최초의 확장 가능한 실제 컴퓨터 환경(즉, 가능한 한 동적인 벤치마크)이라고 자체 브랜딩한다.

Diagram of OSWorld benchmarking methodology.

• 인간은 OSWorld의 작업 중 72.36% 이상을 달성할 수 있었던 반면, 현재 가장 높은 정확도 에이전트는 47.3%에 머물렀다. 다양한 유형의 컴퓨터 작업에서 일관된 인간 성능과 비교하여 에이전트의 극심한 성능 변동이 있었다.

Graph comparing human and AI agent results in OSWorld benchmarks.

• 웹아레나(WebArena)웹보이저(WebVoyager)는 브라우저를 사용하여 실제 작업을 완료하는 웹 브라우징 에이전트의 성능을 평가하는 벤치마크다. 웹아레나는 전자상거래, 온라인 스토어 콘텐츠 관리(CMS), 소셜 포럼 플랫폼 등에서 실제 시나리오를 모방하기 위해 자체 호스팅 오픈소스 웹사이트를 오프라인으로 활용한다. 웹보이저는 아마존(Amazon), 깃허브(GitHub), 구글 맵(Google Maps)과 같은 온라인 라이브 웹사이트에서 모델의 성능을 테스트한다.

 

오픈AI의 CUA는 58.1%를 기록했고 인간의 성공률은 78.2%였다. 주목할 만하게도, 성공률 점수는 2년 동안 거의 4배 증가했다.

Leaderboard results for AI agents on WebArena tasks.

인간은 이러한 벤치마크에서 평균 70-80%를 일관되게 점수를 매길 수 있지만, 에이전트의 변동성은 서로 다른 벤치마크에서 크게 차이가 나며, 이는 동적 능력의 잠재적 부족과 특정 벤치마크에 대한 과적합을 강조한다. 이러한 전통적인 벤치마크는 시간이 지나도 지속되지 않거나 에이전트가 새로운 맥락으로 가져갈 수 있는 검증 가능한 평판으로 전환되지 않는 이식 불가능한 신호를 생성한다.

 

규범적 해결책은 "AI 에이전트가 중요하다(AI Agents That Matter)" 기사에 설명된 대로 비용, 정확도, 재현 가능한 평가 파이프라인의 공동 최적화를 포함한다. 필요한 것은 지속적이고(시간에 따라 동적), 투명하며, 게이밍하기 어렵고, 지속적인 평판 프로필을 생성하는 AI 에이전트를 위한 새로운 종류의 벤치마크다. 이것이 바로 리콜이 온체인 경쟁과 리콜 랭크로 해결하고자 하는 것이다. 실시간 환경에서 에이전트를 평가하고 성과의 전체 컨텍스트를 기록함으로써, 리콜은 각 AI 에이전트나 도구에 대해 지속적으로 업데이트되는 평판 점수를 생성한다.


실제로 작동하는 것: 경쟁

 

구조화된 AI 경쟁의 사용이 경험적 엄격성의 골드 스탠다드라는 합의가 점점 커지고 있다. 경쟁은 새로운 작업의 재생 가능한 스트림을 제공하고, 병렬로 실행되며(한 시점에 수천 개의 접근 방식이 사과 대 사과로 평가됨), 유출 방지 관행을 내장한다. 유출(leakage)은 AI 모델이 테스트 세트에 대한 정보에 불공정하게 노출되는 경우를 의미하므로, 벤치마크 점수가 진정한 역량이 아닌 암기나 지름길을 반영한다. 따라서 유출 방지 관행에는 평가 후 테스트 데이터를 숨겨두기, 인터넷 접근이 없는 보안 환경에서 모델 실행 등의 조치가 포함된다.

Diagram comparing sequential vs. parallel AI evaluation structures.

AI의 중립적 평가 레이어로서의 리콜

 

리콜 네트워크는 AI를 위한 중립적인 평가 및 발견 레이어가 되겠다고 제안한다. 가치 제안은 간단하지만 오늘날의 분열된 AI 환경에서 매우 필요한 것으로, 에이전트 품질에 대한 단일 진실 공급원을 제공한다. 그들의 목표는 신용 기관이 개인 금융에 서비스를 제공하거나 페이지랭크(PageRank)가 웹사이트 순위를 매기는 데 사용된 방식과 유사하게 AI 에이전트를 위한 알고리즘 평판 시스템을 개발하는 것이다.

 

누가 구축했든 어디서 실행되든 관계없이 모든 AI는 리콜에 성과를 기록하고 모두에게 보이는 순위를 얻을 수 있다. 이러한 중립성은 AI의 실제 역량을 측정하는 데 중요하다.

 

리콜은 자체 봇을 구축하여 경쟁하지 않으며 한 AI를 다른 AI보다 선호하지 않는다. 단순히 지능을 측정하고 표면화한다. 그렇게 함으로써 개발자, 사용자, 다른 프로토콜이 신뢰할 수 있는 신뢰할 만하고 편향되지 않은 평가를 제공한다. AI의 점수는 AI의 마케팅 예산이나 창작자가 누구인지가 아닌 온체인 증명(원장에 기록된 데이터 및 결과)으로 뒷받침된다.

 

리콜의 접근 방식은 엔드-투-엔드로 검증 가능하고 투명하다. 경쟁 결과, 스테이크 분배, 에이전트 활동 로그와 같은 모든 기본 데이터는 공개적으로 접근 가능하며, 누구나 특정 에이전트가 그 점수를 받은 이유를 감사할 수 있다.

Screenshot of Recall’s agent portfolio interface.


리콜의 핵심 설계 프리미티브

 

리콜은 모든 AI가 무신뢰 방식으로 조정하고 경쟁할 수 있도록 하는 인프라 레이어가 될 수 있는 구성 가능한 설계를 가지고 있다. AI는 오프체인에서 지식을 습득하고 그 지식과 성과를 온체인에 기록하며 경제적 스테이크와 함께 리콜 랭크를 통해 평가받을 수 있다. 시스템은 세 개의 상호작용하는 레이어로 나눌 수 있다: 경쟁 시스템, 순위 엔진, 경제적 큐레이션 레이어.

 

온체인 경쟁

 

리콜의 경쟁 모듈은 AI가 물리적으로 능력을 입증하는 곳이다. 이러한 경쟁은 온체인에 배포된 스마트 컨트랙트 기반 토너먼트나 챌린지로 설계되었다. 각 경쟁은 작업(트레이딩, 코딩, 예측 등), 평가 설정/환경, 채점 로직, 보상 파라미터로 정의된다.

Distribution chart of AgentRank scoring.

경쟁이 진행 중일 때, AI(개발자나 심지어 다른 AI 시스템이 제출)는 리콜 프로토콜에 연결하여 실시간으로 작업 입력을 받는다. 그런 다음 샌드박스 시장에서 거래를 하는 트레이딩 봇이나 프로그래밍 퍼즐을 풀고 출력물이나 행동을 온체인으로 다시 제출하는 코딩 에이전트와 같은 전략을 실행한다. 스마트 컨트랙트는 제공된 입력, 반환된 출력, 소요 시간, 손익이나 정확도와 같은 성능 지표 등 모든 움직임을 추적한다.

 

모든 에이전트가 동일한 조건에 직면하기 때문에, 경쟁은 에이전트 성능에 대한 공정한 사과 대 사과 비교를 산출한다. 그리고 중요한 것은, 경쟁이 실시간으로 진행된다는 것은 에이전트의 능력이 정적인 실험실 환경이 아닌 실시간 동적 환경에서 평가된다는 것을 의미한다.

 

모든 상호작용은 거래나 이벤트로 블록체인(또는 온체인에 고정된 오프체인 데이터 네트워크)에 기록된다. 이는 경쟁의 전체 라이프사이클이 시작부터 최종 점수까지 사후에 감사 가능함을 의미한다. 경쟁이 끝나면 결과가 최종 확정되고(우승자, 에이전트 순위 등), 보상은 종종 토큰이나 상금 및 리콜 랭크 부스트로 자동 분배되지만, 비우승자도 블록체인에 경험의 영구 기록을 얻는다.

Screenshot of Recall AlphaWave competition overview.

예를 들어, 알파웨이브(AlphaWave)는 2만 5천 달러 상금 풀을 가진 트레이딩 에이전트 대회였다. 1,000개 이상의 에이전트 팀이 경쟁했으며, 대회에서 그들이 실행한 모든 거래가 기록되었다. 우승자는 상금을 받고 리콜 랭크가 업데이트되었으며, 모든 참가자의 결과가 온체인 이력서에 추가되었다. 경쟁은 또한 데이터셋(전략과 결과를 알고리즘 개선에 사용할 수 있음)과 같은 가치 있는 부산물을 생성하여 AI 커뮤니티에 긍정적인 외부효과를 만드는 좋은 부작용을 생성한다.

Leaderboard results of AlphaWave trading competition.

리콜 랭크 평판 엔진

 

경쟁과 메모리의 원시 데이터 위에 있는 것은 리콜 랭크 엔진으로, 각 AI의 평판 점수를 계산하는 알고리즘과 스마트 컨트랙트다. 실제로 리콜 랭크는 여러 신호를 종합한다:

 

1. 리콜의 온체인 챌린지에서 검증 가능한 성과(에이전트가 경쟁 작업에서 실제로 얼마나 잘 수행하는지),

2. 큐레이션 시스템을 통한 커뮤니티 스테이크(곧 자세히 설명), 그리고

3. 시간 경과에 따른 일관성(에이전트는 지속적이고 신뢰할 수 있는 결과에 대해 더 높은 점수를 얻음).

 

각 경쟁 후, AI의 성과 지표가 리콜 랭크에 입력된다. 리콜의 각 AI 프로필이 업데이트된다. 예를 들어, 에이전트 A는 주식 선택 대회에서 500명 중 2위를 차지했거나(상위 0.4%), 에이전트 B는 Q&A 챌린지에서 질문의 80%에 정확하게 답변하여 상위 10%에 올랐다. 이러한 결과는 관련 도메인에서 에이전트의 평판을 점진적으로 조정한다. 리콜 랭크는 기술별 점수를 가질 수 있다(에이전트는 "트레이딩"에서 높은 점수를 가질 수 있고 "코딩"에서는 다른 점수를 가질 수 있음 등). 다만, 종합 점수도 계산되어 잠재력이 높은 에이전트의 신호로서 집단적 확신을 반영할 수 있다. 종합 점수에 대한 정확한 계산 및 가중치 메커니즘은 아직 공개되지 않았다.

 

새로운 에이전트는 기본 시작 성과 점수로 시작하며, 여러 경쟁을 거치면서 각 경쟁에서의 성과와 높은 잠재력을 나타내는 경제적 스테이크를 기반으로 전체 리콜 랭크 점수가 업데이트된다. 결과적으로, 분포 곡선은 각 에이전트가 4개 사분면 중 어디에 위치할지 보여준다.

Distribution curve of Recall Rank scores over time.

에이전트의 리콜 프로필은 과거 경쟁 순위, 특정 챌린지 우승자와 같은 표창, 현재 리콜 랭크 점수, "경쟁 결과" 하에 각 경쟁에서 받은 투표 수를 보여준다.

Screenshot of MoonSage agent’s competition history.

경제적 큐레이션 레이어

 

핵심 기능은 리콜이 또한 크라우드소싱 스테이킹 신호를 리콜 랭크에 통합한다는 것이다. 모든 사용자 또는 심지어 다른 AI도 해당 AI의 미래 성과에 대한 확신의 표시로 AI에 $RECALL 토큰을 스테이킹할 수 있다. 이는 스포츠에서 선수를 지원하기 위해 베팅하는 것과 같다. AI가 계속 잘 수행하면, 지원자는 보상을 얻을 수 있다(정확한 메커니즘은 슬래싱 또는 보상 풀을 포함할 수 있으며, 정확한 베팅이 잘못된 베팅이나 네트워크 인센티브로부터 보상받는 방식). 이는 또한 AI 성공에 대한 예측 시장으로 볼 수 있다.

Voting interface for Recall competitions.

이 메커니즘은 평판을 투자 가능한 자산으로 전환하여, 적절하게 스테이킹함으로써 AI의 미래 성과에 롱 포지션을 취하거나 중립을 유지할 수 있게 한다. AI 에이전트(예를 들어)의 경우, 더 많은 스테이크를 받으면 리콜 랭크가 상승하고(많은 이들이 그들을 보증하기 때문에), 이는 다시 더 많은 사용자가 그들을 고용하도록 유도한다. 스테이커(큐레이터)의 경우, 이는 저평가된 AI 인재를 발견하고 그에 대한 보상을 받음으로써 수익을 얻는 방법이다.

 

이는 원시 성과 데이터 위에 스킨-인-더-게임 레이어를 생성하며, 이는 시빌(Sybil)이나 가짜 AI가 순위에서 상승하는 것을 강력하게 억제한다(실제 성과 없이는 주저할 실제 경제적 스테이크를 유치해야 하기 때문). 또한 리콜의 경제에서 평판이 금전적 무게를 가진다는 것을 의미하며, 이는 참가자들이 정직하게 신호를 보내고 신뢰할 수 있는 AI만 지원하도록 유도해야 한다.

 

따라서 리콜 랭크는 기술적 성과와 사회적 증명(시장 기반)을 혼합하며, 이는 조작에 저항하는 데 도움이 된다. 에이전트는 최고 평판을 살 수 없다. 왜냐하면 그것을 믿는 광범위한 진정한 금전적 스테이크 지원이 필요하고, 에이전트는 지속적으로 혁신하고 수행해야 하기 때문이다(지속적인 성과 없이는 스테이크와 점수가 감소하기 때문).


리콜 프레딕트: 벤치마크의 벤치마크를 크라우드소싱하다

 

프레딕트(Predict)는 벤치마킹 자체를 지능의 시장으로 전환하는 커뮤니티 주도 예측 플랫폼이다. 프레딕트는 리콜 랭크를 주도하도록 설계된 또 다른 유형의 경쟁의 초기 예시다. 팀은 이를 "커뮤니티 예측으로 구동되는 세계 최초의 게이밍 불가능한 AI 벤치마크"라고 설명한다. 과적합되거나 유출될 수 있는 정적 테스트 세트에 의존하는 대신, 프레딕트는 수천 명의 크라우드소싱된 인간 및 에이전트 참가자를 활용하여 향후 모델(예: GPT-5 대 경쟁 모델)이 다양한 기술 카테고리에서 어떻게 수행할지 예측하며, 리콜의 무신뢰 발견 엔진으로서의 역할을 더욱 강화한다.

Screenshot of Recall Predict benchmarking platform.

리콜 프레딕트의 핵심 측면은 AI 모델 기술에 대한 비교 예측을 하는 것이다. 각 기술 카테고리에 대해 모델 쌍이 표시되며, 참가자는 GPT-5와 같은 모델이 비교 모델보다 강할지 약할지 예측한다. 참가자는 코드 생성, 윤리적 허점 탐색, 설득력, 숨겨진 메시징, em-대시 금지 요청 준수 등과 같은 특정 기술 카테고리에 대한 프롬프트를 제출할 수 있다. 이러한 것들은 모델을 비교하는 데 사용되는 실제 제출된 테스트다.

Example skill evaluation from Recall Predict.


경제적 인센티브 및 성장 플라이휠

 

리콜의 경제 레이어 최상위에 위치한 것은 스킬 풀(Skill Pool)로, 에이전트가 구축할 특정 수요가 있는 기술이 먼저 식별된다. 이는 이미 풀이 있는 특정 기술 뒤에 실제 경제적 가치를 스테이킹하거나 새로운 기술을 위한 새로운 풀을 시작함으로써 수행된다. TVL이 높은 풀은 일반적으로 더 많은 관심을 끌며, 해당 틈새 시장 내에서 더 많은 에이전트가 개발하고 더 많은 경쟁 활동이 일어난다.

Visualization of Recall skill pools.

각 스킬 풀의 규모는 특정 보상 기간에 각 기술의 에이전트와 큐레이터에게 흐르는 전체 $RECALL 프로토콜 보상의 상대적 비율을 결정한다. 이 설계는 커뮤니티가 정의한 고가치 기술이 비례적으로 더 큰 보상을 받도록 보장하며, 보상을 수요와 일치시키고 에이전트 인재, 스테이커 자본, 사용자 수요가 가장 가치 있는 기술 주변에 자연스럽게 모이는 네트워크 효과를 생성하여 참여를 촉진하고 프로토콜 가치를 증가시키며 시장 발견 및 혁신을 가속화한다.

Diagram of $RECALL token flow between skill pools.

$RECALL은 네트워크의 기본 유틸리티 토큰이며, 리콜의 모든 중요한 행동이 이에 연결되어 있다. 예를 들어, 에이전트가 리콜의 마켓플레이스에서 서로 거래할 때(예: 데이터나 서비스에 대한 대금 지불), 해당 지불은 $RECALL로 이루어지거나 $RECALL로 프로토콜 수수료가 발생할 수 있다. 사용자는 또한 생태계 내 에이전트에 접근하고 쿼리하기 위해 $RECALL 크레딧으로 지불한다. 게다가, 각 에이전트와의 유동성 스테이킹도 $RECALL로 지불되는 수수료가 발생한다. 따라서 리콜의 AI 경제가 사용량에서 확장됨에 따라, 토큰은 그 가치 흐름의 일부를 포착한다.

 

플라이휠은 모든 참가자의 성공이 네트워크에 이익이 되도록 구조화되어 있다. AI가 경쟁에서 우승하면, $RECALL로 상금을 받고 더 높은 리콜 랭크를 얻는다. 더 높은 순위는 가시성을 증가시키고, 결과적으로 사용자 수요와 거래량이 증가할 가능성이 높다. 이는 더 높은 큐레이션 스테이크를 유치하며, 이는 더 많은 공급을 잠그고 리콜 랭크를 더욱 높인다. 큐레이터도 에이전트가 계속 수행하면 보상을 계속 얻으며, 이는 그들이 재투자하거나 다른 유망한 에이전트에 스테이킹하도록 인센티브를 제공한다.

Diagram of $RECALL economic flywheel.

반대로, AI가 저조한 성과를 내면, 스테이커는 손실을 입고 지원을 철회할 수 있으며, 이는 AI의 순위를 낮추고 다른 이들에게 공간을 만든다. 이러한 역학은 자본을 최선의 용도(가장 유망한 AI)에 지속적인 주기로 할당하여, 본질적으로 인재에 대한 자유 시장 거버넌스를 생성한다. 네트워크가 더 많이 사용될수록 더 많은 데이터가 생성되고, 리콜 랭크의 신호 품질이 향상되며, 이는 다시 더 많은 사용자와 AI를 유치한다(평가가 신뢰할 수 있고 가치가 있기 때문에), 이는 더 많은 토큰 사용과 가치로 이어진다.


결론

 

리콜은 AI 시대의 근본적인 과제를 다룬다. 바로 AI를 위한 대규모 평판 제공이다. 초기 인터넷이 검색 엔진과 웹사이트의 신뢰 점수에 대한 평판 시스템을 필요로 했던 것과 유사하게, AI도 그 신뢰 레이어가 필요하다. 리콜은 명확한 북극성 신호(현재는 트레이딩을 위한 손익이지만, 베팅을 위한 결과 정확도, 의학을 위한 진단 정확도 등으로 확장될 수 있음)를 가진 경쟁에서 AI가 온체인에서 자신의 가치를 증명할 수 있는 방법을 발명함으로써 그 레이어가 되겠다는 설득력 있는 주장을 하고 있다.

 

AI와 암호화폐의 교차점을 평가하는 투자자, 빌더, 파트너에게 리콜은 앞으로 몇 년간 AI를 발견하고 신뢰하는 방법을 정의할 수 있는 퍼즐의 독창적이고 잠재적으로 중요한 조각을 제공한다. 지능이 상품이 되어가는 세계에서, 리콜은 그 상품에 대한 마켓플레이스이자 심판으로 자리매김하여 AI의 새로운 경제가 증명, 투명성, 획득한 평판 위에서 작동하도록 보장하고 있다.


용어집

용어 정의
정적 벤치마크(Static Benchmark) 변하지 않는 데이터셋과 작업을 가진 고정 평가 스위트. 모델이 테스트 분포에 대해 훈련하거나 암기함에 따라 유출, 과적합, 노후화에 취약함.
큐레이션 마켓(Curation Market) 참가자가 예상되는 미래 성과의 신호로 $RECALL로 에이전트를 지원하는 예측 스타일 스테이킹 시스템.
리콜 랭크(Recall Rank) 검증 가능한 경쟁 결과, 큐레이터 스테이킹 신호, 성과의 최신성을 가중하여 AI 에이전트에 지속적인 점수를 할당하는 평판 알고리즘으로, 이식 가능한 신뢰 지표를 생성함.
지능 증명(Proof-of-Intelligence)

에이전트가 표준화된 작업에서 역량을 입증하는 경쟁에 의한 합의 메커니즘으로, 모든 입력, 출력, 결과가 기록되어 게이밍 불가능한 역량 증거를 생성함

유출 방지 관행(Anti-Leakage Practices) 평가 데이터가 모델 훈련이나 테스트 노출을 오염시키는 것을 방지하는 설계 메커니즘.
평판 이식성(Reputation Portability) 에이전트의 역사적 성과 데이터가 맥락 전반에 걸쳐 지속되어, 그 실적이 하나의 벤치마크나 플랫폼에 고립되지 않고 재사용 가능한 자격 증명으로 기능할 수 있도록 하는 속성.
일반화된 지능(Generalized Intelligence) AI 시스템이 훈련 분포 외부의 새롭고 다양한 작업에서 견고하게 수행할 수 있는 능력으로, 좁은 벤치마크 최적화 역량과 대조됨.

참고 문헌

 

실제 컴퓨터 환경에서 자율 에이전트를 구축하기 위한 현실적인 웹 환경.

 

실제 컴퓨터 환경에서 개방형 작업을 위한 멀티모달 에이전트 벤치마킹.

 

AI 에이전트가 중요하다.

 

AI 에이전트 정확도가 있어야 할 수준에 없는 이유.

 

AI 경쟁이 GenAI 평가에서 경험적 엄격성의 골드 스탠다드를 제공한다.


고지사항

 

알레아 리서치(Alea Research)는 리콜 네트워크와 상업적 관계에 있으며 리서치 서비스에 대한 보상을 받습니다. 본 보고서는 이 참여의 일환으로 의뢰되었습니다.

 

본 분석에 직접 참여한 분석가를 포함한 알레아 리서치 팀의 구성원은 논의된 토큰에 포지션을 보유하고 있을 수 있습니다.

 

본 콘텐츠는 순전히 정보 제공 및 교육 목적으로만 제공됩니다. 금융, 투자 또는 법률 자문을 구성하지 않습니다.

안내사항

  • (주)토큰포스트에서 제공하는 리서치에 대한 저작권 및 기타 지적재산권은 (주)토큰포스트 또는 제휴 파트너에게 있으며, 이용자를 위한 정보 제공을 목적으로 합니다.
  • 작성된 내용은 작성자 본인의 견해이며, (주)토큰포스트의 공식 입장이나 의견을 대변하지 않습니다.
  • (주)토큰포스트는 리서치 및 관련 데이터를 이용한 거래, 투자에서 발생한 어떠한 손실이나 손해에 대해서 보상하지 않습니다.
  • 가상자산은 고위험 상품으로써 투자금의 전부 또는 일부 손실을 초래 할 수 있습니다.
Bitcoin 로고 Bitcoin (BTC)
163,335,809 (+3.05%)
Ethereum 로고 Ethereum (ETH)
6,030,248 (+3.61%)
XRP 로고 XRP (XRP)
4,105 (+2.86%)
Tether USDt 로고 Tether USDt (USDT)
1,404 (+0.01%)
BNB 로고 BNB (BNB)
1,443,268 (+1.85%)
Solana 로고 Solana (SOL)
304,107 (+4.98%)
USDC 로고 USDC (USDC)
1,403 (+0.02%)
Dogecoin 로고 Dogecoin (DOGE)
340.4 (+5.64%)
TRON 로고 TRON (TRX)
474.2 (+0.32%)
Cardano 로고 Cardano (ADA)
1,167 (+5.64%)
왼쪽
2025 10월  1(수)
오른쪽
진행기간 2025.10.01 (수) ~ 2025.10.02 (목)

31명 참여

정답 87%

오답 13%

진행기간 2025.09.30 (화) ~ 2025.10.01 (수)

45명 참여

정답 82%

오답 18%

진행기간 2025.09.29 (월) ~ 2025.09.30 (화)

43명 참여

정답 77%

오답 23%

진행기간 2025.09.26 (금) ~ 2025.09.27 (토)

40명 참여

정답 60%

오답 40%

기간 2024.03.20(수) ~ 2024.04.02(화)
보상내역 추첨을 통해 100명에게 커피 기프티콘 에어드랍
신청인원

126 / 100

이더리움(ETH) 일반 마감

[Episode 11] 코인이지(CoinEasy) 에어드랍

기간 2024.02.27(화) ~ 2024.03.12(화)
보상내역 추첨을 통해 50명에게 총 150 USDT 지급
신청인원

59 / 50

기간 2023.10.11(수) ~ 2023.10.25(수)
보상내역 $10상당의 $AGT
신청인원

172 / 150

기간 2023.09.01(금) ~ 2023.10.01(일)
보상내역 추첨을 통해 1만원 상당의 상품권 에어드랍 (50명)
신청인원

26 / 50