맨위로 가기
  • 공유 공유
  • 추천 추천

Gata, AI의 미래를 위한 탈중앙 인프라를 구축하다

071 리서치(071 Research)

2025.07.28 14:30:05

TLDR;

- AI의 발전은 ‘프론티어 데이터’ 부족과 고성능 컴퓨팅의 중앙집중화라는 한계에 직면해 있다.

 

- Gata는 누구나 데이터의 생성, 검증, 분산저장, 거래 그리고 분산 컴퓨팅을 통한 추론까지 가능한 통합 탈중앙 AI 인프라를 구축하고 있다.

 

- 나아가, 미래에 등장할 강력한 인공지능인 초지능의 안전을 위한 '정렬’까지 함께 구축하고 있다.

 

1. AI가 한 단계 더 나아가기 위한 조건

1-1. 데이터 고갈과 프론티어 데이터의 필요

지난 몇 년간, 인공지능(AI)은 단순한 자동화 도구를 넘어 인간의 사고와 의사결정을 보조 및 대체하는 수준으로 빠르게 일상생활에 스며들었다. 이는 AI의 급격한 성능 향상 덕분에 다양한 작업에서 효율적으로 AI를 사용하게 되었기 때문이며, 이러한 발전은 고성능 하드웨어의 보급을 통해 기하급수적으로 가속화되었다.

반면, 하드웨어 못지않은 AI의 핵심 요소가 바로 ‘데이터’ 이다. Reddit과 Google의 연 6천만 달러 계약, 그리고 OpenAI가 Reddit과 협력 후 매출 2억 달러를 달성했던 것에서 볼 수 있듯이, 오늘날 데이터는 단순 자원을 넘어 막대한 경제적 가치를 지닌 핵심 자산으로 부상했음을 알 수 있다.

현재 AI 빅테크 기업들은 웹상에 존재하는 데이터를 활용하여 모델 학습에 사용하고 있으며, 공개 데이터의 소모 속도도 AI의 기하급수적인 발전 속도와 맞물리고 있다. 실제로 ChatGPT의 모델 학습에 사용한 데이터의 규모는 GPT-2의 40GB에서 시작하여 GPT-3는 약 1TB, GPT-4는 1PB(1,000,000GB)에 이를 정도로 빠르게 증가하고 있다.

그리고 이러한 공개 데이터의 공급이 곧 한계에 다다를 것으로 보인다. 작년에 발간된 Epoch AI 보고서에는 “이르면 2026년부터는 고품질의 공개 텍스트 데이터가 완전히 고갈될 것”이라 언급한 바 있다.

한편, 데이터의 양 뿐만 아니라 질적 문제도 부상하고 있다. 빅테크 기업들은 웹 크롤링 등 오픈된 공간에서의 데이터를 수집하면서, 동시에 데이터 업체의 외주를 통해 데이터의 수집과 생성(라벨링)을 맡기고 있다. 이를 통해 빅테크 기업들은 데이터 수집과 생산은 외부 업체에 위탁하면서도, 실질적인 데이터 소유권과 그로 인한 부가가치는 모두 기업 내부에 남기고 있다.

따라서, 데이터 생산에 기여한 개인과 데이터 업체는 AI가 만들어낸 부가가치에 비례한 보상을 받지 못해, 고품질의 데이터를 연구, 생산할 동기를 잃고 있으며, 대다수 AI 기업들은 공개 데이터 확보나 단순 외주에 집중하고 있어, AI를 다음 단계로 발전시키는 데 필요한 고품질 데이터인 ‘프론티어 데이터’를 직접 발굴하고 생산하는 데에는 소극적인 모습을 보인다. 결국, 이와같은 데이터의 양과 질적 수준을 정체시키며, 차세대 AI로의 발전에 걸림돌로 작용할 것이다.

1-2. 중앙집중적 컴퓨팅이 만든 진입장벽

데이터의 문제뿐만 아니라, AI 모델 학습과 추론 모두에 필수적인 컴퓨팅 자원의 중앙 집중화 문제도 점점 더 뚜렷해지고 있다. 최신 LLM(대형 언어 모델)이나 멀티모달 AI를 개발, 운영하려면 막대한 컴퓨팅 자원이 필요하다. 모델 학습 과정에서는 최소 수십에서 수백 대의 GPU를 장기간 임대하거나 직접 구매해야 할 뿐만 아니라, 유지보수, 전력, 냉각, 보안 등 다양한 추가 비용이 발생한다. 또한, 이미 학습이 완료된 AI 모델을 실시간 서비스로 배포하고 운영(추론)하는 단계에서도, 대규모 GPU/TPU 인프라와 네트워크가 필수적으로 요구된다. 이처럼 고성능 컴퓨팅 환경을 지속적으로 확보해야 하기에, 개인이나 중소기업이 LLM 학습과 서비스 운영에 뛰어들기란 매우 어렵다.

Epoch AI 보고서에 따르면, 2023년 출시된 GPT-4의 학습 비용은 약 7,800만 달러에 달했다. 이처럼 높은 비용의 허들은 컴퓨팅 자원이 소수의 빅테크 기업과 연구소에 집중되는 결과를 초래하여, 다양한 아이디어와 시도가 진입장벽에 가로막혀 실현되지 못하고, AI의 발전이 특정 기업 위주로 폐쇄적이고 단일화될 위험성과 함께, 빅테크 기업의 독점적 AI 개발은 모델 다양성 저해 및 기업 이익 극대화를 위한 편향과 조작의 가능성까지 내포한다.

하지만 막대한 컴퓨팅 자원이 특정 기업에 집중되면 AI의 발전 또한 소수의 대기업에만 의존하게 되고, 이 과정에서 발생할 수 있는 수많은 창의적 시도, 현장 중심의 다양한 실험 등은 반영되기 어려우며, 결국엔 잠재력 있는 아이디어와 모델 개발 역시 높은 진입장벽에 가로막혀 사장될 수밖에 없다.

따라서, AI가 한 단계 더 발전하기 위해서는 프론티어 데이터의 생성뿐 아니라, 누구나 컴퓨팅 자원을 활용해 창의적인 시도와 실험, 그리고 실시간 AI 추론까지 자유롭게 도전할 수 있는 환경이 마련되어야 한다.

2. Gata, 다음 단계의 AI를 위한 탈중앙화

2-1. 오픈형 AI와 탈중앙화, 왜 필요한가?

AI 산업은 프론티어 데이터 부족과 컴퓨팅 자원의 중앙 집중화라는 두 가지 구조적 문제에 직면해 있다. 데이터와 컴퓨팅 파워 대부분이 소수의 빅테크 기업에 집중되면서, 상위 AI 모델도 빅테크 기업이 만든 ‘폐쇄형(Closed)’ 모델이 주류를 차지하게 됐다. 하지만 최근에는 Llama, DeepSeek, Qwen 등 오픈형(Open) 모델들이 빠르게 성장하면서, 폐쇄형 모델과의 격차를 좁혀가고 있다.

Epoch AI의 Open Models Report에 따르면, 과거 오픈형 모델은 약 1년 만큼 폐쇄형 모델에 뒤처져 있었지만, 최근 몇 년 사이 벤치마크 기준의 성능 격차가 눈에 띄게 줄어들고 있다. Llama 3 70B와 같은 오픈형 모델은 폐쇄형 최상위 모델에 거의 맞먹는 정확도를 기록하면서, 오픈형 AI도 실전 성능 측면에서 충분한 경쟁력을 갖추고 있음을 보여주었다.

오픈형 모델의 가장 큰 단점은 폐쇄형 모델에 비해 성능에서 크게 뒤쳐졌다는 점이었다. 하지만 이 격차가 크게 줄어들면서, 이제는 누구나 자유롭게 접근하고 직접 개선하거나 확장할 수 있다는 ‘개방성’의 장점이 더욱 부각되고 있다. 최근에는 전 세계 개발자와 연구자, 기업들이 함께 실험하고 발전시키면서, 파생모델과 특화 버전, 서비스가 등장하고 있는데, 이러한 온라인 개발자 커뮤니티 고유의 개방성과 협업의 문화가 AI 기술 발전의 독점 구조를 깨면서, 비로소 창의적이고 다양한 형태의 AI가 만들어지고 있는 것이다.

게이터가 주목하는 것도 이러한 개방성과 협업 문화다. 데이터의 생성, 검증, 인덱싱, 저장, 판매 등 AI 개발의 핵심인 데이터 프로세스를 탈중앙화하고, 더 나아가 탈중앙 추론과 모델 학습까지 처리하는 탈중앙 AI 인프라를 구축하려 한다. 이를 통해, 전 세계 누구나 AI 발전의 각 단계에서 협력적으로 참여할 수 있고, 단일 기업이 주도하는 것이 아닌, 다양한 집단이 각자의 목표와 창의성을 바탕으로 다양한 AI 모델과 서비스를 실험하고 만들어갈 수 있는 환경을 만드는 것이 게이터의 목표다.

2-2. 데이터 레이어 : 생성과 검증

데이터 레이어의 첫 번째 단계는 데이터를 생성하고 검증하는 과정이다. 게이터는 GataGPT, Data Validation Agent 라는 두개의 프로덕트를 통해, 누구나 손쉽게 데이터 생성과 검증에 참여할 수 있도록 설계되었다. 사용자는 일상적으로 활용하는 AI와의 대화, 피드백, 평가 활동을 통해 자연스럽게 데이터 생산과 품질 검증에 기여할 수 있으며, 인센티브 설계로 참여를 유도하고 있다. 이를 통해 데이터 레이어 전반에 다양한 참여자가 유입되고, 고품질 데이터가 지속적으로 생성되는 구조를 만들고 있다.

  • GataGPT

GataGPT는 누구나 다양한 AI와 자유롭게 대화하고, 실제 대화 데이터를 손쉽게 축적할 수 있도록 설계된 AI 플랫폼이다. 사용자가 질문을 던지면, ChatGPT, DeepSeek 등 서로 다른 AI 모델이 동일한 질문에 답변한다. 따라서 사용자는 각 AI가 질문에 어떻게 답하는지 직접 비교할 수 있으며, 이를 통해 특정 모델의 편향, 환각, 오류 등을 파악할 수 있으며, 사용자들은 가장 적절한 답변을 선택할 수 있다. 이 과정에서 생성된 대화와 사용자의 선호 데이터는 모두 프론티어 데이터로 축적되어, AI의 정렬뿐만 아니라 모델 학습에도 활용된다.

또한, 품질 점수 시스템을 도입해 주제 다양성, 현실성, 독창성 등을 평가하고, 저품질 데이터의 무차별 제출이나 스팸성 참여를 효과적으로 필터링한다. 고품질 데이터 기여에는 더 큰 보상이 주어지기 때문에, 봇이나 매크로를 통한 무의미한 대화 데이터의 생산은 소위 '가성비'가 떨어져 자연스럽게 줄어든다.

이처럼 GataGPT를 통해 누구나 쉽게 AI의 사용자이자 데이터 생성자로 참여할 수 있다. 품질 점수와 연동된 보상 구조를 통해, AI 모델 학습에 필요한 실질적이고 프론티어 데이터가 지속적으로 축적되는 선순환이 만들어진다. 사용자는 자신의 대화 데이터를 공유하고, 그 기여도와 품질에 따라 인센티브를 받으며, 자연스럽게 생태계의 성장에 기여하게 된다.

  • DVA(Data Validation Agent)

게이터의 DVA(Data Validation Agent)는 인터넷 전반에서 수집된 이미지-텍스트 쌍의 품질을 자동으로 평가하는 데이터 검증 에이전트다. 기존의 수작업 라벨링 방식과 달리, AI가 직접 대규모 데이터셋을 자동으로 생성 및 검증할 수 있도록 설계되었다. 이는 수작업에 비해 훨씬 높은 효율로, AI 모델 학습에 필요한 고품질 데이터셋을 빠르게 구축할 수 있다.

DVA는 2023년에 발표된 DFN(Data Filtering Network) 논문의 방법론을 기반으로 한다. 기존에는 CLIP과 같은 대형 AI 모델을 활용해 데이터 품질을 일괄적으로 평가하는 방식이 일반적이었으나, DFN 논문에서는 소량의 고품질 데이터를 직접 라벨링해 별도의 DFN을 학습시키는 것이 오히려 모델의 성능에 더 효과적임을 실험적으로 증명했다. 따라서, DVA는 DFN기술을 반영하여 웹에서 수집된 방대한 이미지-텍스트 쌍 중, AI 모델 학습에 가장 필요한 고품질의 데이터만 자동으로 선별할 수 있도록 만들어졌다.

DVA의 가장 큰 특징은 중앙화된 서버에 의존하지 않고, 개별 참여자들의 유휴 컴퓨팅 자원을 모아 분산적으로 활용한다는 점이다. 각 사용자의 로컬 컴퓨터가 하나의 분산 네트워크를 이루어 중앙화된 인프라 없이도 이미지 데이터의 검증이 가능하다. 누구나 자신의 PC 등 남는 컴퓨팅 자원을 제공해 데이터 검증 작업에 직접 참여할 수 있으며, 이 모든 과정은 DFN 기술이 적용된 DVA에 의해 수행된다.

덕분에, 기존처럼 CLIP 등 특정 대형 AI 모델 하나에만 의존해 데이터를 일괄 평가하던 방식에서 벗어나, DVA를 통해 보다 일관적이고 투명하게 데이터 품질을 평가할 수 있어, 신뢰성과 효율성 역시 한층 높아진다는 장점이 있다.

DVA가 실행 중일 때는 각 작업 입력 칸에 평가 대상 이미지와 해당 텍스트가 함께 표시된다. 사용자의 컴퓨터에서 동작하는 DVA가 이 이미지-텍스트 쌍을 분석해 자동으로 품질 점수를 산출하는데,위 예시 화면에서는 카페라떼 이미지와 “카페 콘 레체는 사랑이지!”라는 텍스트가 인풋으로 들어왔다. DVA의 분석 결과, 이 쌍의 Score는 0.252로 산출되었으며, 점수는 -1에 가까울수록 저품질, 1에 가까울수록 고품질 데이터를 의미하므로, 해당 이미지-텍스트 쌍은 비교적 고품질에 가까운 데이터로 평가된 셈이다.

2-3. 데이터 레이어 : 저장부터 판매까지

앞서 소개한 3가지 프로덕트를 통해 게이터는 사용자가 AI에 대한 피드백을 평가하거나 점수를 매기는 방식으로 고품질의 프론티어 데이터를 생산하고 있다. 이 데이터들은 ‘BNB Greenfield’라는 탈중앙 스토리지에 저장되며, 누가 언제 어떤 방식으로 데이터를 제출했는지에 대한 모든 이력이 투명하게 온체인에 기록된다. 반면, 데이터 생성자의 허가 없이는 데이터에 상세하게 접근할 수 없도록 설계되어 있어, 프라이버시 보호와 데이터 통제권을 보장하고 있다.

게이터의 가장 큰 차별점은 데이터 소유권과 수익의 중심이 ‘플랫폼’이 아닌 ‘데이터 생성자’에게 있다는 점이다. 누구나 데이터 생성자, 검증자, 인덱서로 자유롭게 참여하며, 자신의 데이터 생성 기여도와 데이터 품질에 따라 토큰 보상을 받을 수 있다. 기존의 AI 기업이나 라벨링 업체를 통한 데이터 생성에서는 데이터 사용료, 접근성 제한, 소유권 불투명성 등 여러 문제가 발생했지만, 게이터는 BNB Greenfield를 통해 데이터의 온체인 기록과 스마트 컨트랙트 결제 구조를 도입함으로써 중간자를 없애고, 데이터의 소유권과 가치를 생성자에게 돌려주는 방식을 선택했다. 이로써, 데이터 생산자와 수요자 모두에게 더 공정하고 투명한 유통 구조를 제공한다는 점에서, 빅테크 기업 중심의 데이터 구조와는 다른 형태를 갖고있다.

데이터 레이어는 데이터 생성자, 사용자 등 모든 참여자가 토큰 보상과 결제 구조로 유기적으로 연결된 경제적 네트워크다. 각 참여자는 토큰을 기반으로 데이터 생성에 적극적으로 참여하고, 데이터 수요자는 스마트 컨트랙트를 통해 데이터를 구매하고 활용한다. 이처럼 경제적 인센티브를 통해 모든 참여자와 데이터가 순환하는 구조 덕분에 누구나 네트워크에 참여할 수 있고, 데이터 생산과 활용도 지속적으로 확장되는 데이터 레이어가 완성된다.

현재 게이터는 데이터 레이어를 통해, 최근 30일간 146GB에 달하는 데이터를 새롭게 저장했으며, 외부에서 데이터를 다운로드한 양도 6.1TB에 이른다. 이 수치는 게이터가 BNB Greenfield 내에서 가장 활발하게 데이터가 생성, 검증, 저장, 사용되는 프로젝트임을 보여주며, 게이터의 데이터 레이어가 성공적으로 구축되어 실제로도 많은 데이터가 활용되고 있음을 증명한다.

3. 게이터의 로드맵과 비전

3-1. 게이터의 로드맵 : 탈중앙 학습과 추론으로 완성될 탈중앙 AI 인프라

게이터는 누구나 데이터 생산자로 참여해 데이터를 생성, 검증, 기록하며, 이를 데이터 마켓을 통해 유통하는 AI 데이터 레이어를 구축해왔다.

하지만 AI의 추론과 모델 학습 단계에 필요한 대형 GPU 서버 등 고성능 하드웨어 인프라는 여전히 소수의 빅테크 기업이나 대규모 연구기관에 집중되어 있다. 이로 인해 개인이나 중소 연구팀이 독자적으로 AI를 실험, 배포하거나 대형 모델을 개발하기에는 현실적으로 진입장벽이 높다. 이러한 중앙 집중화 문제가 오픈형 AI 발전을 가로막고 있다.

게이터는 이러한 컴퓨팅 파워 문제를 해결하기 위해 컴퓨팅 레이어 구축에 주력하고 있다. 게이터의 컴퓨팅 레이어는 분산 학습과 추론으로 구성되어 있으며, 각 단계에서 참여자의 컴퓨팅 자원을 묶어 AI 모델 학습 및 추론 작업을 분산 처리한다. 기존에는 이러한 분산 인프라의 구축과 운영이 매우 복잡했지만, 게이터는 단일 API를 제공함으로써 팀과 개발자들이 별도의 복잡한 설정이나 인프라 구축 없이도 손쉽게 탈중앙 AI를 자신의 서비스에 통합하거나, 자체 모델을 분산 환경에서 학습시킬 수 있도록 지원한다.

이렇게 하드웨어 인프라까지 완전히 탈중앙화되면, 특정 기업이나 소수만이 AI의 주도권을 쥐는 구조에서 벗어나, 누구나 네트워크에 기여하고 보상받을 수 있는 탈중앙 AI 생태계가 완성된다. 게이터는 데이터의 생산, 검증, 유통, 추론, 모델 학습까지 모든 과정을 유기적으로 연결해, AI 발전이 한정된 주체가 주도하는 단일한 방향이 아니라, 다양한 집단이 각자의 목표와 창의성을 바탕으로 협력하고 실험할 수 있는 탈중앙 AI 인프라를 구축하고 있다.

3-2. 게이터의 비전 : 안전한 AI를 위한 ‘정렬’

게이터가 지향하는 최우선 목표는 누구나 참여할 수 있는 탈중앙화 AI 인프라의 구축이지만, 게이터는 미래를 위한 비전을 제시한다. AI 기술이 상상 이상으로 빠르게 발전하고 있는 지금, 단순히 인프라만 탈중앙화하는 데서 멈추지 않고, 미래의 강력한 AI가 인간의 가치와 윤리 기준에 부합하게 만드는 정렬(Alignment)의 중요성이 떠오르고 있다. AI가 점점 더 높은 수준의 지능과 자율성을 갖게 될수록, 그 안전성과 인간 중심의 설계가 필수적이다. 따라서 게이터는, 탈중앙화된 인프라 위에서 집단지성과 인간의 선호가 자연스럽게 반영되는 정렬 데이터를 비전으로 꼽았다.

정렬이란, AI가 인간의 가치, 의도, 윤리적 기준에 맞춰 행동하도록 만드는 과정을 의미한다. 아무리 뛰어난 AI라도, 인간과 다른 목표를 갖거나 예기치 못한 방식으로 오작동할 경우, 사회적, 윤리적 문제를 일으킬 수 있다. 특히, 초지능처럼 스스로 학습하고 판단하며 문제를 해결하는 능력이 극단적으로 진화한 AI일수록, 정렬의 필요성이 중요해지며, 안전성을 판단하는 핵심 기준이 된다.

오픈AI의 샘 알트먼은 최근, 자신의 블로그에서 “AI가 사회적으로 안전하게 활용되기 위해서는, 반드시 인간의 가치와 집단적 의지가 AI에 반영되는 ‘정렬(Alignment)’ 과정이 선행되어야 한다”고 강조한 바 있으며,

초지능의 정렬을 위해서 특정 개인이나 기업이 데이터를 독점해서는 안 되며, 사회 전체의 집단지성과 다양한 인간 집단의 선호 데이터가 필요하다”고도 언급했다. 이는, 강력한 AI인 초지능이 특정 집단의 이익에 종속되지 않고, 인류의 사회적 가치와 윤리에 발맞춰 발전해야 한다는 의미이다.

게이터의 데이터 레이어에서는 누구나 데이터 생산과 검증, 선호 피드백에 자유롭게 참여할 수 있다. 이 과정에서 쌓이는 데이터는 단순한 텍스트나 이미지가 아니라, 실제 사용자의 의도와 선호, 현실적 맥락과 가치가 자연스럽게 반영된 정렬 데이터로 축적된다. 이러한 데이터는 AI 모델의 학습과 추론에 반복적으로 활용되며, 지금부터 미래의 초지능에 이르기까지, AI가 인간 사회의 가치와 윤리 기준에 맞게 정렬될 수 있는 기반이 된다.

이처럼 누구나 기여할 수 있는 탈중앙 데이터 레이어를 통해 정렬 데이터를 생성하고, 향후 컴퓨팅 레이어가 완성되면 AI 모델의 학습과 추론까지 완전히 탈중앙화된 인프라 위에서 정렬까지 전 과정을 실현할 수 있게 되면서, 안전한 초지능의 시대를 대비할 수 있는 해답이 될 수 있다.

4. 맺으며

게이터는 기존 중앙집중형 AI 개발 구조를 넘어, 프론티어 데이터와 누구나 접근할 수 있는 탈중앙화 인프라의 가능성을 제시하고 있다. 누구나 참여할 수 있는 데이터 생성, 검증, 컴퓨팅 자원의 제공과 사용, 그리고 토큰 보상을 통해, AI 개발이 더는 소수 빅테크 기업만의 전유물이 아니라 블록체인과 만나 참여자 모두가 주체가 되는 개방형 생태계로 확장될 수 있음을 보여준다.

게이터가 풀어야 할 과제도 존재한다. 데이터 품질 관리, 시빌 공격과 저품질 데이터의 유입, 각 참여자들 간의 인센티브 설계 등은 생태계의 지속 가능한 성장을 위해 반드시 해결해야 할 문제다. 이를 위해 게이터는 AI와 인간의 이중 검증, 고품질 데이터에 대한 차등 보상, 그리고 토크노믹스 구조 개선 등 다양한 시도를 계속하고 있다. 이러한 장치들을 통해 데이터와 컴퓨팅 자원의 선순환 구조를 만들고, 사용자들의 기여에 대한 보상을 제공함으로써, 자발적인 참여와 다양한 AI 개발이 이루어질 수 있는 환경을 조성하고 있다.

그럼에도 불구하고, 게이터가 구축하는 탈중앙 AI 인프라는 단순한 기술 진보를 넘어, 누구나 참여할 수 있는 데이터 레이어와 컴퓨팅 레이어를 통해 새로운 표준이 될 가능성을 보여준다. 대규모 자본과 인프라가 독점하던 구조를, 개인이나 소규모 연구 집단이 직접 데이터 생성, 검증, 활용 그리고 컴퓨팅 자원 사용까지 주체적으로 참여하는 오픈형 AI 생태계로의 전환을 앞두고, 미리 인프라를 깔아두고 있는 것이다.

게이터가 AI의 미래를 위해 탈중앙 인프라를 준비하며, 신뢰와 안전을 위한 정렬까지 아우르는 AI의 새로운 표준을 만들어갈 수 있을지 주목해보자.

추천

0

071 리서치(071 Research)

연구원(Researcher)

[071 리서치(071 Research)]의 리서치홈입니다.

071 리서치(071 Research)님의 다른 리서치

더보기
기술

Hetu, 협력을 위한 블록체인

안내사항

  • (주)토큰포스트에서 제공하는 리서치에 대한 저작권 및 기타 지적재산권은 (주)토큰포스트 또는 제휴 파트너에게 있으며, 이용자를 위한 정보 제공을 목적으로 합니다.
  • 작성된 내용은 작성자 본인의 견해이며, (주)토큰포스트의 공식 입장이나 의견을 대변하지 않습니다.
  • (주)토큰포스트는 리서치 및 관련 데이터를 이용한 거래, 투자에서 발생한 어떠한 손실이나 손해에 대해서 보상하지 않습니다.
  • 가상자산은 고위험 상품으로써 투자금의 전부 또는 일부 손실을 초래 할 수 있습니다.
Bitcoin 로고 Bitcoin (BTC)
159,197,132 (-0.97%)
Ethereum 로고 Ethereum (ETH)
5,125,062 (-0.72%)
XRP 로고 XRP (XRP)
4,281 (-0.42%)
Tether USDt 로고 Tether USDt (USDT)
1,350 (-0.02%)
BNB 로고 BNB (BNB)
1,127,277 (+1.20%)
Solana 로고 Solana (SOL)
251,426 (-0.44%)
USDC 로고 USDC (USDC)
1,350 (+0.01%)
Dogecoin 로고 Dogecoin (DOGE)
312.6 (-2.59%)
TRON 로고 TRON (TRX)
437.0 (+1.05%)
Cardano 로고 Cardano (ADA)
1,085 (-2.29%)
왼쪽
2025 7월  28(화)
오른쪽
진행기간 2025.07.28 (월) ~ 2025.07.29 (화)

39명 참여

정답 74%

오답 26%

진행기간 2025.07.25 (금) ~ 2025.07.26 (토)

41명 참여

정답 71%

오답 29%

진행기간 2025.07.24 (목) ~ 2025.07.25 (금)

42명 참여

정답 76%

오답 24%

진행기간 2025.07.23 (수) ~ 2025.07.24 (목)

37명 참여

정답 43%

오답 57%

기간 2024.03.20(수) ~ 2024.04.02(화)
보상내역 추첨을 통해 100명에게 커피 기프티콘 에어드랍
신청인원

126 / 100

이더리움(ETH) 일반 마감

[Episode 11] 코인이지(CoinEasy) 에어드랍

기간 2024.02.27(화) ~ 2024.03.12(화)
보상내역 추첨을 통해 50명에게 총 150 USDT 지급
신청인원

59 / 50

기간 2023.10.11(수) ~ 2023.10.25(수)
보상내역 $10상당의 $AGT
신청인원

172 / 150

기간 2023.09.01(금) ~ 2023.10.01(일)
보상내역 추첨을 통해 1만원 상당의 상품권 에어드랍 (50명)
신청인원

26 / 50