네사(Nesa): 일상 속에 들어온 AI, 필수가 된 프라이버시
타이거리서치(Tiger Research)
2026.02.13 10:42:00
많은 사람이 일상 속에서 AI를 사용하지만, 정작 데이터가 어떻게 처리되는지 신경 쓰지 않습니다. 네사(Nesa)는 이러한 무심함에 경각심을 일깨우는 질문을 던집니다.
Key Takeaways
-
인공지능이 이미 일상이 된 현재, 사람들은 많은 데이터를 거리낌 없이 업로드하지만, 정작 그 데이터가 중앙 서버를 거친다는 사실을 간과함
-
심지어 미국의 보안을 책임지는 CISA의 직무대행 국장마저도 기밀 문서를 ChatGPT에 노출시키기도 했음
-
네사는 이를 해결하기 위해 데이터 전송 전 데이터 변환(EE) 및 노드 간 분할(HSS-EE)을 통해 어느 당사자도 원본을 볼 수 없도록 함
-
네사는 실질적으로 학술적 검증을 통해 기술적으로 앞서 나가고 있으며, P&G 등 대기업의 사용 사례도 확보함
-
다만, 전반적 시장은 빅테크의 중앙 집중식 API를 선호해, 향후 더 많은 고객사가 분산형 프라이버시 AI를 채택할지 지켜봐야할 것
1. 당신이 입력한 데이터는 안전한가
Source: CISA
2026년 1월, 미국 사이버 보안의 핵심 기관인 CISA의 국장 대행 마두 고투무칼라(Madhu Gottumukkala)가 정부 민감 문서를 ChatGPT에 업로드한 사실이 드러났다. 계약 관련 서류를 요약하고 정리하려는 단순한 목적이었다.
물론 ChatGPT 내부에서 내용을 저장하고 정부에 알린 것은 아니며, 자체 보안 시스템에 적발되어 보안 규정 위반으로 조사를 받은 사례이다.
미국 보안 수장마저 AI를 일상적으로 쓰며, 기밀문서까지 올린 셈이다.
사용자가 입력한 데이터는 암호화되기에 안전하다고 할 수 있다. 맞다. 데이터는 명시적으로는 암호화된다. 하지만 사실 복호화가 가능한 구조다. 유효한 영장이나 긴급 상황에서는 정보를 제공할 수 있으며, 사실 우리는 그 뒤에서 어떤 일이 일어나는지 알 수 없다.
23,000명 이상의 웹3 시장 리더들이 읽고있는 아시아 웹3 시장의 인사이트를 가장 먼저 확인해보세요.
2. 일상 속에 필요한 프라이버시 AI - 네사(Nesa)
AI는 이미 일상이다. 기사를 요약하고, 코드를 짜고, 메일을 쓰는 데까지 깊이 들어왔다. 심각한 건 위 사례처럼 기밀 문서와 개인정보까지 별다른 경각심 없이 AI에 맡기고 있다는 점이다.
문제의 핵심은 이 데이터가 전부 서비스 제공자의 중앙 서버를 거친다는 데 있다. 암호화를 한다고 해도 복호화 키는 서비스 제공자가 쥐고 있다. 이걸 어떻게 믿을 수 있는가?
사용자의 입력 데이터는 모델 개선, 안전성 검토, 법적 요청 등 다양한 경로로 제3자에게 노출될 수 있다. 기업 플랜이라면 조직 관리자가 채팅 기록을 열람할 수 있고, 개인 플랜이라도 영장이 나오면 데이터는 넘어간다.
AI가 일상 깊숙이 자리 잡은 지금, 프라이버시에 대해 다시 한 번 질문을 던질 때다.
네사(Nesa)는 이 구조 자체를 바꾸려는 프로젝트다. 데이터를 중앙 서버에 맡기지 않고도 AI 추론을 실행할 수 있는 탈중앙 인프라를 만든다. 사용자의 입력 데이터는 암호화된 상태로 처리되며, 어떤 노드도 원본 데이터를 볼 수 없다.
3. 네사는 이를 어떻게 해결하는가?
네사를 사용하는 병원이 있다고 가정하자.
의사가 환자의 MRI 영상으로 종양 여부를 판독하고 싶다. 지금의 AI 서비스라면 이 영상이 OpenAI나 Google 서버로 그대로 전송된다. 네사에서는 다르다. 영상이 의사의 컴퓨터를 떠나기 전에 일정한 규칙으로 변환된다.
쉽게 설명하면 이렇다. 수학 시험지를 생각해 보자. 원래 문제가 “3 + 5 = ?”이라고 하자. 이 문제를 그대로 다른 사람에게 보여주면, 그 사람은 내가 무슨 계산을 하려는지 바로 안다.
하지만 보내기 전에 모든 숫자에 ×2를 적용하면, 상대방이 받는 문제는 “6 + 10 = ?”이 된다. 상대방은 이걸 풀어서 16이라는 답을 돌려준다.
나는 다시 ÷2를 적용해서 8을 얻는다. 원래 문제를 그대로 풀었을 때와 같은 답이다. 상대방은 계산을 대신 해줬지만, 내 원래 숫자가 3과 5였다는 건 모른다.
네사의 등변 암호화(Equivariant Encryption, EE)가 하는 일이 정확히 이것이다. 데이터를 보내기 전에 일정한 수학적 규칙으로 변환한다. AI 모델은 변환된 데이터를 가지고 계산을 수행한다. 사용자가 결과에 역변환을 적용하면, 원본 데이터를 넣었을 때와 동일한 답이 나온다. 이 성질을 수학에서 등변성이라고 부른다. 변환을 먼저 하든, 계산을 먼저 하든, 최종 결과가 같다는 뜻이다.
실제로는 ×2 같은 단순한 규칙이 아니라, AI 모델의 내부 연산 구조에 맞춘 복잡한 변환을 쓴다. 핵심은 무작위로 데이터를 섞는 게 아니라, 모델의 계산 흐름과 맞물리는 규칙을 적용한다는 점이다. 그래서 모델이 변환된 데이터를 처리해도 결과의 정확도가 떨어지지 않는다.
다시 병원으로 돌아오면, 의사가 체감하는 건 아무것도 없다. 영상을 올리고 결과를 받는 과정은 기존과 같다. 달라진 건 그 사이에서 어떤 노드도 환자의 원본 MRI를 볼 수 없다는 점이다.
네사는 여기서 한 단계 더 나간다. EE만으로도 노드가 원본을 볼 수 없지만, 변환된 데이터 자체는 하나의 서버에 온전히 존재한다.
HSS-EE(Homomorphic Secret Sharing over Encrypted Embeddings)는 이 변환된 데이터마저 쪼개는 기술이다.
아까 수학 시험지 비유로 돌아가 보자. EE는 문제지에 ×2 규칙을 적용해서 보내는 것이었다. HSS-EE는 여기서 한 걸음 더 나간다. 규칙이 적용된 시험지를 반으로 찢어서, 앞부분은 A에게, 뒷부분은 B에게 따로 보내는 것이다. A는 자기가 받은 조각만 풀고, B도 자기 조각만 푼다. 어느 쪽도 전체 문제를 볼 수 없다. 두 사람의 답을 합쳐야 비로소 완전한 결과가 나오고, 이를 합칠 수 있는 건 문제를 보낸 사람뿐이다.
정리하면, EE는 “데이터를 변환해서 원본을 못 보게” 하는 기술이고, HSS-EE는 “변환된 데이터마저 쪼개서 한 곳에 모이지 않게” 하는 기술이다. 프라이버시 보호가 이중으로 걸리는 구조다.
4. 프라이버시를 강화하면 느려진다?
프라이버시를 강화하면 느려진다. 이건 암호 기술의 오래된 상식이다. 가장 널리 알려진 완전 동형 암호(FHE)는 일반 연산 대비 1만~100만 배 느리다. 실시간 AI 서비스에 적용할 수 없다.
네사의 등변 암호화(EE)는 다르다. 수학 시험지 비유로 돌아가면, ×2를 적용하고 나중에 ÷2로 되돌리는 데 드는 추가 비용은 미미하다. FHE처럼 문제 자체를 완전히 다른 수학 체계로 바꾸는 게 아니라, 기존 계산 위에 가벼운 변환만 얹는 구조이기 때문이다.
-
EE (등변 암호화): LLaMA-8B 기준, 지연시간 증가 9% 미만 (정확도 원본 대비 99.99% 이상 일치)
-
HSS-EE (분산 암호화): LLaMA-2 7B 기준, 추론 1건당 700-850밀리초
여기에 MetaInf라는 메타러닝 스케줄러가 네트워크 전체의 효율을 잡는다. 모델 크기, GPU 사양, 입력 특성을 보고 가장 빠른 추론 기법을 자동으로 골라주는 시스템이다. 기존 머신러닝 기반 선택기 대비 정확도 89.8%, 가속 비율 1.55배를 기록했고, COLM 2025 본회의에 게재되어 학술적으로도 검증받았다.
위 수치는 통제된 테스트 환경에서 나온 결과다. 다만 네사의 추론 인프라는 이미 실제 엔터프라이즈 환경에서 사용되고 있어, 실서비스 수준의 성능이 확인된 상태다.
5. 누가, 어떻게 쓰는가
네사에 접근하는 방식은 크게 세 가지다.
첫 번째는 플레이그라운드다. 웹에서 바로 모델을 골라 테스트할 수 있는 환경이다. 개발자가 아니어도 된다. 모델별 입력을 넣고 결과를 확인하는 수준의 체험이 가능하다. 탈중앙 AI 추론이 실제로 어떻게 작동하는지 직접 확인할 수 있는 가장 빠른 경로다.
두 번째는 Pro 구독이다. 월 8달러로 무제한 접근, 월 1,000건의 Fast Inference 크레딧, 커스텀 모델 가격 설정 권한, 모델 Featured 페이지 노출 등이 포함된다. 개인 개발자나 소규모 팀이 자기 모델을 올리고 수익화하려는 경우에 맞는 요금제다.
세 번째는 엔터프라이즈다. 공개 요금제가 아니라 별도 계약 구조다. SSO/SAML 지원, 데이터 저장 위치 선택(Storage Regions), 감사 로그, 세분화된 접근 제어, 연간 커밋 기반 청구 등이 포함된다.
월 유저당 20달러부터 시작하지만, 실제 조건은 규모에 따라 협의한다. 기업이 사내 AI 파이프라인에 네사를 통합하려는 경우를 위한 구조로, 별도 계약을 통해 API를 제공받고 조직 단위로 관리할 수 있다. 또한 이미 P&G와 같은 대기업들이 쓰고 있다.
정리하면, 가볍게 써보려면 플레이그라운드, 개인·소규모 개발이면 Pro, 조직 단위 도입이면 엔터프라이즈다.
6. 왜 토큰이 필요한가?
탈중앙 네트워크는 중앙 관리자가 없다. 서버를 돌리는 주체도, 결과를 검증하는 주체도 전 세계에 흩어져 있다. 그러면 질문이 하나 생긴다. 이 사람들은 왜 자기 GPU를 켜고 남의 AI 추론을 처리해 주는가?
답은 경제적 보상이다. 네사 네트워크에서 그 보상 수단이 $NES 토큰이다.
구조는 단순하다. 사용자가 AI 추론을 요청하면, 그 요청에는 수수료가 붙는다. 네사에서는 이를 PayForQuery라고 부른다. 트랜잭션당 고정 수수료와 데이터 크기에 비례하는 변동 수수료로 구성된다. 수수료가 높을수록 우선 처리된다. 블록체인의 가스비와 같은 원리다.
이 수수료를 받는 쪽이 채굴자(Miner)다. 채굴자는 네트워크에 참여하기 위해 일정량의 $NES를 스테이킹해야 한다. 자기 돈을 걸어야 일을 맡길 수 있는 구조다. 엉터리 결과를 내거나 응답하지 않으면 스테이킹한 토큰에서 페널티가 차감된다. 반대로 정확하고 빠르게 처리하면 더 많은 보상을 받는다.
또한 네트워크의 방향을 결정하는 거버넌스 도구이기도 하다. $NES 보유자는 수수료 구조, 보상 비율 등 네트워크 핵심 파라미터에 대한 제안과 투표에 참여할 수 있다.
정리하면, $NES는 세 가지 역할을 한다. 추론 요청의 결제 수단, 채굴자의 담보이자 보상, 그리고 네트워크 거버넌스 참여권이다. 토큰이 있어야 노드가 돌아가고, 노드가 돌아가야 프라이버시 AI가 작동한다.
다만 짚어야 할 부분이 있다. 토큰 이코노미가 설계대로 작동하려면 전제 조건이 필요하다.
추론 수요가 충분해야 채굴자에게 돌아가는 보상이 유의미하고, 보상이 유의미해야 채굴자가 남아 있고, 채굴자가 충분해야 네트워크 품질이 유지된다.
결국 수요가 공급을 견인하고, 공급이 다시 수요를 뒷받침하는 선순환 구조인데, 초기에 이 바퀴가 돌아가기까지가 가장 어렵다. 현재 엔터프라이즈 고객이 실사용 중이라는 점은 긍정적이지만, 네트워크 규모가 커졌을 때 토큰 가치와 채굴 보상 사이의 균형이 유지되는지는 지켜봐야 한다.
7. 프라이버시 AI의 필요성
네사가 풀려는 문제는 명확하다. AI를 쓸 때 데이터가 제3자에게 노출되는 구조를 바꾸겠다는 것이다.
기술적 기반은 탄탄한 편이다. 핵심 암호화 기술인 등변 암호화(EE)와 HSS-EE는 학술 연구에서 출발했고, 추론 최적화 스케줄러 MetaInf는 COLM 2025 본회의에 게재됐다. 단순히 논문을 인용하는 수준이 아니라, 연구진이 직접 프로토콜을 설계하고 네트워크에 구현하는 구조다.
탈중앙 AI 프로젝트 중 자체 암호화 프리미티브를 논문 수준에서 검증받고, 그걸 실제 인프라에 올린 경우는 드물다. 실제 P&G와 같은 엔터프라이즈 고객이 이 인프라 위에서 추론을 돌리고 있다는 점도 초기 프로젝트치고는 유의미한 신호다.
다만 한계도 분명하다.
-
첫째, 타겟 시장의 폭이다. 현실적으로 이 기술이 먼저 먹히는 곳은 기관이다. 일반 사용자가 AI 프라이버시를 인식하고 비용까지 지불하려면 아직 시간이 필요하다. 리테일 시장에서 프라이버시는 ‘있으면 좋은 것’이지, ‘돈을 내고 살 것’까지는 아니다. 결국 현 단계에서 네사의 성장은 기관 고객을 얼마나 꾸준히 확보하느냐에 달려 있는데, 이건 결코 쉬운 일이 아니다.
-
둘째, 제품 사용성이다. 플레이그라운드는 모델을 직접 체험할 수 있는 공간이지만, 현재 구성은 투자를 유도하는 웹3 서비스의 모습에 가깝다. 우리가 일상적으로 쓰는 AI 서비스와는 다소 거리가 있다.
-
셋째, 규모의 검증이다. 통제된 환경의 벤치마크와 수천 노드가 동시에 돌아가는 프로덕션 환경은 다르다. 네트워크가 본격적으로 확장됐을 때도 같은 성능을 유지할 수 있는지는 별개의 문제다.
-
넷째, 시장 타이밍이다. 기관들의 프라이버시 AI에 대한 수요는 분명하지만, 그 수요가 “탈중앙 인프라 위의 프라이버시 AI”까지 확장되는지는 다른 문제다. 대부분의 기업은 아직 중앙화된 API에 익숙하고, 블록체인 기반 인프라에 대한 진입 장벽은 여전히 높다.
미국 보안 수장마저 기밀 문서를 AI에 올리는 시대다. 프라이버시 AI에 대한 수요는 이미 존재하고, 시간이 갈수록 커질 수밖에 없다. 네사는 이 수요에 대해 학술적으로 검증된 기술과 실제 가동 중인 인프라를 갖추고 있다. 한계는 있지만, 출발선 자체가 다른 프로젝트들보다 앞에 있다.
프라이버시 AI 시장이 본격적으로 열릴 때, 가장 먼저 이름이 올라올 프로젝트 중 하나다.
23,000명 이상의 웹3 시장 리더들이 읽고있는 아시아 웹3 시장의 인사이트를 가장 먼저 확인해보세요.
Disclaimer
이 보고서는 네사(Nesa)로부터 일부 원고료 지원을 받았으나, 신뢰할 수 있는 자료를 바탕으로 독립적인 조사를 통해 작성되었습니다. 하지만 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 이에 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않으며 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
Terms of Usage
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치의 브랜드 가이드라인에 맞는 로고(Black/White)를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
0
안내사항
- (주)토큰포스트에서 제공하는 리서치에 대한 저작권 및 기타 지적재산권은 (주)토큰포스트 또는 제휴 파트너에게 있으며, 이용자를 위한 정보 제공을 목적으로 합니다.
- 작성된 내용은 작성자 본인의 견해이며, (주)토큰포스트의 공식 입장이나 의견을 대변하지 않습니다.
- (주)토큰포스트는 리서치 및 관련 데이터를 이용한 거래, 투자에서 발생한 어떠한 손실이나 손해에 대해서 보상하지 않습니다.
- 가상자산은 고위험 상품으로써 투자금의 전부 또는 일부 손실을 초래 할 수 있습니다.
마켓 카테고리 리서치
더보기
리서치 삭제
글 삭제 후 복구가 불가능 합니다. 삭제하시겠습니까?


















