일론 머스크(Elon Musk)가 설립한 인공지능(AI) 기업 xAI가 캘리포니아주의 ‘AI 투명성 법’ 시행을 막는 데 실패했다. 생성형 AI 모델 학습에 사용한 데이터셋을 공개하도록 한 AB 2013이 예정대로 효력을 유지하면서, 그동안 ‘블랙박스’에 가까웠던 학습 데이터 관행을 둘러싼 규제 압박이 한층 거세질 전망이다.
캘리포니아는 미국 내 주요 AI 기업이 밀집한 핵심 시장이자, 주(州) 단위 규제가 사실상 전국 기준으로 번지는 사례가 잦은 곳이다. 이번 판결은 “투명성 요구를 피하기 어렵다”는 신호를 업계 전반에 던졌다는 평가가 나온다.
AB 2013, 무엇을 요구하나…xAI가 맞선 이유
AB 2013은 2026년 1월 1일부터 시행됐다. 캘리포니아에서 사업을 하는 AI 기업이 생성형 모델을 학습시키는 데 활용한 데이터의 출처와 구성에 대해 ‘의미 있는 수준’의 공개를 요구하는 게 골자다. 텍스트, 이미지, 코드 등 모델 성능을 좌우하는 학습 데이터 전반이 대상이 될 수 있어, xAI뿐 아니라 오픈AI(OpenAI), 구글(Google), 앤트로픽(Anthropic) 등도 직접적인 영향권에 든다.
xAI가 특히 민감하게 반응한 이유는 자사 챗봇 ‘그록(Grok)’의 경쟁력과 직결되기 때문이다. 어떤 데이터가 학습 파이프라인에 들어갔는지, 데이터 수집·정제 과정에서 저작권이나 사용 허락 문제가 없었는지 등 ‘불편한 질문’이 수면 위로 올라올 수 있다. 동시에 학습 데이터 구성이 드러나면 경쟁사에 전략적 정보를 넘겨주는 결과로 이어질 수 있다는 게 회사 측 우려다.
xAI는 법 시행 직전인 2025년 12월 29일 연방법원에 소송을 제기하며 AB 2013의 효력을 정지해달라고 요청했다. 논리는 크게 두 축이었다. 첫째, 학습 데이터 공개를 강제하는 것은 ‘강요된 발언(compelled speech)’으로 수정헌법 제1조(표현의 자유)를 침해한다는 주장이다. 둘째, 공개 의무가 사실상 영업비밀을 경쟁사와 대중에 넘기도록 강제해 재산권과 기업 활동의 기반을 훼손한다는 논리다.
xAI는 본안 판단 전까지 법 집행을 멈추는 ‘가처분(예비금지명령)’도 신청했고, 2026년 2월 26일 관련 심리가 열렸다. 심리 과정에서 법원은 캘리포니아 법무장관실에 집행 계획을 따져 물은 것으로 전해졌다.
다만 여기서 역설적인 변수가 불거졌다. 캘리포니아 측이 절차상 적시에 명확한 답변을 내놓지 못했다는 관측이 나왔는데, 이것이 오히려 xAI에 불리하게 작용했을 수 있다는 해석이 뒤따른다. 법원이 긴급 구제를 내리려면 ‘즉각적이고 구체적인 피해’가 전제돼야 하는데, 집행 일정이 불명확하면 위협이 ‘가정적’으로 보일 수 있어 가처분 요건을 충족하기 어려워진다는 이유다. 결과적으로 AB 2013은 시행 상태를 유지했고, xAI의 제동 시도는 성과를 내지 못했다.
법정에서 잇단 패배…xAI의 ‘공세’가 꺾였다
이번 결과가 더 주목받는 배경은 타이밍이다. AB 2013 관련 좌절이 전해지기 하루 전인 2월 25일, xAI가 오픈AI를 상대로 제기했던 별도 소송도 연방법원에서 기각됐다. 해당 소송은 오픈AI가 xAI의 영업비밀을 탈취했다는 취지였지만, 법원은 이를 받아들이지 않았다.
머스크와 오픈AI 샘 올트먼(Sam Altman) 최고경영자(CEO) 사이의 ‘결별 서사’까지 겹치며 이 사건은 시장의 관심을 끌었지만, 법적 결론은 xAI 기대와 달리 싱겁게 끝났다. 연속된 두 번의 패배는 “법원이 xAI의 주장을 예상만큼 우호적으로 보지 않는다”는 시그널로 읽힌다.
업계에서는 이번 흐름이 갖는 아이러니도 지적한다. xAI는 한편으로는 “학습 데이터는 국가도 강제로 들여다볼 수 없는 ‘영업비밀’”이라고 주장하면서, 다른 한편으로는 경쟁사가 자사 영업비밀을 훔쳤다고 맞섰다. 그러나 법원은 양쪽 주장 모두에서 xAI 뜻대로 움직이지 않았다.
AI 업계와 투자자에게 던진 경고…‘데이터 공개’가 리스크가 된다
캘리포니아가 AB 2013을 방어해낸 것은 다른 지역으로의 확산 가능성을 키운다. 주 경제 규모만 약 4조달러에 이르는 캘리포니아는 규제의 ‘기준점’이 되기 쉬운 곳이다. 자동차 산업이 배출가스 규제에서 그랬듯, AI 산업 역시 투명성 의무가 사실상의 전국 표준으로 번질 수 있다는 전망이 나온다.
투자자 관점에서는 기업 가치 평가의 변수가 늘었다. 그동안 학습 데이터는 AI 기업이 가진 가장 방어력 높은 자산 중 하나로 여겨져 왔다. 하지만 학습 데이터의 범위와 출처가 공개되면, 대형 사업자가 ‘불투명성’으로 쌓아온 진입장벽이 낮아질 수 있다. 상대적으로 투명한 데이터 전략을 채택한 후발주자나 중소 플레이어가 반사이익을 얻을 가능성도 있다.
더 큰 문제는 법적 책임이다. 데이터셋이 공개되면 창작자, 언론사, 저작권자 등이 “내 콘텐츠가 허락 없이 학습에 쓰였는가”를 입증하기 쉬워진다. 이는 이미 진행 중인 생성형 AI 저작권 소송을 넘어, 추가 소송이 잇따를 여지를 키운다. ‘무엇을 학습했는지’가 드러나는 순간, 규제기관·소송 대리인·경쟁사의 표적이 동시에 될 수 있어서다.
xAI의 리스크는 특히 크다는 평가가 나온다. 회사는 2024년 말 약 60억달러를 조달했고, 기업가치는 500억달러로 거론됐다. 원·달러 환율(1달러=1,485.40원)을 적용하면 조달 규모는 약 8조9,124억원, 기업가치는 약 74조2,700억원 수준이다. 그록의 학습 데이터 구성이 공개되는 체제가 본격화될 경우, 현재 밸류에이션에 반영되지 않은 규제·소송·평판 리스크가 빠르게 불거질 수 있다는 관측이 제기된다.
다만 집행 강도는 여전히 변수로 남았다. 법은 이미 발효됐지만, 캘리포니아 법무장관실이 ‘불이행 기업’을 얼마나 공격적으로 추적할지, 공개 범위를 어디까지 요구할지 등은 아직 명확히 드러나지 않았다. 집행이 완만하면 업계가 대응 시간을 벌 수 있지만, 강경하게 나설 경우 수개월 내 현실적인 공개 압박이 시작될 수 있다.
뉴욕, 일리노이, 콜로라도 등 다른 주에서도 AI 거버넌스 법안을 검토 중인 가운데, 세계 최고 부호가 뒷받침하는 기업의 법적 도전이 좌절된 전례는 다른 지역의 규제 추진에도 ‘명분’을 제공할 가능성이 크다.
결국 이번 사건은 xAI 한 곳의 패소를 넘어, AI 산업의 ‘가벼운 규제 시대’가 끝나가고 있음을 보여주는 단면으로 해석된다. 빠른 혁신을 앞세워 온 생성형 AI가 이제는 데이터 출처와 책임성 문제에서 정면으로 검증받는 국면에 들어섰다는 얘기다.
🔎 시장 해석
- 캘리포니아 ‘AI 투명성 법(AB 2013)’이 예정대로 효력을 유지하며, 생성형 AI의 학습 데이터 ‘블랙박스 관행’에 대한 규제 압박이 강화됨
- 캘리포니아는 빅테크·AI 기업이 밀집하고 주(州) 규제가 전국 표준으로 번지기 쉬워, 데이터 공개 의무가 다른 주로 확산될 가능성이 큼
- xAI가 가처분(예비금지명령)에서 막히며 “투명성 요구를 피하기 어렵다”는 신호가 업계 전반에 전달됨
💡 전략 포인트
- AI 기업: 학습 데이터 ‘출처·권리(저작권/라이선스)·정제/처리 과정’에 대한 컴플라이언스 체계를 선제 구축해야 리스크(소송·평판·규제)를 줄일 수 있음
- 투자자: 모델 성능보다 ‘데이터 거버넌스(합법적 수집·사용허락·기록관리)’가 밸류에이션 핵심 변수로 부상(잠재 소송비/공개 범위/집행 강도 반영 필요)
- 시장 경쟁: 데이터셋 공개가 진행되면 대형사의 ‘불투명성 기반 진입장벽’이 낮아지고, 투명한 데이터 전략을 가진 후발주자에 기회가 생길 수 있음
- 단기 관전 포인트: 법은 발효됐지만 집행 강도(추적 수준, 공개 범위, 제재 수위)가 불명확해 향후 수개월 내 실무 가이드·단속 강도가 변수가 됨
📘 용어정리
- AB 2013: 캘리포니아에서 사업하는 생성형 AI 기업에 학습 데이터의 출처·구성 등을 ‘의미 있는 수준’으로 공개하도록 요구하는 법
- 가처분(예비금지명령): 본안 판결 전까지 법 집행을 일시 중단해 달라고 법원에 요청하는 긴급 구제 절차
- 강요된 발언(Compelled speech): 정부가 특정 발언/공개를 강제하는 것이 표현의 자유를 침해할 수 있다는 헌법 쟁점
- 영업비밀: 경쟁우위의 핵심이 되는 비공개 정보(데이터 파이프라인·수집/정제 방식 등)로, 공개 강제 시 기업 가치·경쟁력 훼손 논쟁이 발생
💡 자주 묻는 질문 (FAQ)
Q.
AB 2013은 AI 회사에 무엇을 공개하라고 하나요?
캘리포니아에서 사업하는 생성형 AI 기업이 모델 학습에 사용한 데이터의 출처와 구성(텍스트·이미지·코드 등), 그리고 관련 정보를 ‘의미 있는 수준’으로 공개하라고 요구합니다. 핵심은 “무엇을 학습했는지”를 더 이상 완전히 비공개로 두기 어렵게 만든다는 점입니다.
Q.
xAI는 왜 법 시행을 막으려 했는데, 왜 실패했나요?
xAI는 데이터 공개가 표현의 자유(강요된 발언) 침해이자 영업비밀 강제 공개라고 주장하며 가처분을 신청했습니다. 하지만 법원이 긴급히 집행을 멈추려면 ‘즉각적이고 구체적인 피해’가 전제돼야 하는데, 집행 일정이 불명확해 위협이 가정적으로 보일 수 있어 가처분 요건 충족이 어려웠다는 해석이 나옵니다.
Q.
이 판결이 투자자와 AI 산업에 주는 의미는 뭔가요?
학습 데이터가 공개되면 저작권자·언론사·창작자가 무단 학습 여부를 더 쉽게 문제 삼을 수 있어 소송 리스크가 커질 수 있습니다. 또한 데이터가 ‘경쟁력의 핵심 자산’에서 ‘규제·소송의 표적’으로 바뀌면서, 기업가치 평가에서 데이터 거버넌스(합법적 수집·라이선스·기록관리) 역량이 더 중요한 변수로 부상합니다.
TP AI 유의사항
TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.





