오픈AI(OpenAI)가 자사의 코딩 전용 AI 에이전트 최신 버전인 GPT-5.3-Codex의 경량판 ‘GPT-5.3-Codex-Spark’를 공개했다. 이번 출시로 오픈AI는 구글(GOOGL)의 ‘제미니 플래시(Gemini Flash)’ 시리즈와 유사한 전략을 취하며 더욱 빠르고 효율적인 AI 모델을 제공하게 됐다.
GPT-5.3-Codex-Spark는 특히 저지연 응답 속도를 강조한다. 이는 지난달 오픈AI가 AI 칩스타트업 세레브라스 시스템즈(Cerebras Systems)와 체결한 약 144억 원 규모의 파트너십의 결과물이다. 오픈AI는 이 칩 파트너십의 첫 성과로 ‘스파크’를 꼽으며, 실제로 세레브라스의 차세대 반도체 플랫폼 ‘WSE-3’ 위에서 이 모델이 구동된다고 밝혔다. 이 칩은 무려 4조 개 이상의 트랜지스터를 탑재한 실리콘 웨이퍼 크기의 AI 전용 프로세서다.
이번에 공개된 스파크는 이름 그대로 ‘신속한 추론’을 목적으로 설계됐다. 오픈AI는 이 모델이 단순히 코드를 생성하는 데에 그치지 않고, 실시간 공동 작업·디버깅·배포·지표 분석·카피 수정·사용자 조사 등 개발자들이 일반적으로 수행하는 대다수의 업무에 관여할 수 있다고 설명했다. 기존 GPT-5.2 대비 평균 응답 속도는 25% 향상됐으며, 토큰 사용량도 특정 유형의 작업에서는 최대 50% 가까이 줄어든 것으로 나타났다.
AI 모델 성능 비교 지표인 터미널 벤치(Terminal-Bench) 2.0에서도 스파크는 77.3%의 정확도를 기록해, GPT-5.2-Codex의 64%를 크게 웃돌았다. 게임 및 웹 개발 분야에서도 유사한 성능 개선이 관측됐다.
흥미로운 점은, 해당 모델이 자체 개발 과정에서도 ‘조력자’ 역할을 했다는 대목이다. 오픈AI 측은 초기 버전의 스파크가 모델 학습 디버깅, 배포 관리, 테스트 결과 진단 등 다방면에서 자기 자신을 개선하는 데 활용됐다고 밝혔다. 이러한 ‘자가 가속적 개발’ 사례는 거대 AI 모델 개발에서 드문 접근으로 평가된다.
현재 GPT-5.3-Codex-Spark는 유료 챗GPT(ChatGPT) 사용자들에게만 제공되며, 곧 API 형태로도 공개될 예정이다. 가격이나 사용 제한은 기존 GPT-5.3-Codex 모델과 동일하다.
오픈AI는 이번 공개가 장기 전략의 첫 걸음이라고 강조했다. 실시간 협업에 최적화된 경량 에이전트와, 장시간 복잡한 작업을 다룰 수 있는 심화형 모델이라는 ‘이중 모드 전략’이 병행 운영될 것이라고 밝혔다. 이와 관련해 세레브라스 공동창업자인 션 리(Sean Lie)는 “AI 추론의 속도가 바뀌면 패턴, 활용처, 사용자 경험이 송두리째 달라질 것이며, 이번 발표는 그 서막에 불과하다”고 말했다.
한편, 세레브라스는 최근 14억 4,000만 달러(약 2조 673억 원)의 추가 투자를 유치하며 기업가치 230억 달러(약 33조 1,200억 원)를 기록했다. 올해 상반기 중 기업공개(IPO)를 앞둔 이들은 오픈AI와 보다 전략적인 협력을 이어갈 방침이다. AI 반도체 시장에서 엔비디아(NVDA)와 맞붙고 있는 세레브라스에게도 이번 협력은 결정적인 분기점이 될 것으로 예상된다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>