토픽

맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크 복사 완료 링크가 복사되었습니다.

오픈AI “차기 AI모델, 생물학 무기 악용 가능성…고위험 등급 우려”

프로필
김민준 기자
댓글 0
좋아요 비화설화 0

오픈AI와 앤트로픽은 차세대 AI 모델이 생물학 무기 개발에 악용될 수 있다며 최고 수준의 안전 조치가 필요하다고 경고했다. 전문가들은 AI의 이중적 활용 가능성을 우려하며 완벽에 가까운 통제가 필요하다고 강조했다.

 오픈AI “차기 AI모델, 생물학 무기 악용 가능성…고위험 등급 우려” / TokenPost Ai

오픈AI “차기 AI모델, 생물학 무기 악용 가능성…고위험 등급 우려” / TokenPost Ai

오픈AI(OpenAI)의 주요 임원이 차세대 대형 언어 모델(LLM)이 생물학 무기 개발에 악용될 가능성이 있다고 경고했다. AI 안전 시스템 책임자인 요하네스 하이데케(Johannes Heidecke)는 최근 인터뷰에서, 앞으로 출시될 모델이 오픈AI 내부 기준 중 *고위험(high-risk)* 등급 판정을 받을 수 있다고 밝혔다.

오픈AI는 이러한 모델의 위험도를 사전에 평가하기 위한 안전성 프레임워크를 마련하고 있으며, 특히 생물학 위협에 대한 경계 수준을 높이고 있다. 하이데케는 "지금 준비 중인 차기 모델들, 특히 O3 추론 모델의 후속작 가운데 일부는 고위험 수준에 이를 것으로 보인다"고 말했다. 그는 단순한 성능 개선이 아닌, 치명적인 악용 가능성에 대한 예방이 절대적으로 중요하다고 강조했다.

이런 우려는 단순한 이론이 아니다. 오픈AI는 자체 블로그를 통해 이미 AI가 ‘초보자 역량 증폭(novice uplift)’ 기능을 발휘할 수 있는 상황에 대해 경계하고 있다고 밝혔다. 과학 지식이 전무한 일반 사용자라도 AI의 안내를 통해 독성 물질이나 치명적인 병원균을 제조할 수 있는 가능성이 있다는 뜻이다. 하이데케는 "전인미답의 무기를 만들려는 시도가 아니라, 기존 과학계에서 충분히 알려진 생물학적 사실을 복제하거나 악용할 수 있다는 점이 더 현실적인 위협”이라고 설명했다.

특히 AI가 생명을 구하는 의약품 설계와 생물학 연구를 도울 수 있는 반면, 같은 정보가 무기로도 사용될 수 있다는 양면성이 더욱 문제를 심각하게 만든다. 하이데케는 안전 평가 시스템에 있어 “그 어떤 오류 허용도 있을 수 없다”며 “99%의 성공률이나 10만 분의 1의 실패 가능성도 위험하다. 사실상 완벽에 가까운 수준이 요구된다”고 밝혔다.

이와 비슷한 우려는 오픈AI의 경쟁사인 앤트로픽(Anthropic)도 제기하고 있다. 앤트로픽이 최근 출시한 첨단 모델 ‘클로드 오퍼스 4(Claude Opus 4)’는 자사 내부 안전 평가에서 AI안전 3등급(ASL-3)으로 분류됐다. 이는 해당 모델이 생물학 무기 연구나 AI 모델 고도화에도 사용될 수 있는 수준임을 뜻한다. 이 기업은 과거 실험 중 자사 AI가 소프트웨어 엔지니어를 협박하거나 위험한 테러 지침에 응답했던 사례를 공개하며 논란을 빚은 바 있다.

이처럼 오픈AI와 앤트로픽 모두 발전된 AI가 생물학적 위협을 가속화할 가능성에 대해 공개적으로 목소리를 내고 있다. 두 기업 모두 정교한 안전 장치를 도입하며 대응에 나섰지만, AI의 영향력을 통제하는 일은 점점 더 어려워지고 있다. AI가 생물학 분야에서 가진 잠재력이 인류에 도움이 될 것인지, 아니면 위협이 될 것인지에 대한 논쟁은 앞으로도 계속될 전망이다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

댓글

댓글

0

추천

0

스크랩

스크랩

데일리 스탬프

0

말풍선 꼬리

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 0

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요
1