이숙연 대법관이 인공지능 기술의 사법부 도입과 관련해 개인정보 유출, 사법권 침해 등의 부작용을 경계하며, 인권 보장과 사법부 독립을 최우선 가치로 삼아야 한다는 입장을 밝혔다. 기술 발전의 흐름 속에 있더라도, 사법 정의의 원칙은 훼손되어서는 안 된다는 점을 강조한 것이다.
이 대법관은 9월 23일 서울 신라호텔에서 열린 ‘2025 세종 국제 콘퍼런스’에서 ‘AI와 사법의 미래’를 주제로 발표하며, 사법부 인공지능위원회 위원장으로서 현재 한국 사법부가 추진 중인 인공지능 시스템 개발 현황과 방향성 등을 설명했다. 발표에서 그는 법원의 자체 인공지능 플랫폼(온프레미스 대규모 언어모델, LLM)에 대해 소개하며, AI를 통해 판결문 초안을 작성하거나 사건의 쟁점을 도출하는 데 도움을 받을 수 있다고 밝혔다.
다만 그는 AI 기술의 도입이 효율성만을 추구해선 안 되며, 인공지능이 법률문건을 처리하는 전 과정에서 공정성, 투명성, 설명 가능성, 그리고 비편향성이 확보되어야 한다고 강조했다. 특히 외국산 AI 모델을 사법 행정에 도입할 경우, 민감한 판례나 개인정보, 국가 안보와 관련된 기밀이 해외로 유출될 우려가 있어, AI 활용은 자국 내 독자적 시스템을 중심으로 이루어져야 한다는 점에도 무게를 실었다.
그는 글로벌 빅테크 기업과의 계약을 통해 AI 시스템을 도입할 경우, 데이터 주권이나 알고리즘의 투명성 확보가 어려워질 수 있다는 현실적 한계도 짚었다. 이러한 문제는 특히 국내 자체 기술력이 부족한 나라일수록 더 크게 나타날 수 있어, 국제사회 차원에서 책임 있는 가이드라인을 마련하고 공동 대응이 필요하다는 데도 뜻을 모았다.
이 대법관은 이미 사법부 내 정보기술 전문가로 자리매김한 인물로, 법원행정처 정보화 부서 실무를 담당한 경력이 있다. 산업공학과 정보보호 박사학위까지 보유한 이력을 바탕으로, 기술과 법률의 접점에서 제도적·윤리적 문제를 아우르는 정책 제안을 지속해왔다. 그는 변호사들과 판사들이 AI를 점차 실무에 활용하고 있으나, 일부에서 검증되지 않은 AI 결과물을 법정문서로 제출하거나 상업용 플랫폼에 민감 정보를 업로드하는 사례도 있다고 지적하면서, 보다 분명하고 엄격한 윤리 기준과 활용 지침 마련이 시급하다고 강조했다.
이 같은 흐름은 기술 도입 속도를 앞세우기보다 제도적 안전장치와 법 원칙을 같이 설계하는 쪽으로 이어질 가능성이 크다. 인공지능 시대의 사법개혁이 단지 기술 혁신에 그치지 않고, 법치주의와 국민의 권리 보호를 같은 수준으로 다루는 방향으로 발전해야 한다는 지적이 설득력을 얻고 있다.