정부가 인공지능(AI) 산업 발전을 위해 AI 규제를 최소화하면서 ‘딥페이크(AI로 만든 조작물)’ 등 AI 악용을 막는 제도를 도입한다. AI를 개발·활용하는 기업에 안전 의무를 부여하되 산업이 위축되지 않도록 처벌은 사실상 유예해 기업 부담을 줄였다.
과학기술정보통신부는 17일 서울 중구 상연재 별관에서 기자간담회를 열고 AI 기본법 하위법령 제정 방향을 설명했다. 과기정통부는 민간전문가 80여명으로 구성된 하위법령 전문단을 지난 1월부터 운영해 시행령과 가이드라인 5건을 마련했다. 투명성·안전성 확보 의무와 고영향 AI 기준, 사업자 책무 등이 포함됐다. 규제와 지원 대상은 구체화하고, 격변하는 AI 산업 환경을 고려해 유연성을 높였다는 게 정부 설명이다.

김경만 과기정통부 인공지능기반정책관은 “벤처나 스타트업계는 법령 자체를 규제로 여길 수 있고, 시민단체는 강력한 규제를 원한다”며 “진흥에 중점을 둔 규제 체제를 중심으로 시행령을 보완하는 가이드라인을 마련했다”고 말했다.
◆미국 사례 참조해 규제 완화에 방점
정부는 AI 관련 제도를 먼저 도입한 미국과 유럽연합(EU), 일본 등 사례를 분석해 한국형 제도를 만드는 데 주력했다. 비교적 규제가 강한 EU보단 자율 규제를 적용하는 미국 사례를 곳곳에 도입해 규제를 완화했다.
규제 대상은 AI를 개발하거나 이용해 제품·서비스를 제공하는 사업자다. 사업자가 개발·제공하는 자율주행차 등 AI 시스템이 탑재된 제품과 챗지피티(ChatGPT)와 같은 AI 기능을 제공하는 서비스가 적용 대상이다. 개인이 챗지피티를 이용해 만든 결과물은 ‘AI 제품’이 아니고 이를 상영하는 건 ‘AI 서비스’가 아니기 때문에 AI 기본법으로 규제되지 않는다. AI 사업자에는 국가 기관도 포함된다. 다만 국방과 국가 안보 목적으로만 사용되는 AI는 규제 대상에서 제외한다.
법에 따라 AI 사업자는 생성형·고영향 AI 이용자에게 사전에 고지하고 결과물 표시(워터마크)를 해야 한다. 고영향 AI는 에너지와 보건의료, 교통, 교육 등 중대한 영향을 미칠 수 있는 영역에서 쓰이는 AI시스템을 의미한다. AI를 활용한 창작 콘텐츠 등의 위축 우려를 덜기 위해 시스템 판별이 가능한 비가시적 워터마크도 허용한다. 다만 딥페이크 결과물에 대해선 AI 취약층인 아동과 노인, 장애인 등 연령과 신체적 조건도 모두 고려해 명확하게 표시해야 한다.

◆고성능 AI에 안전 확보 의무 부여
누적학습량이 일정 수준 이상인 고성능 AI는 안전 확보 의무가 부여된다. 기본권이 침해되거나 공공의 안전을 위협하는 요소를 고려하고 위험의 실현 가능성, 중대성 등을 평가해 관리체계를 구축한 뒤 결과를 제출해야 한다. 의무 대상이 되면 3개월 내로 안전성 확보 조치 사항을 문서화해 과기정통부에 내야 한다.
정부는 고영향 AI 판단 기준과 신뢰성 확보를 위한 이행사항도 구체화했다. 대상 사업자는 위험관리 조직을 구성하고 위험관리체계를 운영, AI 결과 도출 기준이나 학습용 데이터 개요 등을 설명하는 방안을 수립·시행해야 한다.
법 위반사항이 발견되면 정부는 사실 조사를 진행하고 위반행위에 대한 시정명령을 내리게 된다. 시정명령을 따르지 않으면 3000만원 이하의 과태료가 부과될 수 있지만 업계 혼란을 줄이기 위해 과태료 계도기간을 운영하기로 했다.
정부의 사실 조사 행위가 벤처·스타트업 기업 부담으로 작용할 수 있다는 지적에 대해 송도영 변호사(법무법인 비트)는 “사실 조사를 하지 않으면 법 위반이나 오남용 가능성이 있다”며 “사실 조사를 시행해서 증거를 확보하고 이에 따른 시정명령을 하되 과태료 부과는 유예해 기업 부담을 줄여주는 게 적절하다”고 했다.
과기정통부는 이달 시행령 초안을 확정하고 다음 달 입법예고를 진행할 계획이다. 12월 시행령·고시를 마련한 뒤 가이드라인을 공개해 내년 1월부터 시행한다.