[서울이코노미뉴스 박희만 기자] 오픈AI의 챗GPT, 구글 제미나이 등 생성형 인공지능(AI)을 활용해 제작된 이미지와 영상이 외부에 유통될 경우 ‘AI 생성물’ 표시의무가 22일부터 적용된다.
정부는 관련제도를 담은 ‘AI 기본법’을 이날부터 시행하면서 산업 진흥과 신뢰 확보를 동시에 추진하겠다는 방침이다.
하지만, AI 스타트업 업계에서는 규제 불확실성이 경쟁력 약화로 이어질 수 있다는 우려가 제기되고 있다.
과학기술정보통신부에 따르면 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’이 이날부터 시행됐다.
유럽연합(EU)이 세계 최초로 AI 법제를 마련했지만 단계적으로 적용하고 있는 반면, 한국은 전면시행에 나서면서 사실상 AI 법을 본격 가동한 첫 국가가 됐다.
AI 기본법은 3년마다 ‘인공지능 기본계획’을 수립하도록 하는 등 산업 경쟁력 강화를 핵심목표로 삼고 있다.
다만 법에 포함된 일부 규제조항을 두고 기업 성장의 부담요인이 될 수 있다는 지적도 나온다. 계도기간이 주어지더라도 규제 대응체계 자체를 구축하는 데 드는 비용과 인력이 중소 AI 기업에는 상당한 부담이 될 수 있다는 이유에서다.
이번 법에서 새로 도입된 규제는 ▲투명성 확보 의무 ▲고영향 AI에 대한 관리 의무 ▲초고성능 AI 안전성 확보 의무 등 세 가지다.
이 가운데 투명성 의무와 관련해 AI 생성물 표시대상의 범위가 모호하다는 지적이 제기되자, 정부는 실제 서비스 사례를 중심으로 한 가이드라인을 마련해 기준을 명확히 했다.
정부에 따르면 생성형 AI 서비스를 제공하는 사업자가 표시의무의 주체이며, 해당서비스를 이용하는 개인은 의무대상이 아니다.
개인이 AI를 활용해 만든 콘텐츠를 네이버나 카카오 등 플랫폼에 게시하면서 AI 생성물 표시를 제거하더라도 법 위반에는 해당하지 않는다.
딥페이크 영상에 대한 가시적 워터마크 표시의무 역시 사업자에게만 적용된다. 다만 개인이 딥페이크를 악용할 경우에는, AI 기본법이 아닌 기존의 성폭력처벌법이나 정보통신망법 등에 따라 처벌받을 수 있다.
정부는 이번 규제로 인해 직접적인 영향을 받는 국내 기업은 많지 않을 것으로 보고 있다.
고영향 AI와 초고성능 AI에 대한 규제는 현존기술을 통제하기보다는 잠재적 위험에 대비한 기준마련 성격이 강하다는 설명이다.
정부는 생명·안전·기본권과 직결되는 고영향 AI의 사례로 자율주행 레벨4 이상을 제시했다.
현재 테슬라의 완전자율주행(FSD)은 레벨2 수준으로 분류되며, 운전자 개입없이 비상상황에서도 시스템이 스스로 판단·주행하는 단계의 AI가 규제대상이 된다.
초고성능 AI에 대한 안전성 의무기준인 10의 26승 부동소수점 연산(FLOP)을 충족하는 모델은 국내외를 통틀어 아직 없는 것으로 파악됐다.
글로벌 빅테크의 최신 AI 모델 학습량은 10의 15승 수준에 그친다.
그러나, 산업 현장에서는 법 시행에 대한 준비가 충분하지 않다는 지적이 나온다.
스타트업얼라이언스가 지난달 국내 AI 스타트업 101곳을 대상으로 조사한 결과, 실질적인 대응체계를 구축한 기업은 2%에 불과했다.
이에 정부는 법 위반 여부에 대한 사실조사와 과태료 부과에 앞서 1년 이상의 계도기간을 두고, 기업 적응을 지원하기 위한 ‘AI 지원데스크’를 운영할 계획이다.
유예기간 동안에는 사실조사를 진행하지 않고, 신고나 민원이 접수될 경우 컨설팅 중심의 지원을 제공한다는 방침이다.
김경만 과기정통부 인공지능정책실장은 “해외 정책동향을 지속적으로 점검하고 산업계, 시민단체, 학계가 함께 참여하는 논의 플랫폼을 구축해 AI 법제를 발전시켜 나가겠다”고 밝혔다.
