인공지능 기본법 해설: 기업과 사업자를 위한 핵심 규제 사항
2024년 말 통과된 한국의 인공지능 기본법은 AI 기술 활용이 확산됨에 따라 필요해진 규제 체계를 확립했습니다. 특히 AI 사업을 준비하는 이들이 알아야 할 주요 규제 사항을 정리했습니다.
인공지능 분류 체계 및 정의
고영향 인공지능과 생성형 인공지능
인공지능 기본법은 규제 대상이 되는 인공지능을 크게 두 가지 카테고리로 분류합니다. 첫째는 '고영향 인공지능'이고, 둘째는 '생성형 인공지능'입니다. 유럽의 AI 규제에서는 '고위험 인공지능', '저위험 인공지능', '제한적 위험 인공지능'으로 3단계 분류했지만, 한국은 고영향 인공지능이라는 용어를 법적으로 도입했습니다.
고영향 인공지능의 법적 정의는 "사람의 생명·신체의 안전·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능 시스템"입니다. 이 범주에는 다음과 같은 10개 영역이 포함됩니다:
- 에너지
- 먹는 물 보원
- 의료, 의료기기
- 원자력
- 범죄 수사나 체포 업무
- 채용
- 대출심사
- 교통
- 공공서비스
- 교육
이러한 영역에서 인공지능이 사용되면 기본적으로 고영향 인공지능으로 간주됩니다.
반면, 생성형 인공지능은 특정 영역이 아닌 방식에 의해 정의됩니다: "입력한 데이터의 구조와 특성을 모방해서 글, 소리, 그림, 영상, 그 밖에 다양한 결과물을 생성하는 인공지능 시스템"입니다. 만약 고영향 AI 영역에서 생성형 인공지능이 사용된다면, 두 가지 카테고리에 해당하는 규제를 모두 받게 됩니다.
인공지능 사업자의 정의와 범주
법안에서는 '인공지능 사업자'라는 개념이 중요합니다. 인공지능 사업자는 사업을 하고 있는 법인, 단체, 개인을 모두 포함하며, 심지어 국가 기관도 포함될 수 있습니다. 만약 어떤 개인이 계속적, 반복적으로 인공지능을 활용해 수익을 창출한다면, 법인 설립이나 사업자 등록 여부와 관계없이 인공지능 사업자로 간주될 수 있습니다.
인공지능 사업자는 다시 두 가지로 구분됩니다:
- 인공지능 개발 사업자: 인공지능을 실제 개발하여 제공하는 사업자
- 인공지능 이용 사업자: 직접 개발하지 않아도 타인이 만든 인공지능 시스템이나 설비를 이용해 서비스를 제공하는 사업
예를 들어, ChatGPT를 이용해 서비스를 만든 경우 인공지능 이용 사업자에 해당하며, Microsoft Word에 인공지능 기능이 포함되어 있어 마이크로소프트는 인공지능 이용 사업자가 됩니다. 마이크로소프트가 자체 LLM도 개발하므로 인공지능 개발 사업자이기도 합니다.
인공지능 사업자의 의무와 책임
투명성 확보 의무
인공지능 기본법 31조에 따라 인공지능 사업자에게는 투명성 확보 의무가 부과됩니다. 이는 세 가지 핵심 요구사항으로 구성됩니다:
- 고영향 인공지능이나 생성형 인공지능을 이용한 제품이나 서비스를 제공할 때, 해당 서비스가 인공지능에 기반한 서비스임을 이용자에게 알려야 합니다.
- 생성형 인공지능이나 이를 이용한 제품·서비스를 제공할 때, 또는 LLM을 직접 제공하거나 LLM 기반 서비스를 제공할 때, 결과물이 생성형 인공지능에 의해 만들어졌다는 사실을 표시해야 합니다(워터마크 등).
- 인공지능 시스템을 이용해 실제와 구별하기 어려운 가상의 음향, 이미지, 영상 결과물을 제공할 때, 이것이 인공지능 시스템에 의해 생성되었음을 명확하게 인식할 수 있는 방식으로 이용자에게 고지해야 합니다.
단, 결과물이 예술적·창의적 표현물에 해당하거나 일부를 구성할 때는 전시나 향유를 저해하지 않는 방식으로 고지할 수 있습니다. AI 투명성은 사람들이 AI 시스템의 결정 방식을 이해하도록 돕고, 책임감 있는 AI 개발의 필수 요소입니다.
안전성 확보 의무
인공지능 사업자는 안전성 확보를 위한 여러 조치를 취해야 합니다:
- 인공지능의 전체 수명 주기(시작부터 종료까지)와 서비스 제공 기간 동안 발생할 수 있는 위험을 식별하고 평가해야 합니다.
- 발견된 위험을 완화하기 위한 조치를 취해야 합니다.
- 위험 관리 체계를 구축하고 그 내용을 과학기술정보통신부 장관에게 제출해야 합니다.
- 고영향 인공지능에 대한 사람의 관리와 감독을 보장해야 합니다.
- 안전성과 신뢰성 확보를 위한 조치 내용을 확인할 수 있는 문서를 작성하고 보관해야 합니다.
이러한 의무는 사업자의 책무로 규정되어 있으며, 이를 이행하지 않을 경우 과학기술정보통신부 장관은 권고를 할 수 있습니다.
규제 위반 시 조치 및 처벌
인공지능 기본법 위반 혐의가 있을 경우 규제 당국은 다음과 같은 조치를 취할 수 있습니다:
- 사실 조사: 고영향 인공지능 관련 고지 의무 불이행 등 투명성 확보 의무 위반 혐의가 있는 경우, 신고나 민원이 접수되면 과학기술정보통신부에서 사실 조사를 실시할 수 있습니다.
- 시정 명령: 사실 조사 결과 위반 사항이 확인되면 시정 명령이 내려질 수 있습니다.
- 과태료 부과: 시정 명령을 이행하지 않을 경우 과학기술정보통신부에서 과태료를 부과할 수 있습니다.
따라서 인공지능 사업자는 투명성 확보 의무와 안전성 확보 조치를 철저히 이행해야 합니다.
한국 인공지능 기본법의 특징과 전망
국제적 규제 동향과의 비교
한국의 인공지능 기본법은 유럽연합의 규제보다 완화된 방식을 취하고 있으며, 보다 산업 친화적인 방향으로 나아가고 있다고 평가됩니다. 발표자는 미국이 산업 발전을 우선시하는 반면, 유럽은 규제 수립에 더 초점을 맞추고 있다고 언급합니다.
학술적 분석에 따르면, 2024년 12월 26일에 통과된 한국의 AI 기본법은 "고영향 인공지능" 중 하나에 해당하면 단일 부처가 동일 규제들의 묶음을 집행하는 수평규제체계를 채택하고 있습니다. 이는 캐나다의 AI·데이터법안처럼 EU AI법보다는 규제총량과 제재강도를 약화시켰으나, 일부 연구자들은 혁신·개발 선도국들처럼 각 영역을 관할하던 부처들이 AI 활용 맥락에 따라 맞춤형 규제를 적용하는 방식이 더 적합했을 수 있다고 지적합니다 .
향후 발전 방향
인공지능 기본법의 구체적인 내용은 아직 대통령령으로 정해질 예정이며, 현재 하위법령 정비단이 출범한 상태입니다. 발표자는 시행령과 시행규칙이 어떻게 제정되느냐에 따라 법의 방향성이 달라질 수 있으며, 산업적 발전을 고려한 정비가 이루어지기를 희망한다고 밝혔습니다.
결론
한국의 인공지능 기본법은 AI 기술의 발전과 적용 확대에 따른 규제 체계를 확립하는 중요한 시도입니다. 이 법은 고영향 인공지능과 생성형 인공지능에 대한 규제를 중심으로, 인공지능 사업자에게 투명성과 안전성 확보 의무를 부과하고 있습니다. 다른 국가들에 비해 비교적 완화된 규제 접근법을 취하고 있으나, 실질적인 규제의 강도와 방향은 향후 제정될 시행령과 시행규칙에 따라 결정될 것입니다.
AI 사업을 준비하거나 운영 중인 사업자들은 자신이 제공하는 AI 서비스가 법의 규제 대상인지 확인하고, 해당 의무를 철저히 이행함으로써 법적 위험을 관리할 필요가 있습니다. 또한 국내외 AI 규제 동향을 지속적으로 모니터링하며 비즈니스 전략을 조정해나가는 것이 중요할 것입니다.