기사 메일전송
연구 보고서 | AI기본법 시행령 및 가이드라인에 대한 전략적 분석
  • 최득진 AI 리서치 컨설턴트 | 주필
  • 등록 2025-09-20 11:27:12
  • 수정 2025-09-20 11:55:55
기사수정
  • 규제적 함의와 진흥 기회


작성자: AXINOVA R&D 원장 최득진 박사

[국제법학 박사 | AI 리서치 컨설턴트 | 평생교육사 | 사회분석 전문가 | ChatGPT AI 1급 지도자]


❄아래에서'시행령'이라 함은, AI기본법의 '시행령 초안'을 말한다.


I. 개요



A. 핵심 분석 결과


한국의 인공지능(AI) 기본법 하위법령(시행령) 제정안은 24.12월 국회 통과를 거쳐 26.1월 시행을 앞두고 있으며, 이는 전 세계적인 AI 규범 마련 경쟁 속에서 한국의 독자적인 AI 생태계 구축 방향을 제시하고 있다.1 이 법안은 AI 산업의 혁신과 발전을 촉진하는 동시에, AI가 초래할 수 있는 잠재적 위험으로부터 국민을 보호하기 위한 안전 및 신뢰 기반을 균형적으로 반영하고 있다.1


하위법령의 핵심 규제 사항은 다음과 같다.


  • 투명성 의무: 생성형 AI 및 고영향 AI를 이용한 제품 및 서비스에 대해 이용자에게 사전 고지하고 결과물에 워터마크를 표시해야 하는 의무를 부과한다.1


  • 안전성 의무: 1026 부동소수점 연산 이상에 해당하는 누적 학습량의 고성능 AI에 대해 위험 식별, 평가, 완화 조치 등 안전 확보 의무를 부담하게 한다.1


  • 고영향 AI 규율: 사람의 생명, 신체 안전, 기본권에 중대한 영향을 미치는 특정 영역(예: 보건의료, 교통, 에너지)에서 활용되는 AI 시스템에 대해 사업자 책무를 부과한다.1


동시에, 하위법령은 강력한 산업 육성 방안을 담고 있다.


  • 정부 지원: AI R&D, 학습용 데이터 구축, AI 도입 및 활용, 전문인력 확보 등 AI 산업 전반에 대한 정부 지원의 근거를 마련한다.1


  • 인프라 구축: 정부 주도로 학습용 데이터 통합 제공 시스템 및 AI 집적 단지, 실증 기반을 조성하여 민간의 진입 장벽을 낮추고자 한다.1

B. 전략적 시사점


법안의 시행은 중대한 위험과 동시에 막대한 기회를 제시한다.


  • 위험 관리: 현재 개발 중이거나 향후 출시될 AI 제품 중 고영향 AI로 분류될 수 있는 제품은 물론, 1026 FLOPs 기준을 초과하는 고성능 모델에 대한 철저한 내부 감사와 규제 준수 계획 수립이 시급하다. 규제 미준수는 법 시행 이후 과태료 부과 및 기업 신뢰도 하락으로 이어질 수 있다.


  • 성장 기회: 정부의 AI 산업 육성 지원책은 우리 R&D 투자의 효율성을 극대화할 수 있는 직접적인 경로를 제공한다. 정부 지원 사업 참여, 공공 데이터 및 인프라 활용 등을 통해 경쟁사 대비 연구 개발 속도를 가속화하고 비용을 절감할 수 있는 기회를 적극적으로 모색해야 한다.


C. 즉각적인 실행 권고안


  • 즉시 (2024년 4분기): 법무팀, R&D팀, 제품팀이 참여하는 AI 거버넌스 태스크포스(TF)를 즉시 구성해야 한다. 모든 AI 모델에 대해 1026 FLOPs 임계치 및 고영향 AI 분류 기준에 대한 포괄적인 기술적 감사를 시작해야 한다. 또한, 9월 중 진행되는 산업계 의견 수렴에 적극적으로 참여하여 우리의 기술적 현실을 법안에 반영하도록 노력해야 한다.1


  • 단기 (2025년): 모든 신규 의무에 대한 기술 및 운영 준수 로드맵을 수립하고, 정부 R&D 지원 사업 참여를 위한 상세 계획을 마련해야 한다.


  • 장기 (2026년 이후): 과태료 계도기간 종료 전 모든 준수 의무를 완전히 이행해야 한다. 정부 지원 프로그램을 활용하여 지속적인 혁신 동력을 확보하고 시장 경쟁력을 강화해야 한다.


II. 한국 인공지능 거버넌스의 상황



A. 배경 및 제정 의의


AI기본법은 22.11월 GPT의 등장 이후 급변하는 전 세계 AI 기술 발전 및 규범 정립 경쟁 속에서 한국의 AI 주권을 확립하기 위해 마련되었다.1 이 법은 지난 4년여간의 광범위한 논의를 거쳐 여야 합의로 24.12월 국회를 통과하였으며, 26.1월 시행을 앞두고 있다.1 법의 핵심 가치는 AI 산업 발전과 안전 및 신뢰 기반 구축이라는 두 축을 균형적으로 반영하는 데 있다.1


B. 하위법령 제정안 개요


AI기본법의 실질적인 실행을 위해 과학기술정보통신부(과기정통부)는 민간전문가 80여명으로 구성된 하위법령 정비단을 운영하며 시행령, 고시, 가이드라인 등 하위법령 초안을 마련했다.1 시행령은 AI 육성 지원 대상 및 기준, 투명성·안전성 확보 방법 등 법률에서 위임하는 세부적인 기준과 절차를 명확히 하는 데 중점을 두고 있다.1 특히, 기업의 규제 우려와 불확실성을 완화하고자 안전·신뢰 기반 조성을 위한 세부 사항들은 고시 및 가이드라인을 통해 구체화될 예정이다.1


C. 주요국 AI 규범과의 비교 분석


AI기본법의 하위법령은 미국, EU, 일본 등 주요국의 AI 규제 동향을 포괄적으로 고려한 독특한 접근 방식을 취하고 있다.1 미국이 AI 위험관리 프레임워크를 통해 자율적 규범을 제시하고 일본이 AI 연구개발과 이용을 촉진하는 연성 규제 체계를 도입한 반면, EU는 AI Act를 통해 AI의 위험도를 기준으로 차등 규제하는 법적 구속력 있는 포괄적 규제 체계를 구축했다.1


한국의 법안은 이들의 중간 지점에 위치하는 하이브리드 모델로 평가할 수 있다. 법 제정의 방향은 진흥에 무게를 두고 필요최소한의 규제를 합리적으로 마련하는 것으로 명시하고 있어, 미국의 자율적 규제 기조와 유사한 점이 있다.1 하지만, 동시에 고영향 AI 및 고성능 AI에 대한 사업자 책무를 법률 및 시행령에 명시적으로 규정하여, EU의 위험 기반 규제 프레임워크와 유사한 구속력을 부여하고 있다.1


이는 중요한 전략적 시사점을 제공한다. 단순히 기술 혁신에만 집중하는 미국 시장이나, 엄격한 규제 준수를 우선시하는 EU 시장과는 달리, 한국 시장에서는 진흥과 규제라는 두 가지 목표를 동시에 고려하는 이중적인 전략을 수립해야 한다. R&D 활동은 정부 지원을 적극 활용하여 가속화하고, 동시에 제품 출시 및 운영 단계에서는 법률에서 규정하는 안전 및 신뢰 의무를 철저히 이행해야 한다.


구분
주요 내용
규제 철학
시사점
미국
AI 위험관리 프레임워크
자율적 규범 제시 (AI 혁신은 촉진, 위험은 최소화)
자율적 거버넌스 체계 구축
EU
AI Act
위험 기반 차등 규제 (법적 구속력 있는 규제체계)
엄격한 규제 준수 및 대응 체계 마련
일본
AI 촉진법
연성 규제체계 (진흥법 마련)
정부와 협력하며 진흥 활동에 초점
한국
AI기본법 및 하위법령
진흥에 무게를 둔 하이브리드 모델 (필요최소한의 규제안전·신뢰 기반 구축)
진흥 기회 적극 활용 및 규제 준수 로드맵 동시 수립


III. AI 산업 육성 및 진흥 방안 분석



A. 정부 지원 이니셔티브에 대한 포괄적 검토


AI기본법 하위법령은 AI 기술 개발 및 산업 육성을 위한 정부 지원의 구체적인 근거를 마련하고 있다.1 이는 AI 산업에 대한 국가적 경쟁력을 강화하고 국내 기업들의 혁신 활동을 적극적으로 지원하기 위함이다.


  • AI R&D 및 기술 표준화 지원: 시행령 제11조는 AI R&D 활성화를 위한 지원 대상 사업으로 인프라 구축, 해외 기관과의 공동 연구, 인공지능이 인간의 존엄성 및 기본권을 존중하는 방향으로 개발되도록 하는 기술 또는 기준의 연구개발 등을 명시하고 있다.1 이는 단순히 기술 개발뿐만 아니라 안전하고 신뢰할 수 있는 AI 개발을 위한 연구에도 정부 지원이 집중될 것임을 보여준다.


  • 학습용 데이터 구축 및 활용 촉진: 법 제15조 및 시행령 제12조는 학습용 데이터의 생산·수집·관리·유통 및 활용을 촉진하기 위한 지원 사업의 근거를 마련하고 있다.1 특히 과기정통부 장관이 AI 집적 단지 및 실증 기반 조성: 법 제23조와 제24조는 AI 관련 기업, 기관, 단체의 기능적, 물리적, 지역적 집적화를 위한 AI집적단지와 AI 기술의 검증 및 실증을 위한 실증기반을 구축·개방하도록 규정하고 있다.1 이는 AI 기술의 실용화 및 사업화를 가속화하는 데 기여할 것이다.

    통합제공시스템을 구축·운영하여 다양한 학습용 데이터를 민간이 자유롭게 이용할 수 있도록 제공하게 된다.1 이는 데이터 수집 및 가공에 막대한 비용을 투입하기 어려운 중소기업과 스타트업의 진입 장벽을 대폭 낮추고, 전체 AI 생태계의 성장을 촉진하는 중요한 요소가 될 것이다.


B. 전략적 기회


정부가 추진하는 이러한 진흥 정책들은 직접적인 투자 및 성장 기회를 제공한다.


  • 정부 지원금 및 연구비 활용: 정부는 26년도안전·신뢰 검·인증 및 AI 영향평가 관련 지원 예산으로 20.3억원을 확보하는 등 구체적인 지원 계획을 마련하고 있다.1 이러한 예산을 활용하여 법적 의무 준수와 관련된 기술 개발 및 내부 프로세스 구축에 필요한 재정적 부담을 경감할 수 있다.


  • 공공 인프라의 전략적 활용: 학습용 데이터 통합제공시스템의 구축은 막대한 데이터 구축 비용을 절감하는 효과를 가져올 수 있다. 우리 R&D팀은 이 시스템에서 제공되는 데이터의 종류와 품질을 선제적으로 파악하고, 이를 우리의 연구 및 모델 학습에 효율적으로 통합하는 방안을 강구해야 한다. 이는 우리의 핵심 역량인 알고리즘 개발에 더 많은 자원을 집중할 수 있게 해 줄 것이다.


  • AI 생태계 참여: AI 집적 단지 및 실증 기반 조성 계획에 맞춰 정부 및 다른 AI 기업들과의 파트너십을 모색해야 한다. 이는 새로운 비즈니스 기회를 창출하고 기술 검증을 가속화하는 데 도움이 될 것이다.


지원 이니셔티브
법적 근거 (시행령 조문)
세부 내용 및 특징
실행 계획
AI R&D 및 기술 지원
제11조

AI R&D, 기술 표준화, 안전 기술 개발 등 지원 1

정부 지원금 확보를 위한 R&D 로드맵 구체화 및 사업 계획서 마련
학습용 데이터 구축
제12, 13, 14조

학습용 데이터 생산·가공·유통 및 통합제공시스템 구축·운영 1

통합제공시스템 데이터 품질 분석 및 내부 R&D 활용 방안 수립
AI 기술 도입·활용 지원
제15조

기업의 AI 기술 도입 컨설팅, 교육, 자금 등 지원 1

중소기업 특별 지원 등 정부 지원 프로그램에 대한 정보 지속적 모니터링
AI 집적 단지 및 실증 기반
제17, 18, 19조

기능적·물리적 집적화 및 실증을 위한 인프라 구축·개방 1

신규 인프라에 대한 정보 파악 및 협력·참여 가능성 검토


IV. AI 안전 및 신뢰 확보 의무에 대한 심층 분석



A. 고영향 AI(고영향AI) 프레임워크


하위법령은 고영향 AI생명·신체기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템으로 정의하며, 특정 영역(에너지, 보건의료, 원자력, 교통, 교육 등)에서 활용되는 시스템에 책무를 부과한다.1 이는 기술 자체의 위험성보다는 해당 AI 시스템이 활용되는 애플리케이션의 위험성에 기반하여 규제가 발동된다는 중요한 의미를 갖는다.


따라서 우리의 R&D팀은 제품을 개발할 때 해당 기술이 어떤 분야에서 활용될 수 있는지, 그리고 그 활용이 사람의 생명이나 기본권에 어떤 영향을 미칠 수 있는지에 대한 포괄적인 관점에서 위험을 평가해야 한다. 이는 단순히 기술적 성능을 최적화하는 것을 넘어, 제품의 사회적 영향을 처음부터 고려하는 근본적인 R&D 접근 방식의 변화를 요구한다. 시행령은 고영향 AI 사업자가 위험관리방안, 이용자 보호방안, 사람의 관리·감독 등 다양한 조치를 이행하도록 명시하고 있다.1


B. 고성능 AI의 투명성 및 안전성 확보 의무


  • 투명성 의무 (시행령 제22조): 하위법령은 생성형 AI 또는 고영향 AI를 이용한 제품에 대해 이용자에게 사전고지하고, 결과물에 표시(워터마크)를 해야 한다고 규정한다.1 특히, 가이드라인을 통해 비가시적 워터마크(C2PA 등)의 사용이 허용되며, 딥페이크 결과물에 대해서는 이용자의 연령 및 신체적 조건을 고려한 고지 방식이 요구된다.1 이는 기술적으로 최종 결과물에 식별 가능하도록 워터마킹을 삽입하는 기술적 솔루션을 내부적으로 개발하거나 도입해야 함을 의미한다. 사업자 내부 업무용이거나 기반이 명백한 경우 의무가 면제되는 등 예외 조항도 마련되어 있다.1


  • 안전성 의무 (시행령 제23조): 이 의무는 누적 학습량이 일정 수준 이상인 고성능 AI에 적용된다.1  


  • 과태료 계도기간 운영: 법 시행 초기 기업의 혼란을 최소화하고 준비 시간을 확보하기 위해 과태료에 대한 계도기간이 운영될 예정이다.1

    1026 부동소수점 연산 이상이며, 사람의 생명, 신체 안전, 기본권에 중대한 영향을 미칠 수 있는 시스템으로 한정된다.1 이는 법안이 AI의 기술적 스케일을 직접적인 규제 대상으로 삼고 있음을 보여준다.


  • 이러한 수치적 기준은 R&D팀에게 명확하면서도 중대한 전략적 과제를 부여한다. 우리는 모든 AI 모델의 누적 학습량을 정량적으로 추적하는 시스템을 구축해야 한다. 또한, 특정 모델의 성능을 향상시키기 위해 1026 FLOPs 기준을 초과할 필요가 있는지에 대한 전략적 판단을 내려야 한다. 만약 기준을 초과할 경우, 위험 식별, 평가, 완화 등 시행령에서 요구하는 구체적인 안전성 확보 조치를 취해야 한다.1

  • C. AI 영향평가(AI영향평가)


    시행령 제27조는 고영향 AI 사업자가 사람의 기본권에 미치는 영향을 평가(AI 영향평가)하기 위해 노력하여야 한다고 규정하고 있다. 이는 법적 의무는 아니지만, 법적으로 중요한 의미를 갖는다. 

    노력 의무는 법적 분쟁 발생 시 그 의무를 다했는지 여부에 따라 사업자의 과실을 판단하는 근거가 될 수 있다.

    따라서 AXINOVA는 모든 고영향 AI 제품에 대해 영향평가를 의무에 준하여 수행해야 한다. 평가 시에는 영향을 받을 수 있는 대상, 관련 기본권 유형, 사회적·경제적 영향의 내용 및 범위 등을 포함하여 구체적인 평가를 수행해야 한다. 이 평가는 내부적으로 수행하거나 제3자에게 위탁할 수도 있다.   

    D. 법규 집행 및 준수


    과태료 계도기간 운영: 법 시행 초기 기업의 혼란을 최소화하고 준비 시간을 확보하기 위해 과태료에 대한 계도기간이 운영될 예정이다. 이는 사실상 규제 유예와 동일한 효과를 갖는다고 명시되어 있다. 하지만 이는 준수를 미룰 이유가 아니라, 벌금 부과 없이 내부 시스템을 구축하고 행정지도를 받는 등 실질적인 준비를 할 수 있는 기회로 활용해야 한다.

    국내 대리인 지정: 국내에 주소 또는 영업소가 없는 해외 AI 사업자라도 연간 매출액이 1조원 이상이거나 국내 이용자 수가 100만명 이상인 경우 국내 대리인을 지정해야 한다. 이는 해외 기업의 법적 책임 소재를 명확히 하고 국내 이용자를 보호하기 위함이다.

  •  

의무 사항
법적 근거 (시행령 조문)
의무 발생 조건
핵심 요구사항
투명성 확보
제22조
생성형 AI 또는 고영향 AI 이용

사전고지 및 결과물 워터마크 표시 (비가시적 워터마크 인정) 1

안전성 확보
제23조
누적 학습량 1026 부동소수점 연산 이상

위험 식별, 평가, 완화 조치 이행 1

고영향 AI 사업자 책무
제26조
고영향 AI를 이용한 제품·서비스 제공

위험 관리, 이용자 보호, 인간 감독 등 1

AI 영향평가
제27조
고영향 AI 이용

기본권 영향 평가(노력의무) 1

국내대리인 지정
제28조
해외 AI 사업자 대상 (매출액 1조원 또는 이용자 수 100만명 이상)

국내 대리인 지정 및 신고 1


V. 전략적 제언 및 로드맵



A. 규제 준수 및 위험 완화 로드맵


  1. 기술적 준수: 모든 AI 모델에 대한 누적 연산량을 측정하고 관리하는 전담 팀을 구성해야 한다. 특히, 1026 FLOPs 기준에 근접하는 모델에 대해서는 기술적 준수와 관련된 위험평가 및 완화 조치 로드맵을 선제적으로 수립해야 한다. 또한, 모든 생성형 AI 제품에 대해 비가시적 워터마킹을 포함하는 자동화된 투명성 확보 시스템을 구축해야 한다.


  2. 운영 및 법적 준수: 고영향 AI로 분류될 수 있는 모든 제품에 대해 법무팀과 협력하여 공식적인 AI 영향평가 프로세스를 수립해야 한다. 이 평가 과정은 기록으로 남겨두고 노력의무를 명확히 이행해야 한다. 해외 사업자의 경우, 국내 대리인 지정 기준을 충족하는지 여부를 확인하고, 해당될 경우 법 시행 전에 지정 절차를 완료해야 한다.


B. 진흥 정책 활용을 통한 경쟁 우위 확보


  1. 정부 지원 프로그램 활용: 정부가 마련한 AI R&D안전·신뢰 검·인증 관련 지원 사업에 대한 정보 수집을 전담하는 팀을 지정해야 한다.1 

    특히, 안전·신뢰 검·인증 및 AI 영향평가 관련 지원 예산으로 확보된 20.3억원을 적극 활용하여 우리의 규제 준수 시스템 개발 및 검증 비용을 충당하는 방안을 모색해야 한다.1


  2. 입법 과정 참여: 9월에 예정된 의견 수렴에 참여하여 우리의 기술적 현실과 제언을 개진해야 한다.1 이는 최종 법안이 우리 기업의 기술 혁신을 저해하지 않고 합리적인 방향으로 정립되는 데 기여할 수 있다.


단계
중점 사항
핵심 실행 과제
1단계 (2024년 4분기)
규제 영향력 평가 및 초기 준비

AI 거버넌스 TF 구성. 모든 AI 모델에 대한 기술적 감사(FLOPs 및 고영향 기준) 착수. 9월 의견 수렴 참여.1

2단계 (2025년)
준수 시스템 구축 및 전략적 계획 수립

고영향 AI 제품에 대한 영향평가 프로세스 정립. 투명성 확보를 위한 워터마킹 기술 도입. 정부 R&D 및 지원 프로그램 활용 계획 수립.1

3단계 (2026년 이후)
완전한 준수 및 경쟁력 강화
과태료 계도기간 종료 전 모든 의무 이행. 정부 지원 프로그램 및 인프라를 활용하여 지속적인 혁신과 경쟁력 강화.


C. 결론: AI 혁신을 위한 미래 지향적 관점


한국의 AI기본법 하위법령은 단순히 규제를 강제하는 것을 넘어, AI 생태계의 건전한 성장을 위한 기반을 마련하겠다는 국가적 의지를 보여준다. 이 법안은 기업들에게 규제 준수라는 새로운 도전을 제시하지만, 동시에 정부의 강력한 지원을 활용하여 기술적 우위를 점하고 시장을 선도할 수 있는 전례 없는 기회를 제공한다.


이러한 법안의 이중적 성격을 정확히 이해하고, 규제 준수를 위한 선제적이고 기술적인 투자와 함께 정부 지원 프로그램을 적극적으로 활용하는 투트랙 전략을 통해 한국 AI 시장에서 지속적인 리더십을 확보할 수 있을 것이다. 이를 위해 지금부터 체계적인 로드맵을 수립하고 실행에 옮기는 것이 가장 중요한 과제다.


[참고문헌]=1. 과 학 기 술 정 보 통 신 부, "AI기본법 하위법령 제정방향"(2025. 09. 08

0
유니세프
국민신문고고
모바일 버전 바로가기