인포그래픽=이노바저널 AI 생성♦ 미국 상원에서 고위험 인공지능 모델에 대해 학습데이터 범주 및 알고리즘 공개를 의무화하는 수정안이 공개됐다. 기업 비밀 유지와 기술 혁신 보호를 위한 영업기밀 예외 조항도 포함돼 있으며, 향후 입법 논의의 핵심 축으로 떠올랐다.
미국 상원은 최근 “고위험 AI 모델(Foundation/large-scale models)”을 대상으로 한 투명성 규제안의 수정안(Amendment Draft)을 공개했다. 수정안은 모델이 사용한 학습데이터의 범주(예: 이미지 / 텍스트 / 음성), 모델 설계 원리 및 알고리즘 주요 구성 요소에 대한 공개를 기업에 요구하는 내용을 담고 있다.
다만 기업의 영업기밀 보호를 위해 원본 데이터 공개는 제외하며, 공개 범위와 방식에 대해서는 규제 당국이 별도 가이드라인을 마련하도록 했다.
이 규제안은 지난 수년간 논의돼온 입법안인 AI Transparency in Elections Act of 2024 등이 다루지 못했던 ‘모델 내부 구조’까지 확대하는 방향으로 평가된다.( Congress.gov+1)
산업계는 “공개 범위가 지나치면 기술 유출과 경쟁력 약화가 우려된다”며 신중한 대응을 요청했다.
이번 상원 수정안은 AI 기업의 ‘블랙박스’ 형태 작업을 본격적으로 해체하는 계기가 될 수 있다.
특히 학습데이터 범주와 알고리즘 주요 부분의 공개요구는 연구·감시기관이 내부 작동을 이해하고 리스크를 분석하는 데 큰 도움을 준다. 반면, 기술 유출과 혁신 둔화라는 리스크도 존재하므로 공개 범위 조율, 규제 불확실성 제거, 국제 조화 등이 향후 관건이다.
또한 글로벌 규제 흐름과 정합성을 맞추기 위해 미국 내 기업뿐 아니라 해외진출 기업에도 영향을 줄 수 있다. 후속 입법 시점과 제재 수준이 시장의 투자-전략에 변화를 불러올 전망이다.[보도출처: 미국 Politico 및 관련 입법문서]
#정책 #윤리 #AI투명성 #미국상원 #AI규제 #고위험모델