
인공지능(AI) 기술의 급격한 발전에 따라 개인정보보호위원회가 민간 전문가와 정부 관계자들이 한자리에 모여 ‘신뢰’를 기반으로 한 안전장치 구축 방안을 모색했다.
8일 서울 서초구 ‘서울 AI 허브’에서 열린 제4차 인공지능 프라이버시 민·관 정책협의회 전체회의에서는 AI 프라이버시 리스크 진단과 인증 방안, 생성형 AI 개인정보 처리 가이드라인 초안 등이 주요 안건으로 논의됐다.
김병필 카이스트 교수는 프라이버시 리스크 진단과 인증을 위한 구체적인 프레임워크 구축 방안을 제시하고, 최신 기술과 국내외 우수 사례를 비교해 산업계와 학계의 다양한 관점을 공유했다. 개인정보위는 향후 이를 바탕으로 국내 AI 환경에 적합한 리스크 진단·평가 체계를 마련할 계획이다.
또한 최근 생성형 AI의 빠른 확산에 대응해 개인정보 처리의 적법성과 안전성을 확보할 수 있는 가이드라인도 함께 다뤄졌다. 가이드라인 초안에는 생성형 AI의 개발부터 활용에 이르기까지 각 단계에서 개인정보 보호 원칙을 어떻게 적용할지에 대한 기준과 실무 적용 방안이 담겼다. 미국, 영국, 유럽연합(EU) 등 주요국의 정책자료를 참고해 국제적 흐름도 반영됐다.
고학수 개인정보보호위원회 위원장은 “안전한 가드레일은 신뢰할 수 있는 인공지능 발전의 전제 조건”이라며 “공공과 민간이 함께 안전하고 책임감 있는 데이터 활용 환경을 마련해 인공지능 혁신과 프라이버시 보호가 조화를 이루도록 노력하겠다”고 밝혔다.
이번 회의 논의 내용을 반영한 최종 가이드라인은 오는 7월 말 공개될 예정이다.