기사 메일전송
연구 보고서 | 인공지능(AI) 딥페이크 기술의 위협과 대응 전략 연구
  • 최득진 박사
  • 등록 2025-07-29 10:38:21
기사수정

인공지능(AI) 딥페이크 기술의 위협과 대응 전략 연구

(Analysis of AI Deepfake Threats and Response Strategies: Global and South Korean Contexts)

 

작성자=AXINOVA R&D 원장 최득진 국제법학 박사

사회분석 전문가 | 심리상담 전문가 | 교육사회 전문가 | 평생교육사(예비) |Chat GPT AI 지도사 1급


[초록]

이 연구 보고서는 인공지능(AI)을 활용한 딥페이크(deepfake) 기술이 전 세계적으로, 특히 한국에서 초래하는 보안·사회·법적·윤리적 문제를 종합적으로 분석하고 해결 방안을 제시한다. 글로벌 관점에서 딥페이크 제작은 점차 용이해지고 있으며, 한국에서는 디지털 성범죄, 학생 대상 범죄, 잠재적 기업·정치 부문 피해 등이 급증하고 있다. 예컨대 2023년 한국의 디지털 성범죄 피해자 지원 건수는 10,305건으로 전년 대비 14.7% 증가했다. 이러한 위협에 대응하기 위해 법·제도 정비, AI 기반 탐지 시스템 강화, 디지털 리터러시 교육 확대 등이 시급하다.


[Abstract]

This research report offers a comprehensive analysis of the security, social, legal, and ethical challenges posed by deepfake technology powered by artificial intelligence (AI) on a global scale, with a particular focus on South Korea. As deepfake creation becomes increasingly accessible worldwide, Korea has witnessed a sharp rise in digitally-facilitated sex crimes, student-targeted offenses, and potential harms within corporate and political spheres. For example, in 2023 the number of support cases for victims of digital sex crimes in Korea reached 10,305—a 14.7% increase over the previous year. To counter these threats, urgent measures are needed, including legislative and regulatory reform, the enhancement of AI-based detection systems, and the expansion of digital literacy education.


1. 서론


AI 기술 진보로 현실적 딥페이크 제작이 용이해졌다. Adaptive Security의 브라이언 롱 CEO는 “노트북과 오픈소스 AI 모델만 있으면 누구나 설득력 있는 딥페이크를 만들 수 있다”고 강조했다. 이로 인해 향후 구직 신청의 4분의 1이 허위일 가능성이 있다고 경고한다.


ABC News에 따르면, 최근 딥페이크 기술 발전으로 미국 고위 관료 사칭 사례가 잇따르며 정부·기업·개인을 대상으로 한 보안 위협이 심화되고 있다. 딥페이크는 신뢰(trust)를 해킹하는 새로운 공격 수단으로 부상하였으며, 기업 비밀 탈취나 대규모 금융 사기에 악용될 가능성이 커졌다.  한국에서도 AI 딥페이크를 이용한 디지털 성범죄가 학교 내·외에서 빈발해 사회적 불안이 고조되고 있으며, 기업·공공 부문으로의 악용 가능성은 여전히 잠재적 위협으로 남아 있다. 


2. 연구 배경 및 문제 제기


2-1. 디지털 성범죄의 확산


한국에서는 딥페이크를 활용한 성범죄가 크게 증가하고 있다. 2022년 한 고교생이 동료 학생 및 지인의 얼굴을 딥페이크로 합성해 음란물을 제작·판매한 사건이 대표적이며, 피해자 규모는 110여 명에 달했다.  2024년 상반기에는 1,100여 개의 딥페이크 음란물을 제작·유통한 혐의로 1,000명에 가까운 가해자가 적발되기도 했다. 


2-2. 학교 현장의 안전 위협


딥페이크 물량의 무분별한 사용은 학생 간 괴롭힘·사생활 침해 등 2차 피해를 유발한다. 실제로 모 고등학교에서는 피해 학생이 ‘따돌림’으로 오해를 받아 전학을 고려하는 사례가 보고되었다. 


2-3. 기업·정치 영역의 잠재적 위험


국제적으로 북한 해커 조직 등은 가짜 영상·음성을 이용해 CEO를 사칭, 내부 시스템 접근 및 기업 기밀 탈취를 시도하고 있다.  한국 기업 역시 AI 기반 스피어 피싱 공격의 표적이 될 수 있어, 탐지 기술 및 대응 역량 확보가 필수적이다.


근래 미국에서는, AI 생성된 딥페이크로 마르코 루비오 장관과 트럼프 보좌관을 사칭한 사건이 발생했다. 또한, 바이든 대통령의 목소리를 위조한 로보콜 사건 등으로 정치·사회적 혼란이 초래된 사례가 있다. 


3. 현행 법제도 분석


3-1. 처벌 대상 확대


한국 정부는 딥페이크 음란물의 제작뿐 아니라 ‘소지·시청 행위’까지 처벌하는 법안을 마련했다. 2024년 국무회의에서 ‘딥페이크 음란물 소지·시청 금지법’ 개정안이 의결됐으며, 최대 3년 이하의 징역 또는 3,000만 원 이하 벌금이 부과된다. 


3-2. 형량 강화


제작·유포자는 최대 7년 이하 징역 또는 7,000만 원 이하 벌금으로 처벌 수위가 강화되었다. 뿐만 아니라, ‘음란물 유통 플랫폼’에 대한 관리·감독 의무도 법제화 논의가 진행 중이다. 


4. 기술적 대응 현황


4-1. 경찰 주도의 탐지 시스템


경찰청은 62억 원(한화 9.1억 원 규모)을 투자해 딥페이크 탐지 시스템을 구축 중이다. 이 시스템은 영상 업로드 후 5~10분 내 진위 여부를 판별하고 보고서를 자동 생성한다. 


4-2. AI 기반 음성·영상 분석


글로벌 기업 Pindrop Security의 솔루션은 음성 클로닝의 미세 불규칙성을 포착해 실시간 탐지가 가능하다. 한국의 기관·기업은 이와 유사한 AI 기술을 도입하거나 자체 연구개발을 강화해야 한다. 


5. 교육 및 인식 제고 방안


5-1. 청소년 대상 디지털 리터러시 강화


정부 및 교육청 차원의 디지털 성범죄 예방 교육이 미흡하다는 지적이 나온다. 특히 10대 학생들을 대상으로 한 딥페이크 위험성 교육과 대응 훈련을 강화해야 한다.


5-2. AI 교육과정 내 딥페이크 모듈 포함


2025년부터 도입 예정인 AI 디지털 교과서 도입 계획은 높은 관심을 모았지만, 부모·학계의 반발로 시행이 지연되고 있다. 이에 딥페이크 탐지 및 비판적 사고력 함양을 위한 교과서 모듈 개발이 필요하다. 


6. 정책 제언 및 해결 방안


  1. 6-1. 플랫폼 사업자 책임 강화


  2. 모든 온라인 플랫폼에 딥페이크 식별·라벨링·삭제 의무를 부여하고, 위반 시 과태료 부과 제도 도입이 필요하다.


  3. 6-2. 디지털 리터러시 예산 확대


  4. 전국 초·중·고 교육기관에 딥페이크 탐지 교육 프로그램을 보급하고, 국가 예산을 확보해야 한다.


  5. 6-3. AI 탐지 기술 국산화 지원


  6. 중소·벤처 AI 기업의 딥페이크 탐지 솔루션 개발을 위한 R&D 지원금 확대 및 연구 인프라 제공이 필요하다. 


  7. 6-4. 범부처 협업 체계 구축


  8. 과학기술정보통신부, 교육부, 경찰청, 방송통신위원회 등이 참여하는 ‘국가 디지털 신뢰 위원회’를 신설해 법·기술·교육 전 분야를 종합 관리·감독해야 한다.


7. 결론


전문가들은 딥페이크의 위협을 심각하게 평가하면서도 AI 기반 탐지 기술의 발전을 통해 충분히 대응할 수 있을 것으로 낙관하고 있다. 전직 CIA 부국장 제니퍼 유뱅크(Jennifer Ewbank)는 특히 금융 분야의 취약성을 강조하며, 이에 대한 지속적 경계와 대비를 당부했다.


한편 딥페이크 탐지 기술이 발전하고 있으나, 국가 안보 위협, 외국 세력의 선전 활동, 기업 스파이 행위 등 해결해야 할 과제는 여전히 많다. 실제로 북한 IT 노동자들이 AI로 신분을 위조해 주요 기업의 기밀 정보를 탈취한 사례도 보고된 바 있다.


딥페이크 문제는 장기적으로 이메일 스팸과 같이 관리될 가능성도 있지만, 이를 위해 AI 기반 탐지 기술의 표준화와 관련 규제 강화, 디지털 리터러시 교육 확대가 필수적이다. 만약 이러한 대응이 제대로 이루어지지 않는다면 디지털 사회 전반의 신뢰 기반이 무너질 위험이 있다.


종합적으로 딥페이크 기술의 발전은 글로벌 사회와 한국 사회 모두에 심각한 위협이 되고 있다. 따라서 AI로 초래된 문제에 효과적으로 대응하기 위해서는 법적, 기술적, 교육적 전략을 유기적으로 결합한 다차원적 접근이 필수적이다. 특히 한국의 사례는 딥페이크 기술 악용이 가져오는 피해의 심각성을 명확히 드러내며, 국제적 협력과 지속적인 AI 탐지 기술 개발이 필수적임을 시사한다. 향후 연구는 딥페이크 탐지 기술의 정확성을 높이고, 국가 간의 협력을 강화하는 방향으로 이루어져야 할 것이다.


이처럼 인공지능 기반의 딥페이크 기술은 전 세계적 차원에서 보안과 사회적 신뢰를 위협하는 중대한 문제로 떠오르고 있다. 한국은 특히 디지털 성범죄, 학교 현장의 안전 위협, 기업 및 공공 부문의 잠재적 피해 등 여러 측면에서 복합적인 도전에 직면해 있다. 따라서 법과 제도, 기술적 솔루션, 교육, 정책을 통합적으로 아우르는 '4축 대응 전략'이 실현될 때 비로소 신뢰할 수 있는 디지털 사회 구현이 가능할 것이다.


인포그래픽=AI로 생성한 것임


[참고문헌]

  1. Klepper, D. (2025, 7월 28). Creating realistic deepfakes is getting easier. Fighting back may take even more AI [뉴스 기사]. ABC News.
    https://abcnews.go.com/Technology/wireStory/creating-realistic-deepfakes-easier-fighting-back-ai-124130148

  2. 여성가족부. (2023, 3월 24). 제3차 양성평등정책 기본계획(2023~2027).
    https://www.mogef.go.kr/mp/pcd/mp_pcd_s001d.do?bbtSn=704946&mid=plc500

  3. 경찰청. (2025). 딥페이크 탐지 시스템 구축 현황 [보도자료]. 경찰청.

  4. 법무부·과학기술정보통신부. (2024). 딥페이크 음란물 소지·시청 금지법 개정안 [법안 보고서].

  5. Pindrop Security. (2025). Deepfake Detection Solutions.
    https://www.pindrop.com

  6. 교육부. (2025). 디지털 리터러시 교육 강화 방안 [보도자료]. 교육부

0
유니세프
국민신문고고
모바일 버전 바로가기