[앵커]

최근 AI를 활용한 가짜영상, 딥페이크 범죄가 크게 급증하고 있는데요.

기술이 고도화되면서 진짜인지 아닌지 구분하기 어려운 수준입니다.

정부가 딥페이크를 잡아내는 AI 모델을 개발했는데 정확도가 90% 수준에 달한다고 합니다.

김태욱 기자입니다.

[기자]

수년 전, 딥페이크 초창기 영상입니다.

합성이라는 걸 바로 확인할 수 있을 정도로 앵커의 얼굴이 부자연스럽습니다

하지만 최근 영상은 다릅니다.

<딥페이크 영상 내> "아이고 힘들어 죽겠네."

절벽을 기어오르는 남성부터 벽에 기댄 여성까지, 가짜와 진짜를 판단하기 어려운 수준까지 왔습니다.

<박남인 / 국립과학수사연구원 디지털과 연구관> "몇 번이 진짜 같으세요? (2번?) 2번. 다 가짜입니다. 이거 지금 다 가짜입니다."

딥페이크 기술이 각종 성범죄를 비롯해 선거철 가짜영상, 그리고 전화 사기 등에 악용되면서 사회 혼란은 가중되고 있습니다.

실제로 딥페이크 성범죄 영상물 시정요구 건수는 4백여 건에서 지난해 2만 3천여 건으로 4년 만에 50배 가까이 늘었습니다.

행정안전부와 국립과학수사연구원이 딥페이크 범죄 대응을 위해 딥페이크 불법 콘텐츠 탐지 분석 모델을 개발했습니다.

영상 데이터 69만 건, 음성 데이터 162만 건을 토대로 최신 딥러닝 기술을 적용했는데, 영상이나 사진, 음성 파일을 올린 뒤 분석하면 금방 가짜 여부와 확률까지 값을 도출해냅니다.

<딥페이크 음성> "엄마. 나인데, 지금 조금 급한 일이 생겨서 혹시 천만 원 바로 보내줄 수 있어요?"

전혀 어색하지 않은 이 목소리까지 가짜임을 밝혀내는데, 정확도는 90% 수준에 이르고 있습니다.

<변준석 / 국립과학수사연구소 디지털과장> "확률이 영상 같은 경우엔 94.98% 정도의 확률로 탐지 모델이 성능을 보였고요 음성같은 경우는 86.20%인데..."

딥페이크 탐지 모델은 실제 이번 대선 기간에 투입돼 가짜 영상을 가려내는데 맹활약했습니다.

<배일권 / 행정안전부 공공지능데이터국장> "인터넷 등에 유포된 불법 딥페이크 선거물 1만여 건을 탐지하고 삭제하는 성과를 거두었습니다."

행안부는 딥페이크 관련 업무가 필요한 유관기관에 개발한 모델을 공유할 계획입니다.

연합뉴스TV 김태욱입니다.

[영상취재 이덕훈]

[영상편집 강내윤]

[그래픽 김세연]

#딥페이크 #AI

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

김태욱(tw@yna.co.kr)

당신이 담은 순간이 뉴스입니다!

ⓒ연합뉴스TV, 무단 전재-재배포, AI 학습 및 활용 금지

  • 좋아요

    0
  • 응원해요

    0
  • 후속 원해요

    0

ADVERTISEMENT