[자막뉴스] "제가 하지 않은 말인데요"...기자도 깜짝 놀란 영상 / YTN

YTN news 2024-04-03

Views 47

인공지능 기술을 활용한 가짜 영상, 이른바 딥페이크 범죄가 기승을 부리고 있습니다.

일반인도 쉽게 만들 수 있을 정도로 기술이 발전해 우려가 커지자 수사기관이 가짜 영상 탐지 프로그램을 개발하는 등 대응에 나섰습니다.

윤태인 기자의 보도입니다.

[기자]
유명 영화배우 2명이 나와 자기소개와 함께 자선 사업 후원을 제안합니다.

교수님의 5회의 QF 투자가 순조롭게 진행되기를 희망하며 QF 수강생들이 자선을 위해 힘을 보태어주심에 감사드립니다.

그럴듯해 보이지만 자세히 보면, 음성과 입 모양이 잘 맞지 않고, 시선 처리도 어색합니다.

일반인을 속여 돈을 가로채기 위한 이른바 '딥페이크', 가짜 영상입니다.

기술이 급속도로 발전하면서 마치 실제 말하는 것 같은 합성 영상은 불과 클릭 몇 번이면 그럴듯하게 만들 수 있습니다.

취재기자도 직접 인공지능 프로그램에 데이터를 학습시켜 가짜 영상을 만들어 봤습니다.

제가 취재했던 2분 정도 길이 리포트 기사 3개를 연달아 읽어 녹음하고 시스템에 입력했는데요,

제가 직접 하지 않은 말이지만, 제가 한 것과 똑같은 목소리가 나옵니다.

이처럼 손쉽게 만들 수 있다 보니 유명인들을 내세운 가짜 영상도 점차 많아지고 있습니다.

[존 리 / 전 메리츠자산운용 대표 : 당신을 모르는 사람이 보면 속으면 큰일나겠다 그런 얘기를 하죠. 유명하면 무조건 복제를 하는 거죠. 그러니까 이 사람이 금융 전문가가 아니어도 상관도 안 해요. 그러니까 만 개 보내서 10개만 걸려도 돈을 벌잖아요.]

주로 온라인 플랫폼에 올라오는데, 문제는 유명인 허락도 안 받은 허위 영상이어도 걸러낼 방법이 없습니다.

얼굴을 도용당하거나 심지어 사기꾼 아니냐고 매도를 당해도 유명인 자신에게 금전적 피해가 없다면 수사를 의뢰하기도 쉽지 않습니다.

심지어 유명인이 투자를 권유하는 것처럼 속이는 피싱 범죄로 이어지더라도 누가 만들어 올렸는지 특정하는 데만 오랜 시간이 걸리기 일쑤입니다.

[한상준 / 변호사 : 이걸 처벌을 할 수 있다고 해도 누가 올렸다는 피의자 특정이 돼야 되잖아요. 그런데 현실적으로 피의자 특정하기가 어렵고 특정하는 데도 시간이 굉장히 오래 걸려요. 그래서 사실 차선책이라는 게 없어요.]

우려가 커지자 경찰도 대응 마련에 나섰습니다.

가짜 영상을 탐지하는 소프트웨어를 직접 개발... (중략)

▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202404031514131107
▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, [email protected], #2424

▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs

[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]

Share This Video


Download

  
Report form