광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

인텔, 실시간 딥페이크 탐지기 공개, 정확도 96% 주장

박영숙세계미래보고서저자 | 기사입력 2022/11/20 [17:30]

인텔, 실시간 딥페이크 탐지기 공개, 정확도 96% 주장

박영숙세계미래보고서저자 | 입력 : 2022/11/20 [17:30]

인텔, 실시간 딥페이크 탐지기 공개, 정확도 96% 주장

 
월요일에 인텔은 Deepfake의 최초 실시간 탐지기인 FakeCatcher를 소개했다. 즉, 기존 이미지나 비디오에 있는 사람이 다른 사람의 모습으로 대체되는 합성 미디어이다. 

Intel은 이 제품의 정확도가 96%이며 비디오 픽셀의 미묘한 "혈류"를 분석하여 밀리초 단위로 결과를 반환한다고 주장한다.

 

Intel Labs의 수석 연구원인 Ilke Demir는 뉴욕주립대학교 Binghamton의 Umur Ciftci와 협력하여 FakeCatcher를 설계했다. 이 제품은 Intel 하드웨어 및 소프트웨어를 사용하고 웹 기반 플랫폼을 통해 서버 및 인터페이스에서 실행된다. 

Intel의 딥페이크 감지기는 PPG 신호를 기반으로 한다.

허위를 정확히 찾아내기 위해 원시 데이터를 보는 대부분의 딥 러닝 기반 딥페이크 탐지기와 달리 FakeCatcher는 실제 비디오 내의 단서에 초점을 맞춘다. 그것은 살아있는 조직의 혈관에 의해 흡수되거나 반사되는 빛의 양을 측정하는 방법 인 광용적맥류측정법(PPG)을 기반으로 한다. 심장이 혈액을 펌프질하면 색이 변하는 정맥으로 이동한다. 

Demir는 VentureBeat에 "눈으로 볼 수는 없지만 컴퓨터로 볼 수 있다."라고 말했다. "PPG 신호는 알려져 있지만 딥페이크 문제에 적용한 적은 없다." 
 

FakeCatcher를 사용하면 얼굴의 32개 위치에서 PPG 신호를 수집한 다음 시간 및 스펙트럼 구성 요소에서 PPG 맵을 생성한다고 그녀는 설명했다. 

Demir는 "우리는 해당 지도를 가져와 PPG 지도 위에 컨볼루션 신경망을 훈련시켜 가짜와 실제로 분류합니다."라고 말했다. "그러면 추론을 위한 [the] Deep Learning Boost 프레임워크 및 Advanced Vector Extensions 512와 같은 인텔 기술 덕분에 실시간으로 최대 72개의 동시 감지 스트림을 실행할 수 있다." 

증가하는 위협에 직면하여 점점 더 중요해지는 탐지

Microsoft의 최고 과학 책임자인 Eric Horvitz의 최근 연구논문에 따르면 딥페이크 위협이 등장함에 따라 딥페이크 탐지가 점점 더 중요해지고 있다. 여기에는 실제 사람과 대화하는 듯한 착각을 불러일으키는 대화형 딥페이크와 나쁜 배우가 "합성 역사"를 편집하기 위해 많은 딥페이크를 만드는 합성 딥페이크가 포함된다. 

그리고 2020년 에 Forrester Research는 딥페이크 사기와 관련된 비용이 2억 5천만 달러를 초과할 것이라고 예측했다. 가장 최근에는 유명인 딥페이크에 대한 뉴스가 확산되었다.  Tom Cruise, Elon Musk 및 Leonardo DiCaprio 딥 페이크가 광고에서 승인되지 않은 것처럼 보이는 월스트리트 저널 보도와 Bruce Willis가 자신의 딥 페이크 유사성에 대한 권리를 포기했다는 소문이 있다. 그것은 사실이 아니다. 
반면에 딥페이크에 대한 책임 있고 승인된 사용사례가 많이 있다. Hour One 및 Synthesia와 같은 회사는 예를 들어 직원 교육, 교육 및 전자 상거래와 같은 엔터프라이즈 비즈니스 설정을 위해 딥페이크를 제공하고 있다. 또는 가상 쌍둥이에게 "아웃소싱"하기 위해 합성 미디어를 활용하려는 유명인 및 회사 리더와 같은 사용자가 딥페이크를 만들 수 있다. 이러한 경우 합성 미디어의 완전한 투명성과 출처를 제공하는 방법이 나타날 것이라는 희망이 있다. 

Demir는 Intel이 연구를 수행하고 있지만 아직 시작 단계에 불과하다고 말했다. “FakeCatcher는 트러스티드 미디어(Trusted Media)라는 인텔의 더 큰 연구팀의 일원으로 조작된 콘텐츠 탐지(딥페이크)와 책임 있는 세대 및 미디어 출처를 연구하고 있다.”라고 그녀는 말했다. "단기적으로 감지는 실제로 딥페이크에 대한 해결책이다. 우리는 시선 감지와 같은 다양한 진위 단서를 기반으로 다양한 감지기를 개발하고 있다." 

그 다음 단계는 소스탐지 또는 각 딥페이크 뒤에 있는 GAN 모델을 찾는 것이다. 가짜와 진짜를 구분한다.” 

딥페이크 감지 문제의 역사

안타깝게도 딥페이크를 탐지하는 것은 여러 측면에서 어려운 일이었다. University of Southern California의 2021년 연구에 따르면 딥페이크 탐지 시스템을 훈련하는 데 사용되는 일부 데이터 세트는 특정 성별 또는 특정 피부색을 가진 사람들을 과소 대표할 수 있다. 이 편향은 딥페이크 탐지기에서 증폭될 수 있으며 일부 탐지기는 인종 그룹에 따라 오류율에서 최대 10.7%의 차이를 보인다.

그리고 2020년 에 Google과 University of California at Berkeley의 연구원들은 실제 콘텐츠와 합성 콘텐츠를 구별하도록 훈련된 최고의 AI 시스템조차도 가짜 이미지를 실제 이미지로 분류하도록 유도하는 적대적 공격에 취약하다는 것을 보여주었다. 

또한, 딥페이크 제작자와 탐지기 사이의 고양이와 쥐 게임이 계속되고 있다. 그러나 Demir는 현재 Intel의 FakeCatcher를 속일 수 없다고 말했다.  "우리가 사용하고 있는 PPG 추출은 미분 가능하지 않기 때문에 적대적 네트워크의 손실 함수에 연결할 수 없다. 작동하지 않고 미분 가능하지 않으면 역전파할 수 없기 때문입니다."라고 그녀는 말했다. "정확한 PPG 추출을 배우고 싶지는 않지만 대략적으로 알고 싶다면 현재 존재하지 않는 거대한 PPG 데이터 세트가 필요하다. 일반화할 수 없는 30-40명의 [데이터 세트] 전부."

그러나 Forrester Research의 AI/ML 분석가인 Rowan Curran은 이메일을 통해 VentureBeat에 "우리는 텍스트, 오디오 또는 비디오의 일부가 인간이 생성한 것인지 여부를 결정하는 능력과 관련하여 "긴 진화적 군비 경쟁에 처해 있다"라고 말했다.

“우리는 아직 초기 단계에 있지만 인텔의 딥페이크 탐지기는 주장한 대로 정확하고 특히 그 정확성이 특정 특성을 가진 비디오의 사람에 의존하지 않는다면 중요한 진전이 될 수 있다. 예를 들어 피부 톤, 조명 조건, 영상에서 볼 수 있는 피부의 양)”이라고 말했다.

 

 

 
광고
광고
광고
광고
광고
광고
많이 본 기사