광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[딥페이크 Deepfakes] AI가 만든 얼굴이 진짜 사진보다 더 사실적으로 보인다. 우리는 매력에 대한 흥미로운 링크도 발견했다. 덜 매력적이라고 ​​평가된 얼굴은 더 실제적이라고 평가되었다. 덜 매력적인 얼굴은 더 일반적인 것으로 간주될 수 있으며 일반적인 얼굴은 모든 얼굴을 평가 하는 기준으로 사용될 수 있다.

박영숙세계미래보고서저자 | 기사입력 2023/02/04 [18:16]

[딥페이크 Deepfakes] AI가 만든 얼굴이 진짜 사진보다 더 사실적으로 보인다. 우리는 매력에 대한 흥미로운 링크도 발견했다. 덜 매력적이라고 ​​평가된 얼굴은 더 실제적이라고 평가되었다. 덜 매력적인 얼굴은 더 일반적인 것으로 간주될 수 있으며 일반적인 얼굴은 모든 얼굴을 평가 하는 기준으로 사용될 수 있다.

박영숙세계미래보고서저자 | 입력 : 2023/02/04 [18:16]

[딥페이크 Deepfakes] AI가 만든 얼굴이 진짜 사진보다 더 사실적으로 보인다.

 

 

당신이 얼굴을 분석하는 데 능숙하다고 생각하더라도 연구에 따르면 많은 사람들이 실제 얼굴 사진과 컴퓨터로 생성된 이미지를 확실하게 구분하지 못하는 것으로 나타났다. 이것은 컴퓨터 시스템이 존재하지 않는 사람들의 사실적인 사진을 생성할 수 있는 지금 특히 문제가 된다.

몇 년 전, 컴퓨터로 생성된 프로필 사진이 포함된 가짜 LinkedIn 프로필이 예를 들어 네트워킹 플랫폼에서 미국 관리 및 기타 영향력 있는 개인과 성공적으로 연결 되었기 때문에 뉴스가 되었었다. 방첩 전문가들은 심지어 스파이들이 일상적으로 소셜 미디어를 통해 외국 목표물에 집중 하기위해 그러한 사진으로 유령 프로필을 만든다고 말한다.

이러한 딥페이크는 일상 문화에서 널리 퍼지고 있으며, 이는 사람들이 마케팅, 광고 및 소셜 미디어에서 딥페이크가 어떻게 사용되고 있는지 더 잘 알고 있어야 함을 의미한다. 이미지는 또한 정치적 선전, 간첩, 정보 전쟁과 같은 악의적인 목적으로 사용되고 있다.

이를 만드는 데는 뇌가 학습하는 방식을 모방하는 컴퓨터 시스템인 심층 신경망이라는 것이 포함된다. 이것은 실제 얼굴의 점점 더 큰 데이터 세트에 노출되어 "훈련"된다.

실제로 두 개의 심층 신경망이 서로 경쟁하여 가장 사실적인 이미지를 생성하기 위해 경쟁한다. 결과적으로 최종 제품은 GAN 이미지라고 불리며 GAN은 "Generative adversarial networks"를 나타낸다. 이 프로세스는 훈련 이미지와 통계적으로 구별할 수 없는 새로운 이미지를 생성한다.

iScience에 발표된 연구에서 동료들과 저는 이러한 인공 얼굴을 실제와 구별하지 못하는 것이 우리의 온라인 행동에 영향을 미친다는 것을 보여주었다. 우리의 연구에 따르면 가짜 이미지는 다른 사람에 대한 우리의 신뢰를 약화시키고 우리가 온라인에서 소통하는 방식을 근본적으로 바꿀 수 있다.

우리는 사람들이 실제 사람 얼굴의 실제 사진보다 GAN 얼굴을 훨씬 더 사실적으로 인식한다는 것을 발견했다. 그 이유는 아직 명확하지 않지만 이 발견은 인공 이미지를 생성하는 데 사용되는 기술의 최근 발전을 강조한다.

그리고 우리는 매력에 대한 흥미로운 링크도 발견했다. 덜 매력적이라고 ​​평가된 얼굴은 더 실제적이라고 평가되었다. 덜 매력적인 얼굴은 더 일반적인 것으로 간주될 수 있으며 일반적인 얼굴은 모든 얼굴을 평가 하는 기준으로 사용될 수 있다. 따라서 이러한 GAN 얼굴은 사람들이 일상 생활에서 구축한 정신적 템플릿과 더 유사하기 때문에 더 실제처럼 보일 것이다.

그러나 이러한 인공적인 얼굴을 진짜로 보는 것은 우리가 낯선 사람들에게 확장하는 일반적인 신뢰 수준, 즉 "사회적 신뢰"로 알려진 개념에 영향을 미칠 수 있다.

우리는 종종 우리가 보는 얼굴을 너무 많이 읽고 우리가 형성하는 첫인상이 우리의 사회적 상호 작용을 안내한다최신 연구의 일부를 구성한 두 번째 실험에서 우리는 사람들이 이전에 실제라고 판단한 얼굴이 전달하는 정보를 인위적으로 생성하더라도 더 신뢰하는 경향이 있음을 확인했한다.

사람들이 진짜라고 믿는 얼굴을 더 신뢰하는 것은 놀라운 일이 아니다. 그러나 우리는 사람들이 온라인 상호작용에서 인공 얼굴의 잠재적 존재에 대해 알게 된 후 신뢰가 침식되었음을 발견했한다. 그런 다음 얼굴이 진짜인지 아닌지에 관계없이 전반적으로 낮은 수준의 신뢰를 보였다.

이 결과는 가짜 사용자가 활동할 수 있는 환경에서 사람들을 더 의심하게 만들었기 때문에 어떤 면에서는 유용하다고 볼 수 있다. 그러나 다른 관점에서 보면 그것은 우리가 의사소통하는 방식의 본질을 점차 잠식할 수 있다.

일반적으로 우리는 다른 사람들이 기본적으로 진실하고 신뢰할 수 있다는 기본 가정 에 따라 운영하는 경향이 있다. 가짜 프로필 및 기타 인공 온라인 콘텐츠의 증가는 그들의 존재와 그들에 대한 우리의 지식이 이 "진실 기본값" 상태를 얼마나 변경하여 결국 사회적 신뢰를 잠식할 수 있는지에 대한 의문을 제기한다.

기본값 변경

실제와 그렇지 않은 것을 구별할 수 없는 세상으로의 전환은 또한 문화적 지형을 주로 진실에서 주로 인위적이고 기만적인 것으로 바꿀 수 있다.

우리가 온라인에서 경험하는 것의 진실성에 정기적으로 의문을 제기하는 경우 메시지 자체 처리에서 메신저의 신원 처리에 이르기까지 정신적 노력을 재배치해야 할 수도 있다. 즉, 매우 현실적이지만 인위적인 온라인 콘텐츠의 광범위한 사용으로 인해 우리는 예상하지 못한 방식으로 다르게 생각해야 할 수 있다.

심리학에서는 어떤 것이 외부 세계에서 오는지 뇌 안에서 오는지 정확하게 식별하는 방법에 대해 "현실 모니터링"이라는 용어를 사용한다. 가짜이지만 매우 사실적인 얼굴, 이미지, 화상 통화를 생성할 수 있는 기술의 발전은 현실 모니터링이 우리 자신의 판단이 아닌 다른 정보에 기반해야 함을 의미한다. 그것은 또한 인류가 여전히 진실에 불이행할 여유가 있는지에 대한 더 광범위한 논의를 요구한다.

사람들이 디지털 얼굴을 평가할 때 더 비판적이 되는 것이 중요합니다. 여기에는 역 이미지 검색을 사용하여 사진이 진품인지 확인하고, 개인 정보가 적거나 팔로워가 많은 소셜 미디어 프로필을 경계하고, 딥페이크 기술이 사악한 목적으로 사용될 가능성을 인식하는 것이 포함될 수 있다

이 영역의 다음 프론티어는 가짜 디지털 얼굴을 감지하는 알고리즘을 개선해야 한다. 그런 다음 소셜 미디어 플랫폼에 내장되어 새로운 연결의 얼굴에서 진짜와 가짜를 구별하는 데 도움이 될 수 있다.

이 기사는 Creative Commons 라이선스에 따라 The Conversation 에서 다시 게시되었다. 원본 기사는 여기에서.

이미지 제공: 이 기사의 배너 이미지에 있는 얼굴은 사실적으로 보일 수 있지만 컴퓨터에서 생성한 것이다. thispersondoesnotexist.com을 통한 NVIDIA

 

 
광고
광고
광고
광고
광고
광고
많이 본 기사
신기술&메타버스AR/VR 많이 본 기사