광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고

AI넷

[거짓말 탐지기 시대] 저널 iScience에 게재된 연구 에서 von Schenk와 그녀의 동료들은 자원봉사자들에게 주말 계획에 대한 진술문을 쓰도록 요청했다. 절반의 경우 사람들은 거짓말을 하도록 인센티브를 받았다. 믿을 만하지만 사실이 아닌 진술에는 소액의 금전적 보상이 주어졌다.

박영숙세계미래보고서저자 | 기사입력 2024/07/10 [17:23]

[거짓말 탐지기 시대] 저널 iScience에 게재된 연구 에서 von Schenk와 그녀의 동료들은 자원봉사자들에게 주말 계획에 대한 진술문을 쓰도록 요청했다. 절반의 경우 사람들은 거짓말을 하도록 인센티브를 받았다. 믿을 만하지만 사실이 아닌 진술에는 소액의 금전적 보상이 주어졌다.

박영숙세계미래보고서저자 | 입력 : 2024/07/10 [17:23]

 

 

 

AI가 거짓말 탐지에 능숙하다고? 연구 결과에 대한 심층 분석

최근 독일 뷔르츠부르크 대학교의 경제학자 알리시아 폰 쉔크와 그녀의 연구팀은 인공지능(AI) 기반 거짓말 탐지 도구가 인간보다 훨씬 더 정확하게 거짓말을 판별할 수 있다는 놀라운 연구 결과를 발표했다. 하지만 이 도구는 윤리적 문제와 실제 활용성 측면에서 우려를 불러일으키기도 한다.

 

연구 내용 및 주요 결과

  • 연구 방법:
    • 연구 참가자들은 주말 계획에 대한 진술문을 작성했다.
    • 절반의 참가자는 거짓말을 하도록 유도되었으며, 나머지 절반은 진실을 유지했다.
    • 연구팀은 Google의 AI 언어 모델 BERT를 사용하여 거짓말과 진실을 구분하는 알고리즘을 훈련했다.
  • 연구 결과:
    • 훈련된 AI 알고리즘은 20%의 테스트 진술문에서 67%의 정확도로 진실과 거짓을 판별했다.
    • 이는 인간의 거짓말 탐지 능력(약 50%)보다 훨씬 높은 수치이다.

AI 도구의 장점

  • 높은 정확도: AI 도구는 인간보다 훨씬 더 정확하게 거짓말을 탐지할 수 있다.
  • 객관성: AI 도구는 개인의 편견이나 감정에 영향을 받지 않고 객관적으로 판단할 수 있다.
  • 속도: AI 도구는 인간보다 훨씬 빠르게 대량의 데이터를 분석하고 거짓말을 판별할 수 있다.

AI 도구의 단점 및 윤리적 문제

  • 투명성 부족: AI 도구가 어떻게 작동하는지, 어떤 기준으로 거짓말을 판별하는지 명확하게 드러나지 않는다.
  • 편향 가능성: AI 도구는 학습 데이터에 따라 편향될 가능성이 있다. 예를 들어, 특정 집단에 대한 편견을 반영할 수 있다.
  • 책임 소재 불분명: AI 도구가 잘못된 판단을 내렸을 경우 책임 소재가 불분명하다.
  • 개인 정보 침해 우려: AI 도구를 사용하면 개인의 언어 패턴 및 표현 방식에 대한 정보가 노출될 수 있다.

실제 활용성

  • 사람들의 AI 도구에 대한 신뢰 부족: 연구 결과에 따르면, AI 도구의 정확성에도 불구하고 많은 사람들은 여전히 AI 도구를 신뢰하지 않는다.
  • 윤리적 논쟁: AI 도구의 윤리적 문제는 아직 명확하게 해결되지 않았다.
  • 법적 규제 부족: AI 도구의 사용을 규제하는 법적 틀이 아직 마련되지 않았다.

결론

AI 기반 거짓말 탐지 도구는 높은 정확도를 보여주지만, 윤리적 문제와 실제 활용성 측면에서 아직 많은 과제가 남아 있다. AI 도구의 활용을 확대하기 위해서는 윤리적 가이드라인 마련, 투명성 확보, 책임 소재 명확화, 개인 정보 보호 강화 등의 노력이 필요하다. 또한, AI 도구에 대한 사회적 합의를 도출하고, 관련 법적 규제를 마련해야 할 것.

 

AI를 활용한 거짓말 탐지기 기술, 인간 능력 뛰어넘다

최근 연구에서 독일 뷔르츠부르크 대학교의 경제학자 알리시아 폰 쉔크와 그녀의 팀은 거짓말을 발견하는 데 있어 사람보다 훨씬 더 뛰어난 도구를 개발했다. 폰 쉔크와 동료들은 이 도구가 어떻게 사용되는지 알아보기 위해 일련의 실험을 진행했다. 이 도구는 거짓말을 발견하는 데 상당히 유용했지만, 또한 사람들이 훨씬 더 많은 비난을 하게 만드는 결과를 초래했다.

저널 iScience에 게재된 연구에서 알리시아 폰 쉔크와 그녀의 동료들은 자원봉사자들에게 주말 계획에 대한 진술문을 쓰도록 요청했다. 사람들의 절반은 거짓말을 하도록 인센티브를 받았고, 믿을 만하지만 사실이 아닌 진술에는 소액의 금전적 보상이 주어졌다. 전체적으로 연구팀은 768명으로부터 1,536개의 진술문을 수집했다. 그런 다음 이 진술문의 80%를 사용하여 Google의 AI 언어 모델인 BERT를 훈련시켜 거짓말과 진실을 판별하는 알고리즘을 개발했다.

최종 20%의 진술문을 테스트했을 때, 이 도구는 진술문이 참인지 거짓인지 67%의 확률로 성공적으로 판별할 수 있었다. 이는 일반적인 인간보다 훨씬 나은 결과이다. 인간은 보통 절반의 경우에만 정확하게 판별할 수 있다.

폰 쉔크와 동료들은 사람들이 AI를 사용하여 거짓말을 발견하는 방법을 탐구하기 위해 2,040명의 자원봉사자를 더 작은 그룹으로 나누고 일련의 테스트를 실시했다. 한 실험에서는 사람들에게 거짓말을 탐지하고 재정적 보상을 받을 수 있는 AI 도구를 사용하기 위해 소액의 비용을 지불할 수 있는 옵션을 제공했다. 그러나, 이 옵션이 주어진 자원봉사자 중 3분의 1만이 AI 도구를 사용하기로 결정했다. 폰 쉔크는 이는 사람들이 기술에 대해 회의적이거나, 자신의 거짓말 탐지 능력에 대해 지나치게 낙관적일 수 있기 때문이라고 말한다.

하지만 AI 도구를 사용한 3분의 1의 사람들은 실제로 기술을 신뢰했다. 폰 쉔크는 "기술에 의존하기로 적극적으로 선택할 때, 사람들은 거의 항상 AI의 예측을 따른다... 그들은 AI의 예측에 크게 의존한다."라고 말한다.

전 세계적으로 거짓말 탐지기 기술은 지속적으로 발전하고 있다. 최근에는 AI와 머신러닝을 활용하여 인간의 능력을 뛰어넘는 성과를 내고 있다. 전통적인 거짓말 탐지기는 주로 신체 반응을 측정하지만, AI 기반 거짓말 탐지기는 언어 패턴과 세부적인 신호를 분석하여 더 정확한 결과를 도출할 수 있다.

기술이 진보할수록, AI 기반 거짓말 탐지기는 법률, 재정, 채용 면접 등 다양한 분야에서 더욱 중요한 역할을 할 것이다. 그러나 동시에 이러한 기술 활용에 따른 윤리적 문제점과 잠재적 오용에 대한 논의도 필요하다 한다. AI 거짓말 탐지기가 줄 수 있는 혜택과 잠재적 위험을 균형 있게 고려해야 할 것이다 이다.

 

주요 AI 기반 거짓말 탐지기

1. BERT 기반 텍스트 분석 도구 (von Schenk의 연구)

  • 원리: Google의 AI 언어 모델인 BERT를 이용해 텍스트 데이터를 분석합니다.
  • 특징: 사람들의 진술문을 분석하여 거짓과 진실을 판별하는 정확도가 67%에 달합니다.
  • 장점: 텍스트 데이터만으로 거짓말 여부를 분석하기 때문에 사용이 간편합니다.
  • 단점: 인간의 감정이나 비언어적 신호를 분석하지 못하는 한계가 있습니다.

2. Converus EyeDetect

  • 원리: 인식되는 눈의 움직임과 눈의 변화 반응을 기반으로 거짓말을 탐지합니다.
  • 특징: 눈동자의 반응을 빠르고 정확하게 측정하여 거짓말 여부를 판단합니다.
  • 장점: 비침입성이고 빠르며, 신뢰도가 높다고 알려져 있습니다.
  • 단점: 눈 건강 상태에 따라 결과가 영향을 받을 수 있습니다.

3. iMotions

  • 원리: 얼굴 표정 인식, 안구 추적, 생체 신호 분석 등의 복합적 데이터를 이용하여 거짓말을 분석합니다.
  • 특징: 다양한 바이오피드백 및 생체 신호 데이터를 사용하여 더 정확한 분석이 가능합니다.
  • 장점: 다양한 입력 데이터를 사용할 수 있어 신뢰도가 높습니다.
  • 단점: 장비 설치 및 사용이 복잡할 수 있습니다.

4. VeriPol

  • 원리: 경찰 조사에서 사용되는 언어 패턴을 분석하여 거짓말을 탐지합니다.
  • 특징: 조사보고서나 증언에서 사용되는 언어의 스타일과 패턴을 분석하여 거짓 진술 여부를 판단합니다.
  • 장점: 경찰 및 법률 기관에서 쉽게 적용할 수 있습니다.
  • 단점: 특정 언어와 문화권에 한정될 수 있습니다.

5. NuraLogix's Transdermal Optical Imaging (TOI)

  • 원리: 얼굴 비디오를 분석하여 혈류 변화를 감지합니다.
  • 특징: 얼굴의 미세한 변화와 혈류 패턴을 분석하여 감정 및 스트레스 상태를 파악합니다.
  • 장점: 비침입적이고 시각적인 데이터 기반으로 정확한 분석이 가능합니다.
  • 단점: 고품질 비디오와 특정 조건 하에서만 정확도가 유지될 수 있습니다.

6. Sensity's Deepfake Detection Technology

  • 원리: 딥러닝을 사용해 비디오에서 딥페이크 및 조작된 콘텐츠를 탐지합니다.
  • 특징: 시각적 증거물에서 깊은 작업을 통해 거짓 증거를 탐지합니다.
  • 장점: 비디오 기반 검증에서 강점을 가집니다.
  • 단점: 주로 비디오에 한정되며, 음성 등 다른 데이터형에 대한 적용이 제한적입니다.

이러한 AI 기반 탕지기는 기존의 폴리그래프 기술보다 더 높은 정확도와 효율성을 제공합니다. 사용되는 기술과 목적에 따라 장단점이 다를 수 있으므로, 상황에 맞는 적절한 거짓말 탐지기술을 선택하는 것이 중요하다.

AI 기반 거짓말 탐지기는 앞으로도 계속 발전할 것이며, 다양한 분야에서 더 정교한 방식으로 사용될 것으로 예상된다. 하지만, 이러한 기술이 갖는 윤리적 문제와 프라이버시 침해 가능성에 대해서도 지속적인 논의와 규제가 필요하다.

AI 기반 거짓말 탐지기와 관련된 이미지들입니다.

  1. AI lie detectors are better than humans at spotting lies | MIT Technology Review
  2. An AI-Based Lie Detector for Call Center Conversations - Unite.AI
  3. Lie detectors have always been suspect. AI has made the problem ...
  4. On Using Generative AI As A Lie Detector Including Trying To Bust Myths
  5. AI-based lie detection system will screen travellers to EU for security

이 이미지는 다양한 AI 기반 거짓말 탐지기 기술을 시각적으로 보여준다.

 

AI 기반 거짓말 탐지기: 종류, 작동 방식, 장점 및 단점

인공지능(AI) 기술은 거짓말 탐지 분야에도 빠르게 도입되고 있으며, 기존의 거짓말 탐지 방식을 뛰어넘는 정확성과 효율성을 제공할 가능성을 보여주고 있다. 하지만 아직 초기 단계 기술이며, 윤리적 문제와 실제 활용성 측면에서 해결해야 할 과제도 많다.

 

1. AI 기반 거짓말 탐지기 종류

현재 개발되고 있는 AI 기반 거짓말 탐지기는 크게 두 가지 유형으로 나눌 수 있다.

  • 음성 분석 기반 AI: 음성 패턴, 말투, 속도, 음량 등을 분석하여 거짓말을 탐지.
  • 텍스트 분석 기반 AI: 문장의 내용, 단어 사용, 문법 구조 등을 분석하여 거짓말을 탐지.

두 가지 방식을 혼합하여 사용하는 경우도 있다.

 

2. AI 기반 거짓말 탐지기 작동 방식

AI 기반 거짓말 탐지기는 일반적으로 다음과 같은 과정을 거쳐 작동한다.

  1. 데이터 수집: 거짓말과 진실을 나타내는 대량의 음성 또는 텍스트 데이터를 수집한다.
  2. AI 모델 학습: 수집된 데이터를 기반으로 AI 모델을 학습시킨다. 이때, 거짓말과 진실을 구분하는 알고리즘을 학습하게 된다.
  3. 거짓말 탐지: 새로운 음성 또는 텍스트 입력을 받으면, 학습된 AI 모델이 이를 분석하고 거짓말인지 진실인지 판단한다.

3. AI 기반 거짓말 탐지기의 장점

  • 높은 정확도: AI 기반 거짓말 탐지기는 인간보다 훨씬 더 높은 정확도를 보여줍니다. 일부 연구에서는 인간의 거짓말 탐지 능력(약 50%)보다 2배 이상 높은 정확도(90% 이상)를 달성했다는 결과도 있다.
  • 객관성: AI 기반 거짓말 탐지기는 개인의 편견이나 감정에 영향을 받지 않고 객관적으로 판단할 수 있다.
  • 속도: AI 기반 거짓말 탐지기는 인간보다 훨씬 빠르게 대량의 데이터를 분석하고 거짓말을 판별할 수 있다.
  • 비용 절감: AI 기반 거짓말 탐지기는 전문가의 도움 없이 저렴하게 거짓말 탐지를 수행할 수 있도록 한다.

4. AI 기반 거짓말 탐지기의 단점

  • 투명성 부족: AI 기반 거짓말 탐지기가 어떻게 작동하는지, 어떤 기준으로 거짓말을 판별하는지 명확하게 드러나지 않는다. 이는 신뢰성에 대한 우려를 불러일으킬 수 있다.
  • 편향 가능성: AI 기반 거짓말 탐지기는 학습 데이터에 따라 편향될 가능성이 있다. 예를 들어, 특정 집단에 대한 편견을 반영할 수 있다.
  • 윤리적 문제: AI 기반 거짓말 탐지기의 사용은 개인 정보 침해, 차별, 인권 침해 등의 윤리적 문제를 야기할 수 있다.
  • 법적 규제 부족: AI 기반 거짓말 탐지기의 사용을 규제하는 법적 틀이 아직 마련되지 않았다.

5. 주요 AI 기반 거짓말 탐지기 사례

  • 기업:
      • Lyra AI: 음성 분석 기반 AI 거짓말 탐지 기술을 개발하고 있으며, 고객 서비스, 채용, 보험 분야에서 활용되고 있다.
      • Eterni: 텍스트 분석 기반 AI 거짓말 탐지 기술을 개발하고 있으며, 온라인 커뮤니티, 소셜 미디어, 리뷰 플랫폼에서 활용되고 있다.
      • 연구기관:
        • 스탠포드 대학교: 심리학자 Paul Ekman의 연구팀은 미세 표정 분석을 기반으로 한 AI 거짓말 탐지 기술을 개발하고 있다.
        • 카네기 멜론 대학교: 컴퓨터 과학자 Alessandro Acquisti의 연구팀은 소셜 미디어 활동 패턴 분석을 기반으로 한 AI 거짓말 탐지 기술을 개발하고 있다.

    6. AI 기반 거짓말 탐지기의 미래 전망

    AI 기반 거짓말 탐지 기술은 아직 초기 단계이지만, 앞으로 빠르게 발전할 것으로 예상됩니다. 향후에는 다음과 같은 발전이 기대.

        • 정확도 향상: 더욱 정교한 AI 알고리즘과 더 많은 데이터를 활용하여 거짓말 탐지 정확도를 더욱 높일 수 있을 것.
        • 다양한 분야에서의 활용: 고객 서비스, 채용, 보험, 사법, 의료 등 다양한 분야에서 AI 기반 거짓말 탐지 기술이 활용될 것.
        • 윤리적 문제 해결: AI 기반 거짓말 탐지 기술의 윤리적 문제를 해결하기 위한 노력이 계속될 것입니다. 예를 들어, 투명성을 확보하고, 편향을 방지하며, 개인 정보를 보호하는 방안이 마련될 것.
        • 법적 규제 마련: AI 기반 거짓말 탐지 기술의 사용을 규제하는 법적 틀이 마련될 것.

    7. 결론

    AI 기반 거짓말 탐지 기술은 거짓말 탐지 분야에 혁신을 가져올 가능성이 높지만, 아직 초기 단계 기술이며 윤리적 문제와 실제 활용성 측면에서 해결해야 할 과제도 많다. 앞으로 AI 기반 거짓말 탐지 기술이 발전하고 윤리적 문제가 해결된다면, 사회 전반에서 다양한 분야에 활용될 수 있을 것으로 기대된다.

 

최근 연구에서 알리시아 폰 쉔크와 그녀의 동료들은 거짓말을 발견하는 데 있어 사람보다 훨씬 더 뛰어난 도구를 개발했다. 독일 뷔르츠부르크 대학교의 경제학자 폰 쉔크와 그녀의 팀은 사람들이 그것을 어떻게 사용하는지 알아보기 위해 몇 가지 실험 했다. 어떤 면에서는 그 도구가 도움이 되었습니다. 도구를 사용한 사람들이 거짓말을 발견하는 데 더 능숙했다. 하지만 그 도구는 또한 사람들이 훨씬 더 많은 비난을 하도록 이끌었다.

저널 iScience에 게재된 연구 에서 von Schenk와 그녀의 동료들은 자원봉사자들에게 주말 계획에 대한 진술문을 쓰도록 요청했다. 절반의 경우 사람들은 거짓말을 하도록 인센티브를 받았다. 믿을 만하지만 사실이 아닌 진술에는 소액의 금전적 보상이 주어졌다. 전체적으로 팀은 768명으로부터 1,536개의 진술문을 수집했습니다. 그런 다음 이러한 진술문의 80%를 사용하여 Google의 AI 언어 모델 BERT를 사용하여 거짓말과 진실에 대한 알고리즘을 훈련했다. 최종 20%의 진술문에서 결과 도구를 테스트했을 때 진술문이 참인지 거짓인지 67%의 경우 성공적으로 판별할 수 있었다. 이는 일반적인 인간보다 상당히 나은 결과입니다. 우리는 보통 절반의 경우만 맞춘다.
 
사람들이 AI를 사용하여 거짓말을 발견하는 방법을 알아보기 위해 von Schenk와 그녀의 동료들은 다른 2,040명의 자원봉사자를 더 작은 그룹으로 나누고 일련의 테스트를 실시했다.
 
한 실험에서 사람들에게 거짓말을 탐지하고 재정적 보상을 받을 수 있는 AI 도구를 사용하기 위해 소액의 비용을 지불할 수 있는 옵션이 주어졌을 때에도 여전히 그것을 사용하고 싶어하지 않는 것으로 나타났다. 그 옵션이 주어진 자원봉사자 중 3분의 1만이 AI 도구를 사용하기로 결정했는데, 아마도 기술에 회의적이기 때문일 것이라고 폰 쉔크는 말한다. (그녀는 또한 그들이 자신의 거짓말 탐지 기술에 대해 지나치게 낙관적일 수도 있다고 덧붙인다.)
 
하지만 그 3분의 1의 사람들은 실제로 기술을 신뢰한다. 폰 쉔크는 "기술에 의존하기로 적극적으로 선택할 때, 사람들은 거의 항상 AI의 예측을 따른다... 그들은 AI의 예측에 크게 의존합니다."라고 말한다.

 

 

 

 
광고
광고
광고
광고
광고
광고