광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[인공지능] 윤리적 해커가 AI에 대한 신뢰 구축에 도움이 된다. AI는 우리 삶에 점점 더 큰 영향을 미치고 있으며, 이에 따라 AI가 공정하고 안정적으로 행동할 수 있는지에 대한 우려가 커지고 있다. 윤리적 해커, AI 감사 및 "편향 현상금"은 잠재적인 피해를 방지하는 데 도움이 될 수 있다고 연구원들은 말한다.

https://singularityhub.com/2021/12/13/how-ethical-hackers-could-help-us-build-trust-in-ai/

JM Kim | 기사입력 2021/12/15 [00:00]

[인공지능] 윤리적 해커가 AI에 대한 신뢰 구축에 도움이 된다. AI는 우리 삶에 점점 더 큰 영향을 미치고 있으며, 이에 따라 AI가 공정하고 안정적으로 행동할 수 있는지에 대한 우려가 커지고 있다. 윤리적 해커, AI 감사 및 "편향 현상금"은 잠재적인 피해를 방지하는 데 도움이 될 수 있다고 연구원들은 말한다.

https://singularityhub.com/2021/12/13/how-ethical-hackers-could-help-us-build-trust-in-ai/

JM Kim | 입력 : 2021/12/15 [00:00]

AI에 대한 의존으로 인한 위험에 대한 인식이 높아지고 있다. 이러한 시스템은 우리 사회에 이미 존재하는 편견을 선택하고 복제하는 걱정스러운 재주를 갖고 있어 특정 그룹의 주변화를 고착화할 수 있다.

 

현재 딥러닝 시스템의 데이터 집약적 특성은 광범위한 감시를 장려하고 데이터 침해 가능성으로 인해 개인 정보 보호 문제를 제기한다. 또한 많은 AI 시스템의 블랙박스 특성으로 인해 올바르게 작동하는지 여부를 평가하기가 어렵다. 이는 특정 영역에서 심각한 영향을 미칠 수 있다.

 

이러한 문제에 대한 인식으로 인해 AI 기술 개발자를 안내하도록 설계된 기업, 정부, 심지어 초국가적 조직의 AI 윤리 원칙 컬렉션이 빠르게 확장되었다. 그러나 모든 사람이 이러한 이상에 따라 생활하도록 하는 방법에 대한 구체적인 제안은 훨씬 더 드물다.

 

이제 사이언스의 새로운 논문은 AI 기술에 대한 신뢰를 높이기 위해 업계가 취할 수 있는 몇 가지 실질적인 조치를 제안한다. 그렇게 하지 않으면 해당 분야의 발전을 심각하게 방해하는 "기술 충돌"로 이어질 수 있다고 연구원들은 말한다.

 

수석 저자인 케임브리지대학의 샤하르 아빈(Shahar Avin)은 보도 자료에서 "정부와 대중은 믿을 수 있는 뱀 기름 판매원과 무지한 사람을 쉽게 구별할 수 있어야 한다."고 말했다. “일단 그렇게 할 수 있게 되면 신뢰할 수 있는 진정한 동기가 생긴다. 그러나 그것들을 구별할 수는 없지만 모서리를 잘라야 하는 많은 압력이 있다.”

 

연구원들은 수십 년 동안 사람들이 소프트웨어를 신뢰하게 만드는 문제와 씨름해 온 사이버 보안에서 시도되고 테스트된 아이디어를 빌려왔다. 널리 사용되는 접근 방식 중 하나는 시스템에서 취약점을 찾으려고 시도하는 윤리적 해커의 "레드 팀"을 사용하여 설계자가 릴리스되기 전에 패치할 수 있도록 하는 것이다.

 

AI 레드 팀은 이미 대규모 산업 및 정부 연구실에 존재하지만 조직 및 도메인 전반에 걸쳐 경험을 공유하면 이 접근 방식을 훨씬 더 강력하고 더 많은 AI 개발자가 액세스할 수 있다고 제안한다.

 

소프트웨어 회사는 또한 해커가 시스템에서 결함을 발견하고 수정할 수 있도록 비공개적으로 알려주면 금전적 보상을 제공하는 "버그 포상금"을 자주 제공한다. 저자는 AI 개발자가 알고리즘이 편향되어 있는지 또는 잘못된 결정을 내리는지 알아내면 보상을 제공하는 유사한 방식을 채택해야 한다고 제안한다.

 

그들은 이 접근 방식이 어떻게 작동할 수 있는지에 대한 초기 예로서 이미지 자르기 알고리즘에서 편향을 찾을 수 있는 모든 사람에게 보상을 제공한 최근 Twitter에서 개최한 대회를 가리킨다.

 

사이버 보안 공격이 보편화됨에 따라 정부는 점점 더 데이터 침해 및 해킹 보고를 의무화하고 있다. 저자는 AI 시스템이 해를 입히는 사건에 유사한 아이디어를 적용할 수 있다고 제안한다. AI 인시던트 데이터베이스와 같은 자발적인 익명 공유는 유용한 출발점이지만 규제 요구 사항이 될 수 있다고 말한다.

 

금융 세계에는 신뢰를 보장하기 위한 몇 가지 강력한 도구, 특히 제3자 감사 아이디어가 있다. 여기에는 소유자의 공개 청구가 개인 기록과 일치하는지 여부를 평가할 수 있도록 감사자에게 제한된 정보에 대한 액세스 권한을 부여하는 것이 포함된다. 이러한 접근 방식은 일반적으로 데이터와 알고리즘을 비밀로 유지하려는 AI 개발자에게 유용할 수 있다.

 

감사는 감사를 신뢰할 수 있고 감사를 통과하지 못할 경우 의미 있는 결과가 있는 경우에만 작동한다고 저자들은 말한다. 또한 개발자가 개발 프로세스와 시스템 구성 및 활동을 문서화하는 일반적인 관행을 따르는 경우에만 가능하다.

 

현재 AI에서 이를 수행하는 방법에 대한 지침은 부족하지만 윤리적 프레임워크, 모델 문서화 및 AI 시스템의 지속적인 모니터링에 대한 초기 작업은 유용한 출발점이다.

 
인공지능, AI, 딥러닝, 해킹, 인공지능 윤리 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
최신기사