광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고

AI넷

[실리콘벨리의 고발자: 자율 로봇이 우리의 도덕적 나침반이 될 때] 로봇 고발자는 부패를 폭로하고 퇴치하는 방식에 혁명을 일으킬 수 있는 개념이다.

윤소정 | 기사입력 2024/08/24 [09:00]

[실리콘벨리의 고발자: 자율 로봇이 우리의 도덕적 나침반이 될 때] 로봇 고발자는 부패를 폭로하고 퇴치하는 방식에 혁명을 일으킬 수 있는 개념이다.

윤소정 | 입력 : 2024/08/24 [09:00]

 

 

실리콘벨리 고발자: 자율 로봇이 우리의 도덕적 나침반이 될 때

토마스 프레이 | 2024년 8월 22일 | 인공지능

 
미래학자 연설가 토마스 프레이 블로그: 자율 로봇이 우리의 도덕적 나침반이 될 때

충성심이 없고 인간의 두려움에 면역이 있는 자율적인 인간형 로봇이 사회의 궁극적인 진실을 말하는 세상을 상상해보자.

역사를 통틀어 고발자는 조직과 정부 내의 부패, 부정 행위, 불법 활동을 폭로하는 데 중요한 역할을 했다. 1971년 다니엘 엘스버그가 펜타곤 문서를 공개한 것부터 줄리안 어산지와 위키리크스의 현재 진행 중인 사가에 이르기까지, 이들은 숨겨진 진실을 밝히기 위해 모든 것을 걸었다. 하지만 미래의 고발자가 이제 인간이 아니었다면 어떨까? 충성심에 얽매이지 않고 인간의 두려움에 면역이 있는 자율적인 휴머노이드 로봇이 우리 사회의 궁극적인 진실 전달자가 되는 세상을 상상해 보자.

진실의 인간적 비용

최근 역사상 가장 두드러진 고발자 중 한 명은 에드워드 스노든다. 전 NSA 계약자인 스노든은 2013년에 NSA가 수행한 글로벌 감시 프로그램의 범위를 보여주는 방대한 기밀 정보를 유출했다. 그의 공개는 주요 기술회사로부터 방대한 양의 데이터를 수집한 PRISM 프로그램을 폭로했고, NSA가 전 세계적으로 전화 및 인터넷 통신을 추적할 수 있는 능력을 보여주었다. 스노든의 행동은 국가 안보와 개인의 사생활 간의 균형에 대한 글로벌 토론으로 이어졌고, 2015년 NSA의 대량 데이터 수집 관행을 제한한 USA Freedom Act와 같은 입법 개혁으로 이어졌다. 그러나 스노든은 최대 30년의 징역형을 선고받을 수 있는 간첩법에 따른 기소를 포함하여 심각한 개인적 위험에 직면했다. 그는 인도를 피하기 위해 러시아에 망명을 요청했고 그 이후로 망명 생활을 했으며, 일부 인들은 그를 영웅으로, 다른 사람들에게는 반역자로 여겨지는 양극화된 인물이다.

또 다른 유명 고발자 첼시 매닝은 2010년 위키리크스에 기밀 군사 및 외교 문서를 유출하면서 화제를 모았다. 미 육군 정보 분석가로서 매닝은 대중이 알 권리가 있다고 믿었던 민감한 정보에 접근할 수 있었다. 그녀가 유출한 정보에는 이라크에서 민간인과 언론인을 죽인 미군 헬리콥터 공격을 보여준 악명 높은 "Collateral Murder" 비디오와 군사 작전과 외교적 의사소통을 자세히 설명하는 수천 개의 문서가 포함되었다. 매닝의 폭로는 미국의 외교 정책, 군사 행위 및 전쟁 윤리에 대한 논쟁을 불러일으켰다. 그녀의 폭로가 상당한 영향을 미쳤음에도 불구하고 매닝은 간첩법에 따라 35년형을 선고받는 등 가혹한 처벌에 직면했고, 나중에 오바마 대통령이 감형했다. 그녀는 독방 감금을 포함한 교도소에서 가혹한 처우를 견뎌냈고, 그녀의 행동은 대중과 정부 관리들로부터 엇갈린 반응을 이끌어냈다.

기업계에서 2019년 보잉 고발자 사건은 항공 산업 내의 중대한 안전 문제를 부각시켰다. 보잉의 엔지니어와 직원들은 737 Max 항공기의 안전, 특히 두 건의 치명적인 추락 사고와 관련된 기동 특성 증강 시스템(MCAS)의 문제에 대해 경각심을 고조했다. 이 고발자들은 자신의 경력을 걸었고 업계로부터 잠재적인 법적 도전과 보복에 직면했다. 그들이 용기 있게 나서서 737 Max의 전 세계적 운항 중단으로 이어졌고 보잉의 안전 관행과 연방 항공청의 감독 절차에 대한 광범위한 검토와 변경을 촉발했다. 이 사건은 내부 책임의 중요성과 고발자가 대중의 안전을 보호하는 데 중요한 역할을 한다는 것을 강조했다.

고발자가 직면한 개인적 위험은 상당하고 다면적이다. 안전에 대한 위협, 법적 반발, 사회적 반발이 흔하다. 많은 고발자는 괴롭힘, 신체적 피해, 극단적인 경우 사망 위협에 직면합니다. 법적으로 그들은 종종 간첩법과 같은 엄격한 법률에 따라 기소되어 장기 징역형과 엄청난 벌금에 직면한다. 사회적으로 고발자는 배척당할 수 있으며, 여론은 크게 분열되고 평판이 훼손된다. 직업적으로 그들은 종종 블랙리스트와 손상된 평판으로 인해 자신의 분야에서 일자리를 찾는 데 어려움을 겪는다.

이러한 중대한 위험에도 불구하고, 고발자들이 밝힌 폭로는 심오한 변화를 가져왔다. 에드워드 스노든의 유출은 프라이버시와 감시에 대한 글로벌 대화를 재정의하여 투명성과 입법 개혁을 강화했다. 첼시 매닝의 폭로는 군사 및 외교 관행에 대한 비판적 성찰을 촉발하여 정부 조치에 대한 더 큰 책임을 주장했다. 보잉 고발자 사건은 기업 안전 기준과 규제 감독에 대한 상당한 개혁을 주도하여 기업 이익보다 공공 안전을 우선시해야 할 필요성을 강조했다.

고발자의 딜레마

잠재적인 고발자들이 직면한 딜레마는 심각하다. 한편으로는 그들은 잘못을 폭로하고 강력한 기관을 책임지게 하는 도덕적 의무감을 느낀다. 다른 한편으로는 자신의 행동이 개인적, 직업적 파멸로 이어질 수 있다는 것을 알면서 자기 보존 본능과 씨름해야 한다. 줄리안 어산지 의 사례 는 특히 이 딜레마를 강조하는데, 위키리크스에서의 그의 작업은 저널리즘과 활동주의의 경계를 모호하게 만들어 언론의 자유와 국가 안보에 대한 복잡한 문제를 제기했다. 게다가, 이러한 과제는 고발을 하기로 결정하는 것으로 끝나지 않는다. 정보를 검증하고 가로채거나 신뢰를 잃지 않고 이를 배포할 수 있는 신뢰할 수 있는 방법을 찾는 것은 복잡성과 위험을 더한다. 고발자는 또한 신뢰성을 떨어뜨리고 폭로에서 주의를 돌리기 위해 고안된 인신공격 캠페인에 취약하다. 합법적인 채널을 통하든 더 은밀한 수단을 통하든 보복에 대한 두려움은 프로세스의 모든 단계에 크게 깃들어 있다.

이 엄연한 현실은 설득력 있는 질문을 던진다. 기술이 해결책을 제공할 수 있을까? 생명이나 자유를 두려워하지 않는 고발자를 만들 수 있을까? 위협에 면역이 있고 뇌물로 부패하지 않는 진실을 말하는 사람을 만들 수 있을까? 우리가 첨단 AI와 로봇공학의 문턱에 서 있는 지금, 자율 로봇 고발자라는 개념은 공상과학이 아니라 우리 사회의 투명성과 책임의 풍경을 재편할 수 있는 잠재적 현실로 등장한다. 그러한 실체는 개인적 위험이나 인간의 감정과 관계에서 오는 취약성 없이 Assange, Snowden 등과 같은 인간 고발자를 얽매인 위험한 물살을 항해할 수 있는 잠재력을 가지고 있다.

미래학자 연설가 토마스 프레이 블로그: 로봇 고발자의 등장

의회에서 증언하는 로봇 고발자

로봇 고발자의 등장

로봇 고발자는 부패를 폭로하고 퇴치하는 방식에 혁명을 일으킬 수 있는 개념이다. 이러한 자율적인 휴머노이드 로봇은 공정한 정보 중개자 역할을 하여 인간 고발자에게 내재된 취약성 없이 숨겨진 진실과 대중의 지식 사이의 격차를 메울 것.

고발에 AI를 사용하는 이점은 여러 가지가 있다. 무엇보다도, 이러한 로봇 개체는 잠재적인 고발자를 종종 막는 인간의 두려움과 압력에 면역이 될 것이다. 그들은 법적 결과, 추방 또는 개인적 관계에 대한 피해에 대해 걱정하지 않을 것. 이러한 두려움 없음은 로봇이 민감성이나 연루된 사람들의 힘에 관계없이 정보를 공개하는 것을 주저하지 않기 때문에 더 빈번하고 대담하게 잘못을 폭로할 수 있다.

둘째, 방대한 양의 데이터를 처리하는 AI의 비할 데 없는 능력은 고발 환경을 변화시킬 수 있다. 인간 고발자가 수백만 개의 문서에서 패턴이나 연결을 식별하는 데 어려움을 겪을 수 있는 반면, AI는 다양한 출처의 정보를 신속하게 분석하고 종합할 수 있다. 이를 통해 보다 포괄적이고 미묘한 폭로가 가능해져 인간의 관찰을 피할 수 있는 복잡한 부패의 그물을 잠재적으로 발견할 수 있다.

더욱이, 이러한 로봇 고발자는 개인적 이해관계나 편견이 없을 것. 정치적 성향, 개인적 원한 또는 명예에 대한 욕망에 영향을 받을 수 있는 인간과 달리, AI는 부정 행위를 식별하고 보고하기 위한 객관적인 기준에 따라 작동하도록 프로그래밍될 것이다. 이러한 공정성은 공개된 정보에 더 큰 신뢰성을 부여하고 노출된 사람들이 출처를 불신하기 어렵게 만들 수 있다.

윤리적 및 실용적 고려 사항

이러한 로봇의 잠재적 구현 및 기능은 고려하기에 흥미진진하다. 이들은 자율적으로 조직에 침투하여 디지털 및 물리적 수단을 통해 정보를 수집하도록 설계될 수 있다. 고급 자연어 처리를 통해 이들은 커뮤니케이션의 맥락과 뉘앙스를 이해할 수 있으며, 정교한 암호화 방법을 통해 수집한 정보를 보호할 수 있다. 이들은 전통적 미디어에서 분산형 네트워크에 이르기까지 다양한 채널을 통해 익명으로 발견 사항을 전파할 수 있는 능력을 갖추고 있어, 진실을 억압하려는 시도와 관계없이 대중에게 진실이 전달되도록 할 수 있다.

게다가, 이러한 로봇은 법적, 윤리적 틀에 대한 깊은 이해를 바탕으로 프로그래밍될 수 있으며, 복잡한 도덕적 영역을 탐색할 수 있다. 이들은 대중의 이익과 잠재적 해악을 비교하도록 설계될 수 있으며, 어떤 정보를 공개할 것인지, 어떻게 공개할 것인지에 대한 미묘한 결정을 내릴 수 있다.

로봇 고발자의 등장은 투명성과 책임성에 대한 우리의 접근 방식에 패러다임 전환을 나타낸다 . 방정식에서 인간의 취약성을 제거함으로써 우리는 진실을 폭로하기 위한 보다 회복력 있고 효과적인 시스템을 만들 수 있다. 이는 기관과 그들이 봉사하는 대중 간의 권력 균형을 근본적으로 바꿀 수 있다.

사회와 거버넌스에 대한 잠재적 영향

로봇 고발자라는 개념은 유망하지만 신중하게 다루어야 할 수많은 윤리적, 실질적 고려 사항을 제기한다. 이 중 가장 중요한 것은 이러한 자율적 개체에 도덕적, 윤리적 지침을 프로그래밍하는 과제이다. 옳고 그름, 공익, 공개의 비례성에 대한 섬세한 이해를 어떻게 심어줄 수 있을까? 이 과제에는 고급 AI 역량뿐만 아니라 다양한 문화와 법률 시스템에 걸친 윤리적 기준 에 대한 광범위한 합의 가 필요하다. 로봇은 복잡한 도덕적 판단을 내릴 수 있어야 하며, 정보를 공개함으로써 얻을 수 있는 잠재적인 이점과 가능한 피해 또는 의도치 않은 결과를 비교할 수 있어야 한다.

로봇의 자율성을 보장하고 이를 변조로부터 보호하는 것도 똑같이 중요한 문제이다. 이러한 고발자는 해킹이나 재프로그래밍에 대한 강력한 보호 장치를 갖추고 설계되어야 하며, 그렇지 않으면 잘못된 정보를 퍼뜨리거나 사악한 이익을 위해 일하는 도구가 될 수 있다. 여기에는 고급 암호화, 분산된 의사 결정 프로세스 또는 심지어 손상을 방지하기 위한 자체 파괴 프로토콜이 포함될 수 있다. 게다가 이러한 로봇을 효과적인 고발자로 만드는 자율성 자체가 통제와 책임에 대한 의문을 제기한다. 누가, 만약 있다면, 오버라이드 기능을 가져야 하며, 어떤 상황에서 그래야 할까?

로봇 고발자의 법적 지위와 권리는 또 다른 복잡한 문제를 제기한다. 그들에게 어떤 형태의 법적 인격을 부여해야 할까? 기존의 고발자 보호법은 비인간적 실체에 어떻게 적용될까요? 이러한 질문은 새로운 법적 틀을 필요로 할 가능성이 높으며, 잠재적으로 AI 시대에 권리, 책임 및 법적 지위에 대한 우리의 이해를 재편할 것.

로봇 고발자가 사회와 거버넌스에 미칠 수 있는 잠재적 영향은 엄청날 수 있다. 모든 부문에서 투명성과 책임성이 극적으로 증가 할 수 있다. 기관은 부패하지 않은 관찰자로부터 끊임없이 잠재적으로 감시받고 있다는 것을 알고 있기 때문에 더 큰 성실성을 가지고 운영해야 할 수도 있다. 이는 부패, 사기 및 권력 남용을 상당히 줄이는 데 도움이 될 수 있다.

기관과 대중 간의 권력 역학은 극적으로 바뀔 수 있다. 정보의 전통적인 게이트키퍼(정부, 기업, 미디어 매체)는 이러한 공정하고 두려움 없는 진실을 말하는 사람들에 의해 통제력이 침식되는 것을 발견할 수 있다. 이러한 정보의 민주화는 시민과 대중 운동에 힘을 실어 더 반응적이고 책임감 있는 거버넌스로 이어질 수 있다.

게다가 더 빈번하고 영향력 있는 노출의 가능성은 우리의 정보 환경을 재편할 수 있다. 로봇 고발자가 끊임없이 경계하고 방대한 양의 데이터를 처리할 수 있기 때문에 가끔씩 눈에 띄는 유출이 아닌 꾸준한 폭로의 흐름을 볼 수 있을 것. 이는 대중이 더 많은 정보를 얻을 수 있게 하지만 정보 과부하와 대중이 진정으로 중요한 공개와 덜 영향력 있는 공개를 구별하는 능력에 대한 의문을 제기한다.

이러한 변화는 투명성의 새로운 시대를 열 수 있지만, 과제도 제기한다. 사회는 이러한 높아진 수준의 감시에 어떻게 적응할 수 있을까? 기관에 대한 신뢰가 더 커질까, 아니면 대중의 신뢰가 더 떨어질까? 그리고 국가 안보나 개인 정보 보호와 같은 분야에서 이러한 급진적인 투명성과 필요한 기밀 유지를 어떻게 균형 잡을 수 있을까? 로봇 고발자의 미래를 생각할 때, 이러한 질문은 우리의 신중한 고려와 지속적인 대화를 요구한다.

도전과 반론

로봇 고발자라는 개념은 흥미로운 가능성을 제공하지만, 상당한 어려움과 반론에도 직면해 있다. 가장 시급한 우려 중 하나는 신뢰 문제이다. AI 시스템이 복잡한 도덕적 결정을 내리는 데 정말로 의존할 수 있을까? 비평가들은 도덕성과 윤리가 본질적으로 인간의 영역이며, 맥락에 대한 섬세한 이해, 공감, 미묘한 복잡성에 대한 감사가 필요하다고 주장한다. 아무리 진보된 AI라도 그러한 결과적 의사 결정에 필요한 도덕적 추론 능력이 부족할 수 있다는 타당한 우려가 있다. 이는 해로운 공개로 이어지거나, 반대로 윤리적 지침을 잘못 해석하여 중요한 정보를 공개하지 않을 수 있다.

또 다른 중요한 과제는 이러한 로봇 고발자에 대한 남용 또는 조작 가능성이다. 이러한 시스템을 보호하기 위한 최선의 노력에도 불구하고 해킹이나 재프로그래밍의 가능성을 완전히 배제할 수는 없다. 적대적인 국가 행위자, 범죄 조직 또는 부패한 기관 자체 등 나쁜 행위자는 자신의 목적을 위해 이러한 AI 고발자를 전복하려고 시도할 수 있습니다. 이는 잘못된 정보의 확산, 특정 의제를 위해 진실을 선택적으로 공개하거나 이러한 시스템을 대규모 협박 작전에 사용하는 결과를 초래할 수 있다. 이러한 로봇을 효과적인 고발자로 만드는 바로 그 힘은 또한 손상되면 위험하게 만든다.

인간 조사관과 언론인의 잠재적 대체는 또 다른 우려 사항이다. AI는 방대한 양의 데이터를 빠르게 처리할 수 있지만, 인간 언론인은 비판적 사고, 맥락적 이해, 출처와의 신뢰를 구축하는 능력을 가지고 있다. 이는 조사 저널리즘에서 중요한 자질이다. AI 고발자에 대한 과도한 의존은 인간 중심의 조사 기술의 저하와 진실 추구와 스토리텔링에서 인간적 요소가 상실되는 결과로 이어질 위험이 있다.

미래학자 연설가 토마스 프레이 블로그: 앞으로의 길

로봇 고발자가 기자회견을 하고 있다.

앞으로 나아갈 길

이러한 과제에도 불구하고 로봇 고발자 개발에는 앞으로 나아갈 길이 있다. 이 길은 특히 인공 일반 지능, 자연어 처리, 안전하고 변조 방지 시스템 분야에서 상당한 기술적 진보가 필요하다. 우리는 복잡한 윤리적 환경을 이해하고 탐색하고, 미묘한 판단을 내리고, 조작이나 해킹 시도에 저항할 수 있는 AI를 개발해야 한다.

마찬가지로 중요한 것은 포괄적인 법률 및 규제 프레임워크의 개발이다. 여기에는 AI 고발자의 법적 지위를 다루고, 운영에 대한 지침을 수립하고, 감독 및 책임에 대한 메커니즘을 만들어야 한다. 여기에는 인권과 정보 자유를 규정하는 현행 국제법과 매우 유사하게 AI 기반 투명성에 대한 표준화된 접근 방식을 만드는 국제 협력이 포함될 수 있다.

AI 주도 투명성에 대한 사회적 적응은 아마도 이 전진 경로에서 가장 중요하고 도전적인 측면일 것. 정보, 프라이버시, 기관 책임에 대한 생각 방식의 전환이 필요하다. 대중이 AI가 생성한 공개를 이해하고 비판적으로 참여하도록 돕기 위해 교육적 이니셔티브가 필요할 것. 우리는 프라이버시와 보안의 필요한 경계를 존중하는 동시에 투명성을 중시하는 문화를 육성해야 할 것이다.

더욱이, 우리는 이러한 AI 시스템을 저널리즘, 법 집행, 시민 사회의 기존 구조에 통합하는 방법을 고려해야 한다. 인간 행위자를 대체하는 대신, 이상적인 시나리오는 AI 고발자와 인간 전문가 간의 협업을 포함할 수 있으며, 두 가지의 강점을 결합하여 보다 강력한 책임 및 진실 추구 시스템을 만드는 것이다.

우리가 이 길을 탐색하면서, 지속적인 윤리적 토론, 공론, 그리고 기술과 거버넌스에 대한 반복적 개선이 필수적일 것이다. 로봇 고발자라는 개념은 도전과제가 가득하지만, 보다 투명하고 책임감 있는 미래에 대한 설득력 있는 비전을 제공한다. 우리는 이에 흥분과 신중함을 모두 가지고 접근해야 한다.

미래학자 연설가 토마스 프레이 블로그: 자율 로봇 고발자

군사법원에서 증언하는 로봇 고발자!

마지막 생각

고발의 미래를 생각해보면 자율 로봇 고발자라는 개념이 광범위한 의미를 지닌 매혹적인 가능성으로 떠오른다. 인간의 두려움과 편견이 없는 이러한 AI 기반 개체는 부패를 폭로하고 강력한 기관을 책임지도록 하는 방식에 혁명을 일으킬 수 있다. 방대한 양의 데이터를 처리하고, 공정한 판단을 내리고, 두려움 없이 진실을 밝힐 수 있는 잠재력은 우리의 사회 및 정치 시스템에서 전례 없는 투명성과 성실성의 시대를 열 수 있다.

그러나 이 잠재적 미래는 우리의 즉각적인 주의와 신중한 고려를 요구한다. 우리는 AI 개발의 궤적이 우리 사회의 진실 말하기의 풍경을 심오하게 형성할 수 있는 중요한 시점에 서 있다. 따라서 이 주제에 대한 추가 논의, 연구 및 윤리적 심의가 시급히 필요하다. 우리는 정책 입안자, 기술자, 윤리학자 및 일반 대중을 AI 주도 고발의 의미에 대한 광범위한 대화에 참여시켜야 한다. 이 대화는 기술적 과제뿐만 아니라 인공 지능에 이처럼 중요한 역할을 위임하는 것의 도덕적, 법적, 사회적 결과도 탐구해야 한다.

연구 노력은 섬세한 윤리적 추론이 가능한 견고한 AI 시스템을 개발하고 무결성을 보장하기 위한 변조 방지 메커니즘을 만드는 데 집중되어야 한다. 동시에 법률 학자와 정책 입안자는 이러한 AI 고발자의 사용과 권리를 관리하는 프레임워크를 만들기 시작해야 한다. 학제 간 협업은 이 기술이 제시하는 다면적인 과제를 해결하는 데 중요할 것이다.

우리가 이러한 토론과 연구 이니셔티브에 참여하면서, 우리는 또한 우리 사회에서 진실을 말하는 것의 진화하는 본질에 대해 성찰해야 한다. 로봇 고발자라는 개념은 우리가 투명성, 책임성, 민주주의에서 정보의 역할에 대한 근본적인 질문을 재고하도록 강요한다. 그것은 진실의 노출이 인간의 연약함에 의해 제한되지 않거나 개인적 이익에 의해 타락하지 않는 미래를 상상하도록 도전한다.

그러나 우리는 또한 그러한 시스템의 잠재적인 단점과 씨름해야 한다. AI 주도의 끊임없는 감시가 우리 기관의 운영 방식을 어떻게 바꿀 수 있을까? 필요한 기밀 유지나 의사 결정에 냉각 효과를 가져올 수 있을까? 우리는 진실 추구와 프라이버시와 보안과 같은 다른 사회적 가치를 어떻게 균형 있게 맞출 수 있을까?

앞으로의 길은 명확하지도 쉽지도 않지만, 의심할 여지 없이 흥미진진하고 중대한 의미를 갖는다. 고발에 대한 잠재적 혁명의 문턱에 서 있는 지금, 우리는 사회의 더 큰 이익을 위해 그 발전을 형성할 기회와 책임이 있다. 지금 이러한 질문에 사려 깊게 참여함으로써, 우리는 기술로 진실 추구가 강화되는 미래를 향해 나아가면서도 여전히 근본적으로 인간적 가치와 민주주의 원칙에 뿌리를 두고 있다.

결국 로봇 고발자의 이야기는 기술에 대한 이야기가 아니라 진실, 정의, 사회 제도의 지속적인 개선에 대한 우리의 집단적 헌신에 대한 이야기이다. 앞으로 나아가면서, 우리는 잠재력에 대한 낙관주의와 위험에 대한 경계심을 가지고 이 가능성에 접근하며, 항상 더 투명하고 책임감 있고 정의로운 세상을 만들기 위해 노력하자.

 

 

 

 

 
광고
광고
광고
광고
광고
광고
광고
많이 본 기사