생활
숩숩숩
인공지능과 관련된 윤리 가이드 라인의 주요 내용은 무엇인가요 ?
안녕하세요, 인공지능 (AI ) 기술 발전과 관련하여 최근 발표된 윤리 가이드라인의 주요 내용은 무엇인지 궁금하여 질문 드립니다 ^^
1개의 답변이 있어요!
에미스 하사비스와 일론 머스크 등이 17년에 발표한
아실로마 인공지능 원칙(Asilomar AI Principles)가 대표적인 사례 입니다
연구이슈 5개
윤리와 가치 13개
장기 이슈 5개 의 3개 범주로 분류되어있습니다.
안전 : 인공지능 시스템은 작동 수명 기간을 통틀어 안전하고 안정적이어야 하며,
어떤 경우에 적용,구현이 가능한지 검증할 수 있어야 한다.
2. 장애 투명성 : 인공지능 시스템이 피해를 유발할 경우, 그 이유를 확인할 수 있어야 한다.
사법 투명성 : 사법적 결정에서 자동시스템이 개입할 경우, 권한이 있는 감사 당국에 만족할 만한 설명을
제공해야 한다.
책임성 : 첨단 인공지능 시스템 설계자 및 구축자는 인공지능의 이용, 오용 및 행동의 도덕적 영향력에서
이해 관계자이며, 그에 따르는 책임과 기회를 갖고 있다.
가치 정렬 : 고도의 자동 인공지능 시스템은 작동하는 동안 그 목표와 행동이 인간의 가치와 잘 어우러지도록
설계돼야 한다.
인간의 가치 : 인공지능 시스템은 인간의 존엄, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되고
운용돼야 한다.
프라이버시 : 인공지능 시스템에 데이터를 분석·활용할 수 있는 권한을 부여할 경우, 사람에겐 그 데이터에 접근,
관리, 통제 할 수 있는 권리를 줘야 한다.
자유와 프라이버시 : 개인 데이터에 대한 인공지능 적용이 사람들의 실제 또는 스스로 인지하는 자유를 부당하게
축소해서는 안된다..
공동의 이익 : 인공지능 기술은 가능한 한 많은 사람들에게 이로움을 줘야 한다.
공동의 번영 : 인공지능이 만들어내는 경제적 번영은 널리 공유돼, 모든 인류에게 혜택이 돌아가도록 해야 한다.
인간통제 : 인간은 인공지능 시스템에 의사결정을 위임할지 여부와 그 방법을 선택해, 인간이 선택한 목표를
달성하도록 해야 한다.
비전복 : 고도화된 인공지능 시스템을 통제함으로써 갖게 되는 힘은 사회의 건강도를 좌우하는 사회적,
시민적 절차를 뒤집는 것이 아니라 존중하고 개선해야 한다.
인공지능 군비 경쟁 : 치명적인 자동 무기에 대한 군비 경쟁은 피해야 한다.
정도가 가장 근본적입니다.
앞으로 더욱 AI 사용ㅇ화에 따라 지속적으로 이슈화될 문제이고
트롤리 딜레마와 같은 윤리적 딜레마 극복을 위해
좀더 적극적인 가이드라인 정립이 필요하다 생각됩니다.