현재 강력한 AI 시스템이 사회를 위협하고 있으며, AI 기업은 자사 제품으로 인한 피해에 대해 책임을 져야 한다고 AI관련 고위 전문가 그룹이 경고했습니다.이 같은 발언은 국제 정치인, 기술 기업, 학계 및 시민 사회 인사들이 다음 주 AI 안전에 관한 정상 회담을 위해 블레츨리 공원(Bletchley Park)에 모일 준비를 하는 가운데 등장했는데요. 23명의 AI 전문가들은 AI 시스템을 안전하게 만들기 전에 강력한 AI 시스템을 구축하는 것은 '무모한 일'이라고 강조했습니다. 캘리포니아 버클리 대학의 컴퓨터 공학과 교수인 스튜어트 러셀(Stuart Russell)은 "이제 고급 AI 시스템에 대해 진지하게 고민해야 할 때"라며 "이것은 장난감이 아니다. 안전하게 만드는 방법을 이해하기 전에 기능을 늘리는 것은 무모한 일"이라고 설명했습니다. AI 전문가들은 세계 각국의 정부에 다음과 같은 정책을 채택할 것을 촉구했습니다. 첫째, 정부는 AI 연구 개발 자금의 3분의 1을, 기업은 AI R&D 자원의 3분의 1을 안전하고 윤리적인 시스템 사용에 할당할 것. 둘째, 독립 감사관에게 AI 실험실에 대한 접근 권한을 부여할 것. 셋째, 최첨단 모델 구축을 위한 라이선스 시스템을 구축할 것. 넷째, AI 기업은 모델에서 위험한 기능이 발견될 경우 특정 안전 조치를 취할 것. 마지막으로 AI 시스템으로 인한 예측 가능하고 예방 가능한 피해에 대해 기술 기업이 책임을 지도록 할 것. 👉부주의하게 개발된 AI 시스템, 사회적 위협 될 것이 문서의 공동 저자로는 AI 연구로 2018년 노벨상에 해당하는 컴퓨터 과학상인 ACM 튜링상을 수상한 'AI의 대부' 제프리 힌튼(Geoffrey Hinton)과 요슈아 벤지오(Yoshua Bengio)가 있습니다.두 사람 모두 이번 서밋에 초대된 100명의 게스트 중 한 명입니다. 힌튼은 디지털 인텔리전스가 초래할 '실존적 위험'에 대해 경고하기 위해 올해 구글에서 사임했으며, 벤지오 몬트리올대 컴퓨터공학 교수는 지난 3월 그와 수천 명의 다른 전문가들과 함께 거대 AI 실험을 중단할 것을 촉구하는 서한에 서명한 바 있습니다. 해당 서한은 베스트셀러 <사피엔스>의 저자 유발 노아 하라리(Yuval Noah Harari), 노벨 경제학상 수상자인 다니엘 카네만(Daniel Kahneman), 토론토 대학교의 AI 교수인 쉴라 맥일리스(Sheila McIlraith), 중국 컴퓨터 과학자 앤디 야오(Andy Yao) 등이 공동 저자로 참여했습니다.저자들은 부주의하게 개발된 AI 시스템이 "사회적 불의를 증폭시키고, 직업과 사회적 안정을 약화시키고, 대규모 범죄 또는 테러 활동을 가능하게 하고, 사회의 근간이 되는 현실에 관한 이해를 약화시킬 수 있다"고 경고했습니다.그들은 현재의 AI 시스템이 이미 스스로 생각하고 행동하는 자율 시스템의 출현의 징후를 보이고 있다고 경고했습니다. 오픈AI가 개발한 챗GPT 도구를 구동하는 GPT-4 AI 모델은 화학 실험을 설계 및 실행하고 웹을 탐색하며 다른 AI 모델을 포함한 소프트웨어 도구를 사용할 수 있다고 전문가들은 말했습니다.이 문서에 포함된 다른 정책 권고 사항으로는 모델이 위험한 행동을 보이는 사건에 대한 보고 의무화, 위험한 모델이 스스로 복제하는 것을 막기 위한 조치 마련, 규제 당국에 위험한 행동을 보이는 AI 모델의 개발을 일시 중지할 수 있는 권한 부여 등이 있습니다.