이제 '설명가능한 AI' 연구가 필요하다"
"'인공지능(AI)의 겨울'이 다시 올 수 있다."
폴란드 바르샤바대학교의 정홍훈(39, Neo Christopher Chung) 컴퓨터과학과 교수는 "지금의 '블랙박스' AI는 정확도를 높이는 데는 한계가 있다"며 이같이 말했다. 현재 대부분의 AI는 정확도가 높지만 내부적으로 어떻게 작동되는지 파악하기 어렵다는 '블랙박스 문제'를 안고 있어 AI 연구를 급속히 위축시킬 수 있다는 지적이다.
정 교수가 언급한 'AI의 겨울'이란 AI 연구에 대한 관심과 자금 조달이 급격하게 감소하는 불황기를 말한다. 1974〜1980년과 1987〜2000년이 두 번의 겨울로 꼽힌다. 하지만 겨울이 있으면 봄이 오는 법이다. 정 교수에 따르면 2012년 캐나다 토론토대가 '딥러닝' 기법을 이용해 AI 이미지 인식률을 획기적으로 높이고 2016년 구글의 AI 알파고가 바둑 최강 이세돌과의 대결해 승리하면서 'AI의 봄'이 왔다.
정 교수는 "지금의 블랙박스 AI를 발전시키는 방법은 데이터를 더 많이 넣는 것"이라며 "그런데 데이터를 더 많이 학습한다고 AI의 편향성이 줄어들까"라고 지적했다. 그는 "블랙박스 AI에 대한 연구만 이어진다면 사회적으로 많은 문제가 생길 수 있다"며 AI의 의사결정 과정을 투명하게 알 수 있는 '설명가능한 AI(Explainable AI·XAI)' 연구의 중요성을 강조했다.
인공지능 분야의 최고 권위 학술대회인 'IJCAI(International Joint Conference on Artificial Intelligence)'에 참석하기 위해 귀국한 정 교수를 지난 8월 13일 서울 중구의 한 카페에서 만났다. 1969년부터 시작된 IJCAI는 전 세계의 AI 연구자가 모여 첨단 연구 결과를 공유하는 국제학술대회다. 제주국제컨벤션센터에서 지난 8월 3일부터 9일까지 일주일간 진행된 이번 학회에는 3000명 이상의 AI 전문가가 참여한 것으로 알려졌다. 다음은 정 교수와의 일문일답.
- IJCAI가 1969년에 창립됐다는 것에 놀랐다. 당시에도 AI라는 개념이 있었나. "AI에 대한 개념의 시작은 1950년으로 거슬러 올라간다. 당시 앨런 튜링은 '계산 기계와 지능'이라는 논문에서 '튜링 테스트'라고 불리는 AI 실험을 제안했다. 컴퓨터, 사람과 동시에 채팅을 하는 질문자가 어느 쪽이 컴퓨터이고 어느 쪽이 사람인지 판단할 수 없다면 컴퓨터에 지능이 있다고 보는 것이다. 튜링은 '인공지능의 아버지'라고도 불린다."
- 이번 IJCAI에선 어떤 얘기가 오갔나. "워낙 큰 학회라 정말 다양한 얘기가 나왔다. 저는 '설명가능한 AI의 개발'과 'AI 거버넌스'에 대한 논문을 발표했다. 학회에서 최초로 AI 거버넌스와 관련한 워크숍이 만들어진 것이 특히 좋았다. XAI는 새롭고 창의적인 생각을 많이 해야 하는 분야라 그런지 관련 워크숍에 젊은 연구자들이 많았다."
- 설명가능한 AI와 AI 거버넌스는 어떤 관계가 있나. "AI 거버넌스는 규제보다 더 광범위한 개념이라 볼 수 있다. 가이드라인을 만들고 사람들을 교육시키는 것까지 포함된다. 거버넌스를 하려면 AI가 뭘 하는지 알아야 한다. 그런데 뭘 하는지 모르는 블랙박스 AI를 어떻게 이해하고 통제할 수 있겠나. 그래서 AI가 설명 가능해야 한다는 것이 너무나 당연하다. 설명을 하지 못한다면 AI의 안정성이나 투명성에 대해 형식적으로 확인할 수밖에 없다."
- 주요 연구 분야가 궁금하다. "이미지나 유전자 데이터를 통해 질병을 예측하는 AI를 연구하고 있다. 예를 들어 컴퓨터단층촬영(CT)을 보고 더 빨리 암을 진단하거나 어떤 유전자가 변형돼 있을 때 어떤 병에 걸릴 확률이 높은지를 예측하는 것이다. 지금의 패러다임에선 예측의 정확도만 중요하게 생각하는데 나는 어떤 결정에 대한 설명이 필수적이라고 본다. 의사가 '당신은 암입니다'라고 할 때보다 '이런 부분 때문에 당신은 암입니다'라고 해야 진단에 대한 신뢰성이 높아지지 않나. 그동안 의료 분야에서 AI는 거의 쓰이지 않았다. 그런 측면에서 보자면 지금의 AI는 걸음마 단계인 것 같다."
- 왜 설명가능한 AI가 필요한가. "AI가 어떤 판단을 한 이유를 파악하고 오류를 수정할 수 있기 때문이다. 2015년 구글 포토는 아프리카계 미국인의 사진에 '고릴라들'이라고 태그를 잘못 지정해 논란이 됐다. 구글 포토의 이미지 인식 알고리즘이 흑인을 고릴라로 예측한 것이다. 2018년에는 글로벌 기업 아마존의 AI 채용 프로그램이 성별 격차를 강화해 도마 위에 올랐다. 남성 구직자를 우대하고 여성 구직자에 대한 편견을 보여줬던 이유는 남성 직원이 많았던 과거 채용 데이터를 기반으로 훈련됐기 때문이다. 이는 블랙박스 AI의 한계를 보여준다."
이와 관련 정 교수는 "영화 '마이너리티 리포트'가 현실화된 사례도 있다"며 "미국 로스앤젤레스의 경찰국(LAPD)은 누적된 범죄 데이터로 범죄가 일어날 지역을 예측해주는 프레드폴(Predpol) 시스템을 쓰는 과정에서 한계를 보였다"고 설명했다. "인종차별이 심한 시기의 데이터를 학습하다 보니 흑인이 많이 거주하는 지역을 범죄가 자주 일어나는 지역으로 판단했다. 경찰이 백인 거주 지역보다 흑인 거주 지역에 순찰을 더 많이 돌면서 편향성은 강화됐다. 같은 범죄가 일어나도 경찰이 없으면 안 잡히지 않나. 이렇게 블랙박스 AI로 인해 생기는 문제가 많지만 무엇이 문제인지조차 시간이 많이 지나야만 알 수 있다."
- 최근에 설명가능한 AI에 대한 관심이 높아진 것 같다. "AI 관련 규제들이 XAI 연구에 대한 일종의 트리거 역할을 한 것 같다. 미국의 바이든 정부는 지난해 10월 'AI 행정명령'을 내놨다. 유럽연합(EU)은 지난 3월 세계 최초로 'AI 규제법'을 통과시켰으며 지난 8월 1일 발효됐다. 이러한 가이드라인에 맞는 AI를 만들기 위해선 XAI 연구로 갈 수밖에 없다. 사실 XAI 개념이 나온 지는 그리 오래되지 않았다. 한 5년 정도 된 것 같다."
- AI의 규제와 혁신 중 무엇이 우선해야 하는가. "'브뤼셀 효과(Brussel Effect)'라는 말이 있다. EU의 규제가 세계의 규제로 자리 잡는 현상을 말한다. 2018년 EU가 일반개인정보보호법(General Data Protection Act·GDPR)을 실행한 이후 많은 나라들이 따라했다. 하지만 나는 혁신이 없는 규제는 말이 안 된다고 생각한다. 혁신이 있어야 규제할 것도 있는 것이다. 다만 벌금을 매기는 것만이 규제는 아니다. 지금은 AI에 관한 국민들의 지식을 높여야 할 때다. AI가 안전해야 한다, 투명해야 한다는 얘기는 하지만 어떻게 해야 그런 AI를 만들 수 있는지는 잘 모르지 않나."
- 인간의 지능을 뛰어넘는 범용인공지능(AGI)의 출현에 대한 우려도 나온다. "생성형 AI인 '챗GPT'가 확 뜨면서 인공지능이 사람의 지능과 같은 레벨에 온 것 같다는 느낌을 주는 듯하다. 그러나 블랙박스 문제를 가지고 있는 생성형 AI는 궁극적으로 AGI가 될 수 없다. 또한 AGI라는 개념은 굉장히 추상적이기 때문에 특이점(인공지능이 인간의 지능을 뛰어넘는 기점)이 오더라도 우리가 판단할 수 없을지도 모른다. 다만 인간에게 불이익을 줄 수 있는 '위험한 AI'가 만들어질 가능성은 100%라고 생각한다. 이스라엘은 전쟁에서 목표물을 정확하게 공격하는 AI 타기팅 시스템을 쓰고 있다. 어떻게 본다면 위험한 AI는 이미 현실화돼 있는 것이다."