블로그 티스토리
서울시 강남구 논현로 554 삼성빌딩 5층(역삼동 659-4)
5F, 554, Nonhyeon-ro, Gangnam-gu, Seoul, Korea


Tel. 02-6284-0195 / E-mail. intellicon@naver.com

10:00 - 18:00

Our Opening Hours Mon. - Fri.

02.6284.0195

Call Us For Consultation

Search
Menu
 

언론보도

Intellicon > 블로그  > 언론보도

누군가를 죽여야 하는 위급 상황…인공지능은 어떤 선택을 해야할까?

헤럴드 경제 3월 28일자에 실린 글입니다. (원문보기)

 

알파고 사태는 인공지능이 지식의 세계에서 인간을 능가하거나 적어도 비슷해질 수 있다는 것을 암시한다. 인공지능은 윤리적 도덕적 판단도 할 수 있을까? 단순히 보자면 수많은 도덕적 사례를 학습시키면 인공지능 역시 주어진 환경을 평가하고 선택하는 도덕적 행위자의 역할을 할 수 있다. 그러나 윤리와 도덕은 단순히 기계적으로 최적화할 수 있는 문제가 아닌 것 같다. 최근에 있었던 구글의 무인자동차 사고는 인공지능에 대한 도덕적 문제와 법적 이슈가 눈앞의 과제임을 시사한다.

이와 관련 프랑스 툴루즈 경제대 연구원인 J.F. 보네퐁의 논문이 2015년 10월 MIT 한 저널에 소개됐다. 다음 그림은 인공지능 자율자동차가 누군가를 죽여야 하는 급박한 상황을 나타낸다. 인공지능은 어떤 판단을 해야 하는가?

이 연구에서 대부분의 사람들은 여러 명을 살리는 쪽으로 인공지능을 만들어야 한다고 답했다. 한 명을 희생시키더라도 다수를 구하는 것이 좋다는 공리주의적 답변이다. 더 놀라운 것은 운전자가 희생되어도 좋다는 것이다. 이런 공리주의적 입장으로 인공지능을 설계하면 윤리적 문제를 피할 수 있을까? 우리는 그런 자동차를 구매하고 싶은가? 이제 우리는 곧 바로 딜레마 상황에 빠진다.

이 문제는 ‘트롤리 딜레마’라고 하는 유명한 윤리 논쟁에 뿌리를 두고 있다. 브레이크가 고장 난 전차(트롤리)가 달리고 있다. 선로 위에 있는 5명이 곧 전차에 치여 사망하게 된다고 가정하고 다음의 경우를 생각해 보자.

20160328000737_0 20160328000738_0

선로변경 문제(A상황)에서 대부분 사람들은 전차 방향을 변경시켜 5명을 살린다는 쪽으로 결정한다. 즉, 희생자의 수를 최소화 하는 공리주의적 입장에서 결정을 한다. 그런데 윤리적 도덕적 판단이 단순히 공리주의적으로만 작동하는 것이 아니다.

사람들은 육교문제에서는(B 상황) 쉽게 그런 공리적 결정을 하지 못하고 극심한 갈등을 겪는다. 기존 연구를 종합하면 도덕적 판단이 단순한 생명의 숫자만을 기준으로 하는 것은 아니다. 사람들은 위 두 딜레마 상황을 전혀 다르게 느끼며 복잡한 감정이 개입된다.

안토니오 디마지오 박사는 전두엽 손상을 입은 피니어스 게이지라는 인물의 연구를 통해서 도덕적 판단에서 이성적 요소 뿐 아니라 감정적 요소도 중요하다는 것을 오래 전에 지적했다. 미국 하버드대의 조슈아 그린 박사는 트롤리 딜레마 상황에서 인간이 판단을 할 때 상황마다 두뇌의 서로 다른 영역이 작동한다는 것을 뇌영상기법(fMRI)를 통해서 보여줬다.

선로변경의 문제처럼 상황이 이분법적이고 분명하며 객관적일 때는 이성적이 사고를 담당하는 뇌 부위가(배외측 전전두엽)이 활성화 한다. 반면에 육교의 딜레마처럼 이분법적 분리가 안되는 상황에서는 감정처리와 관계있는 뇌 부위(복내측 전전두엽)가 더 활성화 된다.

재미있는 것은 감정처리와 관련된 뇌 부위에 이상이 있는 환자는 정상인과 달리 어떤 경우에서든 공리적인 판단을 쉽게 내린다는 점이다. 한편 예일대의 아론 듀크 박사는 트롤리 딜레마와 술의 관계에 대한 연구를 했는데 술에 취하면 공리적인 판단으로 나아가기 쉽다고 한다. 도덕적 판단은 심사숙고에서 나오거나 고도의 이성적 작용의 결과물이라고 단정하기 어렵다.

실제 상황에서는 즉각적이고 본능적인 요소가 중요하다. 정상적인 사람의 도덕적 판단은 사회적 상호작용을 바탕으로 하는 이성과 감성의 종합물이다. 이 부분을 간과하면 인공지능의 도덕적 판단과 인간의 심적 상태가 불일치돼 딜레마에 빠진다.

법적인 관점에서는 ‘책임과 비난 가능성’의 문제로 연결되면서 국면은 더욱 복잡해진다.

인간의 도덕 판단은 산술적으로 계산하는 과정과는 다르며 훨씬 고차원적인 사고 과정인 동시에 타고난 인간의 본성에 뿌리를 둔다. 알파고를 능가하는 극한의 인공지능이 등장하더라도 도덕적 인공지능 문제에 대해서는 사회적 논의와 합의가 항상 선행돼야 한다. 이제 우리 모두 인공지능과 관련된 도덕과 법적 책임의 딜레마를 해결하기 위해 지혜를 모을 때다.