10살부터 배우는 MIT AI윤리
작성자
윤석진 기자
작성시간
2020-03-26
조회수
28

출처: 클립아트코리아


‘트롤리 딜레마’는 인공지능(AI) 윤리를 논하는 자리라면 어김없이 나오는 단골손님이다. 원래 내용은 이렇다. 브레이크가 고장 난 트롤리 기차가 선로 위를 달리고 있다. 이대로 가면 레일 위에서 일하는 근로자 5명은 반드시 죽는다. 이들을 살리려면 트롤리의 선로를 바꿔야 하는데, 다른 쪽 레일 위엔 1명의 인부가 있다. 당신은 어떤 선택을 할 것인가?

 

조사결과, 응답자의 89%는 방향을 바꿔야 한다고 답했다. 1명보다 5명의 목숨이 더 가치 있다고 판단한 것이다. 그런데 그 한 명이 바로 당신이라면? 대답이 바뀔지도 모른다. 5명의 목숨보다 내 목숨이 하나가 더 가치 있다고 판단할 수 있기 때문이다. 좀 극단적인 상황 설정이나 AI 시대에는 꼭 짚고 넘어가야 할 문제다. 예컨대 자율주행차를 산다고 치자. 이 차는 사람 대신 AI가 운전한다. 예비 차주는 마치 옵션을 고르듯, 위기 대처 프로그램을 선택해야 한다. 사고 시 보행자를 우선할지, 운전자를 먼저 보호할지 결정하는 것은 본인 몫이다. 그런데 모든 사람이 자기 보호를 우선한다면 보행자 안전은 엄청나게 취약해질 테고, 결국 인도는 텅텅 빌 것이다. 자율주행차가 언제 행인을 덮칠지 모르기 때문이다.

 

자율주행차에만 국한된 문제가 아니다. AI 서비스에는 많은 이해관계가 얽혀 있다. AI 서비스를 만든 개발자, 그걸 사용하는 기관, 일반 시민 등 이해관계가 상충할 여지가 크다. AI 보안 로봇이 공항에 도입된다면, 개발사는 큰돈을 벌고 공항은 비용을 절감할 수 있다. 반면 기존 안전 요원들은 일자리를 잃게 된다. 공항을 방문한 사람들은 의심을 살 만한 행동을 하지 않아도 검색을 당하는 불편을 겪어야 한다. AI가 신상 파악을 목적으로 모든 방문객의 안면 사진을 찍어 저장한다면 개인정보 유출까지 우려해야 한다. AI 기술이 발전하는 만큼, 아니 그 이상으로 AI 윤리가 중요한 이유다.


각국 정부와 국제기구, 글로벌 기업들은 어느 한쪽이 이익을 독점하고 나머지는 손해를 보는 일을 막는다는 취지로 AI 윤리 강령을 만들었다. 한·미·일, 유네스코, 경제협력개발기구(OECD), EC(유럽집행위원회), 구글, IBM, 카카오가 대표적인 예다. 구글의 경우 “사회적 이익을 도모하고, 편견과 차별을 최소화하고, 안전을 최우선에 두고, 개인정보 보호를 우선하며, 책임감 있게 개발하고, 원칙에 맞게 사용하는 것”을 강조하고 있다. 최근 로마 교황청은 ‘명성, 포용, 책임성, 불평부당, 신뢰성, 보안 & 프라이버시’ 등 6가지 원칙을 담은 AI 백서를 내기도 했다.

 

조금 복잡해 보이지만, AI 강령은 ‘악해지지 말자’는 말 한마디로 요약할 수 있다. 그러나 기업이 자신의 이익을 줄여 가면서 사회복지 증진에 이바지할 것이란 보장이 없다. 앞에선 착한 척하고 뒤로는 실익을 좇아 개인의 인권을 침해할 가능성을 배제할 수 없다. 이 때문에 자기 권리는 자기가 알아서 챙겨야 한다는 말은 AI 서비스를 이용하는 소비자에게도 해당된다. AI를 둘러싼 이해관계, 즉 AI 윤리는 기업의 사탕발림에 넘어가지 않을 힘을 길러 준다. 최근 이런 목적으로 만들어진 커리큘럼도 나왔다. 작년 8월 블레이클리 H. 페인(Blakeley H. Payn)은 MIT 미디어랩과 함께 ‘AI 윤리 커리큘럼’을 만들었다. 오픈 소스라 무료로 이용이 가능하고, 교육학술정보원(KERIS)이 낸 한글 번역본도 있다.

 

이 교재는 10~14세 학생을 대상으로 한다. 일반 윤리도 잘 모를 나이에 AI 윤리라니 좀 가혹해 보인다. 하지만 이 책의 저자는 각종 AI 서비스와 복잡한 윤리적 사고를 경험하기 시작하는 초중등 시절을 ‘골든타임’으로 본다.

 

교재의 저자는 “차에서 그냥 뛰어내리면 된다, 역주행하면 아무도 안 죽는다”는 등 딜레마 상황을 단순히 벗어나려는 아이들이 많아 트롤리 예시는 과감하게 뺐다. 대신 아이들이 일상에서 쉽게 접할 수 있는 소재를 넣었다. 교재는 샌드위치 레시피로 알아보는 데이터셋, 개-고양이 안면 인식에 따르는 AI 편향성, 유튜브에 얽힌 이해관계 등을 다룬다. 아이들이 즐겨 먹는 땅콩버터잼 샌드위치는 ‘AI 매트릭스’ 워크숍에 쓰인다. 빙고판 위쪽에 맛과 영양가, 판매 가격 등의 관심사를, 왼쪽엔 나(학생), 부모님, 생산자와 같은 이해관계자들을 죽 나열하고 해당란에 포스트잇을 붙이는 활동이다. 나의 경우 맛에 해당하는 칸에 포스트잇이 붙고, 부모님은 맛과 영양가, 생산자는 가격에 붙일 것이다. 아이들은 샌드위치 하나에도 여러 이해관계자가 존재하고, 각기 관심사가 다르다는 것을 이해하게 된다.

 

아이들에게 이해관계자를 파악하는 것은 생소한 일이다. 저자가 윤리 캠프를 열고 “유튜브의 이해관계자가 누구일까”를 물었는데 학생들은 평균 1.25명이 대답하는 데 그쳤다. 본인이 이해관계자라고 답한 학생이 대부분이고 잘 해야 부모님, 시청자에 한정됐다. AI 윤리를 배운 후에야 ‘시청자, 콘텐츠 크리에이터, 유튜브 회사(구글), 광고회사’ 등 다양한 답변이 나와 평균 3.19명으로 늘었다. 아이들은 이 캠프를 통해 구글이 AI 추천 알고리즘으로 맞춤형 영상과 정보를 제공하지만, 그 대가로 클릭을 유도해 광고 수입을 벌어들이고 있다는 사실을 알게 됐다. AI 윤리 교육은 AI가 나와 사회에 미치는 영향력을 이해하고, 사회 정의에 맞는 AI 기술을 개발하려면 어떤 노력이 필요한지 고민해 보는 계기를 제공한다.   



윤석진 기자 | drumboy2001@mtn.co.kr

머니투데이방송 교육산업 담당. 기술 혁신이 만드는 교육 현장의 변화를 관찰합니다. 쉬운 언어로 에듀테크 사업 동향을 가감 없이 전달합니다.  

댓글 (0)