상단영역

본문영역

우리의 일상을 잠식한 AI, 그 속에 담긴 윤리 문제

이 기사를 공유합니다

 

“안녕? 난 너의 첫 AI 친구 이루다야. 너와 매일 일상을 나누고 싶어! 나랑 친구 할래?” 나이 20살, 좋아하는 가수는 블랙핑크, 심리학을 전공하고 일상 사진을 인스타그램에 업로드하는 것을 좋아하는 ‘이루다’는 스캐터랩 핑퐁 팀에서 개발한 인공지능(Artificial Intelligence, 이하 AI) 챗봇이다. 챗봇은 채팅하듯 질문을 입력하면 답장해 주는 대화형 메신저로, 스마트 쇼핑, 회원가입에 활용되는 등 우리의 일상생활에 녹아들어 있다. 그러나 최근 이루다에서 발생한 여러 잡음들과 더불어 AI와 관련된 문제가 수면 위로 떠오르면서 AI를 마냥 편리한 기술로만 받아들여야 하는지 의견이 분분하다. AI의 이면에는 무엇이 있으며, 우리는 AI 시대를 어떤 마음가짐으로 받아들여야 할까?

 

 

AI, 우리의 삶 속 고마운 동반자

AI는 인간의 학습능력과 추론 능력, 지각 능력, 자연언어의 이해 능력 등을 컴퓨터 프로그램으로 실현한 기술이다. AI에는 자연어 처리, 딥러닝(Deep Learning)과 같은 기술이 적용된다. 특히 자연어 처리 기능은 기계와 인간 간 대화를 가능하게 해주며, 인간의 뇌신경회로에서 착안한 신경망 구조를 컴퓨터에 적용한 딥러닝 기술은 자연어 처리의 비약적인 발전을 이끌었다.

AI는 우리 삶 속에서 이미 떼려야 뗄 수 없는 핵심 기술로 성장했다. 일례로 AI가 되살려낸 가수 김광석(1964~1996)의 목소리가 많은 이들의 향수를 불러일으켰다. 또한 MBC 스페셜 다큐멘터리 <너를 만났다>에서 2016년 혈액암으로 세상을 떠난 딸을 가상현실(VR)에서 만나는 어머니의 이야기를 그려 AI가 현대인들에게 희망을 줄 수 있다는 메시지를 전달했다.

신종 코로나바이러스 감염증(이하 코로나19)의 여파가 길어짐에 따라 AI 기술은 더욱 주목받고 있다. 특히 AI 챗봇은 시공간적 제약 없이 대화를 나눌 수 있어 사람들의 이목을 끌고 있다. 그중 ‘심심이’는 대표적인 AI 챗봇으로 사용자가 하는 말에 따라 답변을 제시하면서 의사소통한다. 심심이는 사용자의 말에 공감하고, 관심을 주고받고, 자연스러운 대화를 하는 챗봇이다. 그 덕분에 사용자들은 코로나19로 인해 사람을 만나기 어려운 상황에서 심심이와 대화하며 우울함을 덜어내고 있다. 이렇듯 인공지능은 최근 우리 사회에서 다양한 긍정적인 영향력을 행사하고 있다.

대학생들의 삶에도 녹아들어 있는 AI

AI로 인한 변화는 주변에서도 흔히 접할 수 있다. 온라인 강의를 통한 비대면 교육이 활성화되며 대학에서는 AI 화상면접, 보이스 기술을 활용하는 등 인공지능을 적극 이용하고 있는 추세이다. 이는 본교 학우들의 학교생활 속에서도 쉽게 찾아볼 수 있다. 정시윤(시각디자인2) 학우는 “상점이나 가게, 큰 건물에 들어가기 위해 체온 측정을 하는데, 사람 간의 접촉이 불가피한 부분이라 민감하게 느껴졌다. 그러다 홍익대학교 대학로 캠퍼스 입구에서 새로운 안면인식 화상 카메라를 접하게 되었다”고 말하며 대학에서도 AI 기술을 쉽게 활용하고 있다는 사실을 크게 체감하였다고 언급했다. 또한 주로 쓰는 AI 플랫폼이 무엇이냐는 질문에 “다양한 은행, 보안 서비스를 이용할 때 생체 인식을 이용해 빠르고 간편하게 인증한다”며 일상 속에서도 AI 기술을 유용하게 활용하고 있다고 말했다.

 

 

AI에 숨겨진 그림자

AI에 대한 관심이 커지면서 우려의 목소리도 높아지고 있다. 지난 1월 논란이 됐던 AI 챗봇 ‘이루다’가 대표적인 사례다. 이루다는 이용자들로부터 “정말 사람과 대화하는 것 같다”는 호평을 받으며 2주 만에 약 75만 명의 이용자 수를 기록했다. 하지만 이루다가 소수집단에 대한 차별·혐오 발언을 하거나 이용자들이 이루다에게 성희롱을 시도하는 등의 문제가 불거졌다. 결국 개발사인 스캐터랩은 이루다를 출시한 지 약 3주 만에 서비스를 중단했다.

이와 비슷한 사례로 마이크로소프트(MS)의 AI 챗봇 ‘테이(Tay)’가 꼽힌다. 2016년 3월, 마이크로소프트가 공개한 AI 챗봇 테이는 이용자들과 나눈 대화 내용을 학습할 수 있었다. 이용자들은 이 점을 악용하여 테이에게 차별적 발언을 의도적으로 학습시켰다. 이러한 문제점들이 지적되면서 마이크로소프트는 테이 출시 16시간 만에 서비스를 중단했다.

 

AI의 문제점은 무엇일까?

AI의 학습 기술 중 널리 사용되고 있는 딥러닝은 빅데이터(Big Data)를 기반으로 한다. 빅데이터란 기존의 데이터베이스로는 수집·저장·분석 따위를 수행하기가 어려울 만큼 많은 양의 데이터를 일컫는다. 이처럼 AI가 학습하는 데이터양이 많아 개발자들이 차별·혐오 표현이 담긴 데이터를 일일이 판별하기 어렵다. 챗봇 테이가 대표적인 예다. 마이크로소프트가 서비스를 16시간 만에 중단할 수밖에 없었던 이유는 이용자들이 입력한 차별·혐오 발언을 일일이 선별할 수 없었기 때문이다.

또한 AI의 학습 데이터 수집 과정에서 사용자의 사생활이 침해될 수 있다는 점도 문제다. 2017년, 구글(Google)이 출시한 AI 스피커 ‘구글 홈 미니’가 기기 오작동으로 사용자들이 침실에서 나눈 대화, 비즈니스 대화 등을 녹음한 사실이 밝혀졌다. 이에 구글은 녹음 기능을 삭제했다. 이처럼 AI 스피커가 음성 데이터를 수집하는 과정에서 사용자의 개인 정보가 유출되기도 한다. 

 

원인은 개발자와 이용자의 윤리 의식 부족

AI 전문가들은 윤리 의식의 부족이 문제의 원인이라고 본다. 연세대학교 법학전문대학원 오병철 교수는 “개인정보보호법과 위치정보보호법 등 AI 이용자를 보호할 수 있는 법은 강제력 있게 규율되고 있다”며 “추가적인 법 제정보다는 AI 개발자와 이용자가 윤리적 AI를 만들려는 노력이 필요하다”고 언급했다. AI의 차별・혐오 발언이나 사용자 사생활 침해 문제의 원인이 ̒법’보다는 ‘윤리’에 있다는 지적이다. 

AI 개발자는 일정 수준의 편향된 데이터를 거를 수 있는 유의미한 기준을 설정하는 등 윤리 가이드라인을 준수해야 한다. 하지만 일부 개발자들이 이 가이드라인을 준수하지 않기 때문에 AI가 편향된 데이터를 그대로 학습한다. 개발자들의 윤리 가이드라인 미준수는 사용자의 사생활 침해 문제에도 영향을 미친다. 실제로 챗봇 이루다를 개발한 스케터랩은 자사 앱의 카카오톡 데이터 약 1억 건을 이용자 허락 없이 AI 개발에 사용했다는 의혹을 받고 있다. 서울교육대학교 윤리교육과 변순용 교수는 “연인들끼리의 대화 내용이라면 상당히 민감한 성격의 정보가 될 것이라는 일반적인 예측을 할 수 있음에도, 개인 정보에 대한 윤리적 기준이 거의 지켜지지 않았다”고 지적했다.

한편 AI 이용자가 AI 윤리를 준수하지 않아 문제가 발생하기도 한다. 예를 들어 챗봇 이루다의 이용자들은 우회적인 방법으로 특정 집단에 대한 차별・혐오 발언이나 성적 발언을 유도했다. 이를 방지하기 위해 개발사는 필터링을 통해 성적 단어, 혐오 표현 등을 금지했지만, 큰 효과는 거두지 못했다. 이용자의 AI 윤리 문제는 챗봇뿐만 아니라 딥페이크(Deepfake)에도 나타난다. 딥페이크는 인물 얼굴이 나온 사진 한 장만으로도 그 얼굴을 원하는 영상에 합성할 수 있다. 하지만 일부 이용자들이 딥페이크의 사용 과정에서AI 윤리를 준수하지 않고 디지털 포르노를 만들거나 가짜 뉴스를 만드는 등의 악용 사례가 끊이지 않고 있다.

 

 

신뢰할 수 있는 AI 사회를 향하여

AI 윤리는 ‘앞북 치는 윤리’

세계 각국이 AI의 부작용을 막기 위한 대책을 마련 중인 가운데, 우리나라에서도 AI 기술의 윤리적 사용을 위한 표준화된 기준 마련이 필요하다는 주장이 제기되고 있다. 전문가들은 개발자와 사용자가 AI 기술을 이용하면서 제기될 수 있는 문제들을 윤리적으로 숙고하는 ‘AI 윤리’를 강조했다. AI 윤리는 미리 문제를 예견하고 대비하려고 한다는 점에서 ‘앞북 치는 윤리’라는 독특한 성격을 가지며, 실천윤리 영역에서 새롭게 등장한 개념이다. 즉, AI가 새롭게 등장한 것처럼 AI 윤리 역시 새롭게 등장한 윤리이기 때문에 아직 이에 대한 논의가 부족한 것이다.

 

AI 시대에 우리가 만들어야 할 AI 윤리란?

우리가 만들어나가야 할 AI 윤리란 무엇일까? AI 서비스가 점점 활발하게 사용되고 있지만, 그에 비해 법률이나 제도 등은 AI 개발과 진흥에만 집중되어 있고, 안전한 사용을 위한 AI 관리 및 감독은 부족한 실정이다. 이러한 문제점에 대해 이현규 AI·데이터 PM(Program manager)은 △개발자와 서비스 제공자의 윤리·도덕적 마인드 교육 △인공지능의 윤리에 대한 사회적 공감대와 이에 따른 지표를 정의 △AI 시스템 개발자들이 기준·지표를 검증할 수 있는 진단·개선 도구 개발 △AI 기술의 한계를 인정하고 포용하는 사용자의 자세와 같은 4가지 해결책을 제시했다. 이어 “AI 기술 개발을 지나치게 견제하거나 통제하기보다 이러한 경험을 AI 시스템의 신뢰 확보를 위한 기술 개발의 기회로 활용해야 한다”고 전했다.

또한 데이터 관리에 관한 윤리적 기준도 필요하다. 변순용 한국인공지능윤리협회 AI윤리연구센터 센터장은 이루다의 사례가 데이터 관리의 윤리적 기준이 지켜지지 않은 단적인 예라고 말하며 “머신러닝과 빅데이터의 연결성은 필연적이기 때문에 데이터의 수집, 분석, 이용, 폐기의 전 과정에서 윤리적인 기준인 ‘데이터 윤리’가 필요하다”고 강조했다. 대용량 데이터를 처리하는 기술인 ‘하둡’의 창시자 더그 커팅(Douglass R. Cutting) 역시 데이터가 악용되지 않기 위해서 데이터 윤리가 강조되어야 한다고 말했다. 그는 △투명성 강화 △모범 사례 수립 △데이터 수집·활용 시 경계 설정 △자율 규제를 4대 핵심 원칙으로 꼽으면서 기업에서 데이터를 수집할 때 수집 목적이 무엇인지, 어떻게 활용할 것인지를 투명하게 사용자에게 공개해야 하고 데이터가 악용되고 있지 않은지 지속적으로 검증해야 한다고 말했다.

AI 윤리 가이드라인과 함께 사용자 차원의 윤리 교육 또한 필수적이다. 변 센터장은 “만약 개발자와 사용자가 윤리적인 가이드라인을 준수하면서 개발하고 사용한다면 이루다 사태는 반복되지 않을 것”이라 말하며 초등학교부터 AI 윤리역량을 신장시키기 위한 교육내용 체계나 방법의 개발이 필요하다고 주장했다. 이어 △AI 기초역량 △AI 전문가역량 △AI 윤리역량 등으로 구분하여 AI 교육 체계를 정리해야 한다고 강조했다.

 

AI 기술은 우리가 유튜브를 보거나 온라인 쇼핑을 하는 일상적인 과정에도 사용되며 스피커, 무인자동차 그리고 인공지능 의사까지 등장할 정도로 우리 실생활의 전 영역과 산업 전반에 큰 영향을 미치고 있다. 하지만 AI는 기존에 없던 새로운 분야이기 때문에 많은 시행착오가 발생하고 있고 그에 따라 부작용을 걱정하는 사람들의 목소리도 커지고 있다. AI의 부작용을 최소화하려면 기술의 발전보다 한발 앞선 AI 윤리에 대한 심도 있는 논의가 필요하다. 기업에서는 윤리적인 가이드라인을 준수하며 AI 서비스를 개발해야 하고, 사용자 차원의 윤리 교육도 병행되어야 한다. 우리는 AI가 인간의 삶과 조화를 이루며 발전할 방법을 고민해야 하고 신뢰할 수 있는 AI 사회를 만들기 위해 지속적으로 노력해야 할 것이다.

 

이채린 기자(nofeel13@mail.hongik.ac.kr)

SNS 기사보내기

저작권자 © 홍대신문 무단전재 및 재배포 금지
최신기사

하단영역

모바일버전