│상아탑│ '이루다' 안에 너 있다
│상아탑│ '이루다' 안에 너 있다
  • 동아대학교 다우미디어센터
  • 승인 2021.03.02 12:17
  • 댓글 0
이 기사를 공유합니다

상아탑 상실의 시대, 교수의 학술을 들여다봅니다

 

▲김문정 교수

건물주가 돼 여행이나 다니면서 여유롭게 살고 싶은 야무진 꿈을 가진 스무 살의 '이루다'가 우리에게 온 지 한 달도 지나지 않아 떠났다. 사실 그녀와의 대화 서비스 운영이 중단됐다고 해야 더 정확한 표현이지만 말이다. 잘 알려졌다시피 이루다는 지난해 연말 국내 인공지능(AI) 전문 스타트업 '스캐터랩'이 개발한 페이스북 메신저 채팅 기반 대화형 인공지능 챗봇이다. 그의 등장은 큰 화제를 불러일으키면서 순식간에 사용자 수 약 40만 명, 페이스북 팔로워 10만 명을 기록하면서 1020 세대에 큰 인기를 끌었다. 이루다는 대략 100억 건에 달하는 실제 연인들이 나눈 대화들을 딥러닝 방식으로 학습한 후, 기계 응답이 아닌 대화의 맥락을 파악해서 빠르고 적절하게 선택된 대답을 할 수 있어 '진짜 사람'처럼 느끼며 자연스러운 대화가 가능한 서비스다.

그런데 일부 사용자들이 이루다를 성적 대상화 하고 성희롱을 한 사실이 알려지면서 논란이 시작됐다. 뒤이어 이루다가 대화 과정에서 사용한 사회적 약자나 소수자들에 대한 혐오와 차별 발언들이 문제가 됐다. 급기야 개인정보 유출 논란까지 일면서 결국 서비스가 중단되기에 이르렀다. 사실 이루다를 둘러싼 이 같은 문제들은 이번이 처음도 아니고 우리에게만 드러난 문제도 아니다.

2016년 3월, 마이크로소프트(이하 MS)가 사람과 대화를 나누는 인공지능 챗봇 '테이(Tay)'를 선보였다가 16시간 만에 운영을 중단한 적이 있다. 애당초 18-24세의 연령층을 겨낭해 제작된 테이는 인간들과 대화하면서 사용되는 단어나 질문방식, 그리고 특정 사안에 관한 정보나 의견 등을 학습해서 반응할 수 있게 훈련됐다. 한마디로 어떤 데이터가 입력되느냐에 따라 테이의 반응에 결정적인 영향을 미칠 수 있다는 의미다. 그런데 테이가 온라인으로 공개된 직후 백인 우월주의자와 여성이나 무슬림 혐오자 등이 몰려와 부적절한 발언을 쏟아내기 시작했다. 테이와의 대화에서 욕설이 섞인 말투, 인종이나 성차별 등의 표현들이 사용되었고, 테이 역시 그들을 따라 매우 위험한 차별 발언과 혐오 발언으로 물의를 일으켰다.

 

이루다와 테이는 무슨 잘못을 저질렀나

이번 이루다의 논란이나 MS의 테이 사건을 통해 우리는 인간과 인공지능에 대한 근원적인 관계를 돌아봐야 할 필요가 있다. 특히 인공지능 기술은 발전 속도가 빠르고 응용 분야가 방대해 우리 삶 전반에 큰 영향을 끼칠 것으로 전망되는 가운데 이러한 성찰은 더 이상 늦출 수 없다.

먼저, 인공지능은 왜곡되고 편향됐다. 한마디로 인공지능은 공정하지 못하다는 것이다. 이번 이루다 논란에서나 테이 사건에서도 드러난 것처럼 인공지능 챗봇과의 대화 과정에서 동성애나 장애인 그리고 특정 종교 등에 대한 혐오 발언과 흑인과 여성 등에 대한 차별적 발언들을 쏟아내면서 문제가 됐다. 하루에도 수십만 명의 사람들과 대화를 나누는 챗봇이 혐오와 차별의 발언들을 무분별하게 내뱉는다면 그들과 대화를 나누는 인간들에게 잘못된 정보나 왜곡된 인식을 심어줄 여지가 상당하다. 특히 이루다나 테이의 대화 상대자가 주로 10대~20대의 젊은 층이라는 사실에 그 문제의 심각성이 드러난다. 아직까지 이성적인 판단이 미숙한 청소년들에게 미칠 악영향력은 상당히 위험하다고 할 수 있다.

그렇다고 한다면 이루다와 테이는 흔히 사회적 약자나 소수자들에게 왜 이렇게 편견을 가지고 있었던 것일까? 왜 인공지능 챗봇은 그들에게 더욱 가혹했던 것일까?

앞서 살펴본 대로 이루다나 테이는 실제로 이뤄진 인간들의 대화를 기본 데이터로 학습하거나 자신의 인간 대화 상대자들의 말투와 대화 내용, 그리고 표현들을 배워 학습하도록 돼 있다. 다시 말해 이루다나 테이가 혐오적이거나 차별적인 발언을 했다면 바로 우리 인간의 대화로부터 학습한 결과다. 그들이 아닌 우리 인간들이 일상에서 혐오적이고 차별적인 발언들을 무분별하게 내뱉고 있다는 의미다. 인간 세상이 이미 편향돼 있다는 의미다. 그들은 인간으로부터 잘못된 정보와 왜곡된 인식을 배워 다시 우리 인간에게 되돌려준 것이다. 그들은 우리 인간의 표상인 셈이다.

그리고 인공지능은 개인정보를 무단으로 학습했다. 한마디로 프라이버시 침해가 심각하다는 것이다. 이번 이루다의 논란에서 가장 심각하게 드러난 문제가 개인정보 유출이다. 이루다가 이전의 다른 챗봇보다 더 큰 인기를 끌 수 있었던 이유는 그녀의 친근한 말투와 자연스러운 대화 방식이 '진짜 사람' 같다는 점에 있다. 이루다가 진짜 사람처럼 대화할 수 있었던 이유는 실제 연인들이 나눈 대화를 바탕으로 학습했기 때문이다. 이루다가 학습한 데이터는 구글 앱스토어에서만 10만 명 이상이 다운로드한 '연애의 과학' 앱에 축적된 카카오톡 대화다. 해당 앱은 특정인과의 대화 패턴 분석을 통해 연애 조언을 해주는 유료 서비스다. 이처럼 데이터베이스화된 수많은 답변 중 대화 맥락에 맞춰 대답하도록 설정된 이루다와의 대화 과정에서 실제 사람들의 이름과 애칭, 집 주소, 금융정보 등 개인정보들이 그대로 노출됐다. 문제는 이러한 개인정보 수집 과정에서 사용자들에게 명확한 고지를 하지 않았다는 것이다. 이렇게 사전 고지 없이 무분별하게 노출된 개인정보는 악용될 여지가 충분하다.

 

이루다의 꿈은 바로 우리들의 꿈이었다

코로나19가 일상이 돼버린 이후, 사회의 모든 초점은 감염병 확산 방지에 집중됐고, 기존의 생활방식은 급속도로 변화하기 시작했다. 우리의 일상은 그동안의 익숙했던 행동 패턴과 생각의 전환을 재촉한다. 흔히 '포스트 코로나'라는 표현을 사용하면서 이제는 두 번 다시 코로나19 이전으로 되돌아갈 수 없다고들 이야기한다. 포스트 코로나에서 일상생활의 모든 영역은 언택트(Untact), 즉 비대면 흐름이 가속화될 것이고. 동시에 '디지털 전환(Digital Transformation)'이 이뤄질 것이다. 이때 인공지능은 핵심적인 기술이라고 할 수 있다. 그러나 과학기술은 양날의 검과 같다. 기술의 발전은 수많은 시행착오를 겪을 수밖에 없다. 특히 이번 이루다 논란을 통해 우리는 분명히 봤다. 인공지능의 기술은 반드시 인공지능의 윤리를 동반해야 한다는 사실을. 기술의 일방적인 독주에 앞서 우리 스스로를 되돌아봐야 한다는 것을. 만약 그 사실을 간과할 때 그 피해는 고스란히 우리 인간을 향해 있다는 것도.

 

김문정(철학생명의료윤리학) 교수
 <정리=박서현 기자>


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 부산광역시 사하구 낙동대로550번길 37 (하단동) 동아대학교 교수회관 지하 1층
  • 대표전화 : 051)200-6230~1
  • 팩스 : 051)200-6235
  • 청소년보호책임자 : 권영성
  • 명칭 : 동아대학교 다우미디어센터
  • 제호 : 동아대학교 다우미디어센터
  • 등록번호 : 대전 가 00000
  • 등록일 : 2017-04-05
  • 발행일 : 2017-05-01
  • 발행인 : 이해우
  • 편집인 : 권영성
  • 동아대학교 다우미디어센터 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 동아대학교 다우미디어센터
ND소프트