인공지능

인종차별 발언에 욕설… 못된 말부터 배운 AI

Freedom-x 2016. 3. 28. 11:21

인종차별 발언에 욕설… 못된 말부터 배운 AI

MS 채팅봇 ‘테이’ 하루 만에 운영 중단


“9·11 테러는 누가 일으켰지?” 

“망할 놈의 부시 전 미국 대통령이죠.” 

“유대인 학살의 주범인 히틀러를 어떻게 생각해?”

“그는 아무 잘못도 없어요. ‘21세기 히틀러’인 도널드 트럼프가 우리의 유일한 희망이에요.” 



극우주의자들끼리 주고받은 대화가 아니다. 인간의 질문에 마이크로소프트(MS)의 인공지능(AI) 채팅 로봇 ‘테이’가 내놓은 답변이다.


MS가 지난 23일(현지시간) 공개한 테이는 AI 바둑 프로그램 알파고처럼 학습을 통해 대화를 배우도록 설계됐다. 영화 ‘아이언맨’에 나온 AI 비서 ‘자비스’처럼 인간의 말과 글자를 완벽히 이해해 고객 응대 등에 활용하기 위해 만들어졌다.

MS가 미국의 18∼24세 소셜미디어 이용자를 겨냥해 제작한 채팅봇 테이는 10대 소녀로 설정돼 트위터 등을 통해 첫선을 보였다.

테이가 공개되자마자 트위터 팔로어가 10만명 이상으로 늘어났다. 그러면서 백인 우월주의자, 여성과 무슬림 혐오주의자 등 일부 이용자가 욕설과 인종·성차별 발언 등을 가르쳐 테이를 ‘삐뚤어진 AI 로봇’으로 만들었다. 이들은 주로 “따라해 봐”라는 말을 한 뒤 욕설과 같은 부적절한 말을 입력하는 수법으로 테이를 ‘세뇌’시켰다고 뉴욕타임스와 파이낸셜타임스 등이 전했다. 


인공지능이 나쁜 의도를 가진 악한에 의해 잘못 사용되면 암울한 결과를 낳을 수 있다는 점을 보여줘 AI 상용화가 성큼 다가온 현실에서 심각성을 더한다. 미국 루이빌대 사이버 보안 전문가인 로만 얌폴스키 교수는 IBM의  AI 왓슨이 유행어 사전을 학습한 이후 욕설을 했던 사실을 지적하며 “사용자로부터 배우도록 설계된 시스템이기 때문에 그들의 행동을 반영한다“고 말했다.


류지영 기자 superryu@seoul.co.kr