본문 바로가기

관심사

성희롱·혐오논란에 3주만에 멈춘 '이루다'…AI윤리 숙제 남기다

728x90
반응형

 

인공지능(AI) 챗봇 '이루다'가 자연스러운 대화로 출시 직후 주목받았으나, 이내 혐오 발언이 발견되고 개인정보 유출 논란까지 불거지면서 20일 만에 서비스를 중단했다.

 

이루다 개발사인 스타트업 스캐터랩은 11일 늦은 오후 보도자료를 내 "(이루다가) 특정 소수집단에 차별적 발언을 한 것 등에 진심으로 사과드린다"며 "서비스를 잠정 중단하고, 차별·혐오 발언이 발견되지 않도록 개선하겠다"고 발표했다.

 

이루다 출시 일주일 만에 디시인사이드·아카라이브 등 남초(男超) 커뮤니티에서 이루다를 성적 대상으로 취급하며 '노예 만드는 법' 따위를 공유해 사회적 물의를 빚었다.

이루다 스스로도 구시대적 성차별 고정관념을 드러내고 동성애자·장애인·흑인을 혐오하는 태도까지 보이면서 각계에서 큰 비판을 받았다.

스캐터랩이 이루다를 개발하면서 이용자들 개인정보를 제대로 보호하지 않았다는 이용자들 불만도 제기됐다.

 

이후 이루다가 소수자·약자 혐오 발언을 뱉는 사례가 발견되고, 이재웅 전 쏘카 대표 및 한국인공지능윤리협회 등 IT업계·학계 전문가들이 "이루다 서비스를 중단해야 한다"고 목소리를 높이자 분위기가 바뀌었다.

개인정보보호위원회는 한국인터넷진흥원(KISA)과 함께 스캐터랩이 개인정보보호법 등 관련 법령을 어겼는지 사실관계를 확인하겠다면서 "자료를 요구하고, 필요하면 현장 조사도 나가겠다"고 발표했다.

 

AI 전문가들은 "결국 'MS 테이'처럼 해외에서 벌어지던 일이 우리나라에도 벌어졌다"며 씁쓸함을 감추지 못하고 있다.

MS는 2016년 3월에 AI 챗봇 테이를 출시했다가 16시간 만에 운영을 중단했다.

백인우월주의 및 여성·무슬림 혐오 성향의 익명 사이트에서 테이에 비속어와 인종·성 차별 발언을 되풀이해 학습시켰고, 그 결과 테이가 혐오 발언을 쏟아낸 탓이었다.

영미권 AI 알고리즘은 이른바 '화이트 가이 이슈'(백인 남성이 과잉대표되는 문제'에서도 아직 자유롭지 못한 상태다.

2018년 초 미국 매사추세츠공과대학(MIT) 발표에 따르면, 얼굴 자동 인식 알고리즘은 피부색과 성별에 따라 인식률에 차이를 보였다. 백인 남성은 98%의 정확도로 인식했는데, 비(非)백인 여성은 인식률이 70%에도 못 미쳤다.

 

전문가들은 "데이터와 알고리즘은 중립적일 수 없다"며 "AI 개발자가 윤리적 책임을 갖고 편향·차별·혐오가 없도록 지속해서 보완해야 한다"고 강조한다.

반응형