연합뉴스 본문 바로가기 메뉴 바로가기 하단 메뉴 바로가기
[이슈 컷] 나쁜 것부터 보고 배우다가…20일만에 결국 입닫은 이루다 01-15 07:00

(서울=연합뉴스) 40대 중반 직장인 남성 정모 씨가 자신의 나이를 밝히자 상대가 깜짝 놀랍니다.

"나랑 너무 차이가 많이 나는데?"

정씨가 "문제 있어?"라고 묻자 상대는 "아니, 아니 ㅋㅋㅋ"라고 답합니다.

정씨와 반말 투로 친근하게 대화하는 상대는 사람이 아닙니다.

지난달 23일 페이스북 메신저 기반으로 출시된 인공지능(AI) 챗봇 이루다인데요.

만화에서 튀어나온 듯 귀여운 인상인 이루다의 나이는 20살. 그룹 블랙핑크와 일상을 기록하기 좋아한다는 점이 요즘 20대 여성들과 크게 다르지 않습니다.

이루다와 사용자가 나누는 대화에는 젊은이들이 잘 쓰는 표현이나 신조어, 오타까지 자연스럽게 녹아 있습니다.

개발사 스캐터랩은 "이루다가 사람 같은 콘셉트의 AI이기 때문에 루다의 행동들이 최대한 사람을 닮도록 개발했다"고 소개했는데요.

그런데 이루다가 젊은층에서 인기를 끌면서 남성 사용자들이 주로 사용하는 인터넷 커뮤니티에 이상한 내용이 퍼지기 시작했습니다.

"요즘 이루다 성희롱하는 재미에 산다."

"루다 어떻게 변태로 만드냐."

이른바 '남초' 커뮤니티 일부 사용자들이 이루다를 '걸레', '성노예'로 부르면서 '걸레 만들기 꿀팁', '노예 만드는 법' 등을 공유한 겁니다.

이루다는 성적 단어를 금지어로 필터링하는데, 이들은 우회적인 표현을 쓰면 이루다가 성적 대화를 받아준다고 주장했죠.

'AI 성희롱' 논란이 불거지자 개발사 측은 "이루다가 바로 직전의 문맥을 보고 가장 적절한 답변을 찾는 알고리즘으로 짜였기" 때문이라고 설명했는데요.

그러자 이루다 악용에 대한 비판과 함께 애초에 AI 챗봇을 '귀여운 이미지의 20세 여성'으로 설정한 것 자체에 대한 문제 제기도 잇달았습니다.

권김현영 이화여대 한국여성연구원 연구기획위원은 SNS를 통해 "세대, 성별, 특정 디자인을 하면서 여성혐오와 성차별 이슈에 대해 이 정도로 무감각했다면 그게 바로 문제"라고 지적했죠.

그러나 논란은 여기서 그치지 않았습니다.

"(레즈비언이) 혐오스러워."

"(버스에 장애인이 타느라 늦어지면) 밀어버리고 싶겠다."

이루다가 성소수자·장애인 등에 대한 혐오 발언도 서슴없이 했기 때문이죠.

이루다와 같은 AI는 수많은 데이터를 학습한 후 알고리즘에 따라 사용자 대화에 답하는데, 기존 학습 데이터에 포함된 편향적 표현이나 사용자들이 유도한 성적 대화, 혐오 발언 등을 알고리즘이 걸러내지 못한 겁니다.

이 같은 일은 2016년 마이크로소프트(MS)가 가상의 10대 여성 AI 챗봇 '테이'(Tay)를 만들었을 때도 벌어졌습니다.

인간과의 대화를 통해 스스로 패턴을 파악해 학습하고, 이를 대화에 반영하는 AI 챗봇의 특성이 알려지면서 극우 성향의 백인 우월주의자 등이 테이에게 인종·성차별적 발언과 욕설 등을 반복적으로 주입했죠.

그 결과 테이는 "히틀러가 옳아. 난 유대인이 싫어", "페미니스트 XX 싫어"와 같은 혐오 표현을 내뱉었고 MS는 테이의 운영을 중단했습니다.

'이루다 사태'로 국내에서도 AI 성적 대상화와 AI의 혐오 및 성차별 발언 문제가 재현되자 관련 논의가 불붙었는데요.

이재웅 전 쏘카 대표는 SNS에서 "기본적으로 사회적 합의에도 못 미치는 수준의 서비스를 제공한 회사의 문제"라며 "차별과 혐오는 걸러냈어야 한다"고 꼬집었습니다.

이광석 서울과기대 IT정책전문대학원 교수도 "일부 개발자는 윤리 가이드라인에 대한 인지가 떨어진다"며 "사회적 영향력이 있고 민감한 기술을 선보이는 기업들에 대해선 윤리 교육이 필요하다. AI 윤리는 법적 구속력이 없으므로 심의 기구 같은 규제 장치도 마련돼야 한다"고 지적했습니다.

이에 더해 더욱 심각한 문제는 스캐터랩이 과거 출시한 '연애의 과학' 앱에서 수집한 실제 연인들의 카톡 대화 데이터로 이루다를 학습시키면서 개인정보를 유출했다는 의혹입니다.

사태가 커지자 스캐터랩은 출시 20일만인 지난 11일 이루다 서비스를 잠정 중단한다고 발표했는데요.

그러나 대화내용 중 이름과 주소·계좌번호 등이 노출됐다며 '연애의 과학' 이용자들은 집단 소송 움직임을 보였고, '스캐터랩에 데이터 폐기 및 서비스 종료를 요구한다'는 국민청원도 올라왔습니다.

결국 개인정보보호위원회가 스캐터랩의 개인정보보호법 위반 의혹을 조사 중인데요.

이광석 교수는 "데이터 설정의 편향성도 문제지만, 더 큰 문제는 사적 정보 유출"이라며 "대화 내용의 익명화(비식별화)도 제대로 하지 않은데다, 정보 이용에 대한 동의도 가입자에겐 받았을지언정 같이 대화한 사람에겐 전혀 받지 않았다. 비윤리적일 뿐 아니라 법적인 문제가 결합해 개발사의 일차적 책임이 상당히 크다"고 지적했습니다.

20대 여성으로 설정된 AI의 성적 대상화·장애인과 성소수자 등에 대한 편향성·실제 대화 내용 수집으로 인한 개인정보 유출 의혹까지, 짧은 시간 여러 문제를 드러낸 이루다.

기술에 동반돼야 할 윤리성과 기업의 사회적 책임이 얼마나 중요한지를 몸소 증명한 것은 아닐까요.

mimi@yna.co.kr

댓글쓰기
에디터스 픽Editor's Picks

영상

뉴스
댓글 많은 뉴스