블루일베는 누가 만드나
몇 년 전 커뮤니티 사이트를 만들 때 이야기다. 당시 일베 회원들이 몰려와 악성 게시물들을 마구 올리는 바람에 이를 걸러내는 차단 프로그램을 만들어 사이트에 적용했었다. 이 시스템의 원리는 간단했다. 먼저 일베에서 흔히 쓰이는 단어들을 빈번히 사용하거나 글을 도배하는 등의 활동을 하는 회원을 탐지하여 조용히 차단한다. 여기에다 사이트 이용자들이 신고하는 악성 게시물의 주요 단어를 파악해 스스로 학습하여 차단에 활용하도록 만들었다. 일종의 기계학습 원리를 적용한 것이었다. 무엇을 악성 게시물로 볼 것인가에 대한 판단을 대중에게 맡길 경우 편파적으로 쏠릴 수 있다는 걱정도 있었다. 하지만 게시판 사이트는 공론의 장이라기보다는 ‘파티장’에 가깝고, 대체재가 늘 있기 때문에 어느 정도 한쪽으로 쏠려도 괜찮다는 것이 나의 견해였다. 이에 대중 투표에 의한 선호도도 차단 시스템에 적극 반영되게끔 프로그래밍하였다.
이 시스템은 당시 회원들의 큰 지지를 얻었다. 안 그래도 극성스러운 일베 회원들을 로봇이 사람의 수고 없이 알아서 차단해주니 기특하다는 평가가 많았다. 그러나 이 체계는 훗날 전혀 다른 비판을 받았다. 여성혐오에 저항하는 목소리가 터져 나오던 작년, 여성혐오의 정당성을 주장하던 남성 회원들이 투표에 의해 대거 차단되었다. 이에 ‘개발자가 우리를 보호하지 않고 차단을 방조했다’는 항의가 마구 쏟아져 들어왔다. 그들에게는 이 차단 시스템이 매우 괘씸했던 것이다. 그렇다고 해서 차단당한 그들의 뜻을 반영해 필터링 시스템을 수정하여 이들을 보호하도록 코드를 바꾸었다면 어땠을까? 그 또한 중립을 깼다는 비난을 받았을 것이다. 어느 쪽이든 중립적이지 않다. 정치적 쟁점의 맥락을 두루 사유하고 해석하여 판단하는 것은 여전히 사람의 몫이다. 당시 나는 ‘김치녀’ ‘페미나치’ 등을 외치는 이들이 빠르게 도태되어야 한다는 쪽을 선택했고, 그런 이유에서 차단 시스템을 그대로 두었다. 이런 분쟁이 발생할 때마다 개발자는 무엇이 더 올바를지 스스로 고민하여 시스템을 고칠지 말지를 선택해야 한다.
페이스북이 한국 여성들을 김치녀로 지칭해 조롱하는 페이지를 그대로 방치하면서 여성혐오에 저항하는 게시물은 적극적으로 삭제한다는 비판이 일고 있다. 이 때문에 페이스북의 파란색을 따서 ‘블루일베’라고 부르는 이들도 있다. 이달 초 페이스북코리아가 해명을 내놓았다. 사람이 판단한다 하더라도 비속어가 들어가 있거나 악성코드 웹주소와 비슷해서 실수로 지웠을 가능성도 있고, 로봇의 판단에 상당수 의존한다는 것이다. 이렇듯 많은 아이티(IT) 회사들이 정치적 논란에 대한 책임을 종종 기술과 로봇, 프로그래밍에 떠넘기곤 한다. 어떤 곳은 로봇이 뉴스를 고르기 때문에 객관적이라며 신뢰해달라고 한다. 또 다른 곳은 로봇이 글을 고르기 때문에 미숙한 점이 있으니 좀 봐달라고도 한다. 그 기술을 활용한 이도, 로봇을 만든 이도, 프로그래밍을 한 이도, 부족한 부분을 알면서도 방치하는 결정을 내린 이도 실은 모두 사람이다. 사람이 한 일인데 로봇 탓으로 돌리는 것이다. 21세기에는 이렇게 로봇 뒤에 숨는 새로운 비겁자들이 더욱 늘어날 것이다. ‘블루일베’의 책임 전가마저도 어쩐지 일베의 그것과 닮아 있다. 그 로봇을 만들고 그렇게 돌아가도록 가만히 둔 사람이 어딘가에 늘 있다는 사실을 우리는 항상 떠올려야 한다.
한겨레 2030 잠금해제 칼럼