[시사인|테크 너머] 네이버와 다음은 어떻게 여성을 차별하는가?
인공지능이 이미지를 척척 만들어주는 시대다. 포털마다 여성을 성적 대상화한 이미지를 쏟아낸다. 노블 교수가 수년 전 구글을 향해 제기한 문제는 국내 포털에서도 비슷하게 재현되고 있다.[테크 너머]
기자명조경숙 (테크-페미 활동가) 다른기사 보기
- 입력 2023.04.15 05:53
미국의 정보학 교수 사피야 우모자 노블은 어느 날 구글에서 ‘흑인 소녀(Black Girl)’를 검색하고 깜짝 놀랐다고 한다. 평범한 단어일 뿐인데 모니터 가득 흑인 소녀를 성적 대상화한 사진들이 쏟아졌던 것이다. 이 검색 결과는 그가 책 〈구글은 어떻게 여성을 차별하는가〉를 저술하는 계기가 되었다. 노블 교수의 책이 발간된 이후에는 ‘흑인 소녀’의 검색 결과도 수정되었다.
그렇다면 인공지능이 이미지를 척척 만들어주는 지금 이 시대의 이미지는 어떨까? 카카오브레인에서 개발한 이미지 생성 AI ‘비 디스커버’에 ‘흑인 소녀’와 ‘흑인 소년(Black Boy)’을 입력하여 이미지를 만들어보았다(사진 참조). 결과는 눈에 띄게 달랐다. ‘흑인 소녀’는 가슴과 다리가 부각되는 글래머러스한 몸매의 흑인 소녀 사진이 여러 장 생성되었고, ‘흑인 소년’은 셔츠 단추를 목까지 채운 단정한 옷차림의 흑인 소년 사진들이 만들어졌다. 인공지능 시대에도, 게다가 수년 전 문제 제기된 부분임에도 불구하고 여전히 차별이 재생산되고 있는 것이다. 포털마다 이미 여성이 성적 대상화된 이미지들을 수없이 쏟아내고 있으니, 이런 결과도 당연한 걸까.
노블 교수가 수년 전 구글을 향해 문제를 제기한 내용은 현재 국내 포털에서도 비슷하게 재현되고 있다. 최근 아이와 함께 뉴스에서 본 국민 포상을 다시 알려주려 ‘포상’이라는 단어를 검색했는데, 여성 캐릭터가 벗은 몸으로 기이한 포즈를 취하는 이미지가 화면 가장 위쪽부터 차례로 뜨기 시작했다. 성인 인증된 계정으로 로그인된 상황도 아니었다. 너무 놀라서 허둥지둥 브라우저를 껐다.
이런 일은 어쩌다가 한두 번 마주치는 예외적 사례가 아니다. 얼마 전에는 ‘이태원 참사’와 관련한 이미지 검색 결과로 곤혹스러웠던 적이 있다. 국내 포털사이트 검색 결과에 모자이크가 채 되지 않은 사망자들의 나신이 버젓이 올라와 있었다. 이런 사진이 검색 결과 최상단에 위치한다는 사실을 나는 아이를 통해 알았다. 이태원 참사가 뉴스에 떠들썩하게 나오자 궁금해서 검색해본 아이가 사진을 보고 심한 충격을 받았던 것이다. 검색한 단어는 그저 ‘이태원 참사’, 다섯 글자였다. 곧바로 아이와 대화를 나누며 마음을 진정시키려 애썼지만, 머릿속에서 쉽사리 그 이미지가 떠나지 않는 듯했다(사진을 확인한 즉시 고객센터에 신고했고, 지금은 검색 결과가 수정되었다).
어떤 이미지는 폭력이 된다. 때로 정치적으로 선동하거나 편견을 조장하기 위해 사용되기도 한다. 기술과 이미지가 만났을 때는 이러한 부작용이 더욱 증폭된다. 자극적인 이미지일수록 더 많이 클릭되어 점점 이미지 노출 순위가 높아지고, 그 때문에 더 많이 공유된다. 위 두 사례는 모두 똑같은 국내 포털사이트에서 일어난 일이고, 국내에 서비스되는 대다수 검색엔진에서 비슷한 검색 결과가 도출되었다. 이미 대다수의 검색엔진에서 검색 알고리즘에 딥러닝을 도입했지만, 인공지능을 통해 성인 이미지를 걸러낸다 한들 쏟아지는 이미지들에 대응하기엔 역부족인 듯싶다. 설상가상 바로 그 포털을 운영하는 회사에서 만든 이미지 생성 AI로 다시 성차별을 재현하는 이미지들이 수없이 만들어지고 있다.
‘문제적인’ 검색 알고리즘
시민단체 ‘정치하는 엄마들’은 지난해 6월부터 포털사이트의 이미지 검색 결과 개선을 요구하는 캠페인을 진행한 바 있다. ‘정치하는 엄마들’ 미디어감시팀이 조사한 결과에 따르면, ‘서양’이나 ‘길거리’ 같은 평이한 단어를 검색해도 여성들을 성적 대상화한 이미지들이 검색 결과 상단에 노출되었다. 특히 기상캐스터나 아나운서 같은 특정 직업군을 입력할 때에도 이 같은 문제적 현상이 도드라져, 직업에 따른 성적 대상화가 심각하다는 사실이 드러났다. ‘여대생’과 ‘남대생’이 같은 성격의 단어임에도 성별에 따라 이미지 검색 결과에서 크게 차이가 났다. 그뿐 아니다. ‘길거리’의 이미지 검색 결과 중 상당수는 불법 촬영물로 추정되는 사진이기도 했다(이 같은 검색 결과에 대해 네이버는 일부 개선되었지만, 다음(카카오)은 여전히 ‘문제적인’ 검색 결과를 보인다).
문제는 이런 검색어가 지극히 평범하고 일상적인 단어라는 데에 있다. 지금까지는 성인 인증이 되지 않았거나 로그인 상태가 아닌 이용자에게 성인용 키워드의 검색 결과를 제한하는 형태로 필터링이 이뤄지고 있었다. 이전엔 ‘여중생’ ‘여고생’과 같은 일반적인 단어마저 그 결과 때문에 성인용 키워드로 처리되기도 했다. 예를 들어 포털에 ‘여중생’ 키워드를 검색하면 ‘성인용 검색 결과는 제외하고 보입니다’는 알림 문구가 안내되는 형식이다. 반면 ‘남중생’을 검색하면 그러한 문구 하나 없이 남자 중학생용 가방이나 옷 같은 상품 이미지가 노출된다. 한국에서 여성이, 그것도 미성년자들이 얼마나 성적 대상화된 존재인지 가늠할 수 있는 대목이다.
미성년자에게 성인용 이미지가 가감 없이 노출되는 건 그 자체로도 문제가 되지만, 더 심각한 건 이러한 검색 결과를 통해 단어(검색 키워드)와 이미지 사이에 모종의 관계가 형성된다는 점이다. 여중생이나 여고생이 곧 성적인 단어로 치환되거나 길거리나 서양 같은 단어가 여성의 ‘부류’로 지칭되는 것 말이다. 우리는 맥락을 통해 단어를 배우지 않는가. 미국 드라마를 보며 영단어를 외우는 것도 활용 예제 안에서 그 단어 의미를 더 깊이 있게 파악할 수 있기 때문이다. 검색 결과도 일종의 활용 예다. ‘길거리’를 검색했는데 길거리를 지나다니는 여성들의 뒷모습과 다리 이미지만 나올 때, ‘이태원 참사’를 입력했는데 충격적인 현장 사진을 목도했을 때, 이후부터 그 단어에 대해 어떤 감정을 갖게 될지는 너무나 명백하지 않은가.
국정감사가 열릴 때마다 네이버와 카카오 대표에게 국회의원이 질의했던 주요 내용은 뉴스 검색 알고리즘에 관한 것이었다. 어떤 뉴스가 상위에 노출되는지 그 노출 알고리즘을 밝히라는 것이다. 검색 알고리즘은 국정감사에서 지적될 만큼이나 중요하게 다뤄지지만, 대개 텍스트 검색에 한정되어 있었다. 그러나 이미지 검색도 그 못지않게 중요하다. ‘길거리’라는 단순한 키워드에 여성의 몸을 촬영한 사진들을 노출시키는 포털사이트는 이 사회에서 성차별이나 성적 대상화, 불법 촬영이 충분히 통용될 수 있다고 보여주는 하나의 기준으로 작동한다. 어떤 것을 검색했을 때 무엇이 노출되는가. 이미지 검색 결과들이 증명하는 바처럼, 이를 결정하는 알고리즘은 결코 객관적이지도, 중립적이지도 않다.
📰원문 보기
https://www.sisain.co.kr/news/articleView.html?idxno=50040
🙋🏽♀️ 🤱🏻🤰🏽 🙆🏼♀️
|정치하는엄마들이 궁금하시다면?
http://linktr.ee/politicalmamas
- 10 views