미디어 담론에서 특정 집단이 거의 표상되지 않는 현상을 설명하는 개념 중 하나가 ‘상징적 소멸 (symbolic annihilation)‘이다. 이는 미국 커뮤니케이션 학자 조지 거브너 (George Gerbner)가 고안한 개념으로 주류 미디어가 특정 범주의 사람들, 특히 소수 정체성을 가진 이들을 거의 재현하지 않는 현상을 지칭한다. 미디어라는 상징적 공간에서 특정 집단이 보이지 않는다는 것인데, 미디어 담론 속 ‘부재(不在)‘는 이용자 의식에서도 해당 집단의 존재가 사라지게되는 결과를 초래한다. 물론 여기서 소수 집단이란 수의 많고 적음을 의미한다기보다 사회적, 정치적, 경제적 자원이나 영향력에서상대적으로 약하거나 낮은 위치에 있는 집단을 의미한다. 상징적 소멸은 ‘과소재현(under-representation)‘과도 연결되는데, 미디어 담론은 소수 집단의 존재를 실제보다 더 미미하게 다툼으로써 그들의 사회적 가치를 축소한다. 상징적 소멸이나 과소재현은 ‘소수성‘이 여러 번 중첩되는 집단을 상대로 더 심각하게 발생한다. 예컨대 여성 중에서도 연령이 많거나, 소수 인종이거나, 장애를 가졌거나, 성 소수자에 해당하는 사람들의 모습은 미디어에서 더더욱 찾아보기 어렵다. - P148
예멘 난민 보도는 타자에 대한 ‘정형화된 미디어 담론‘의 대표적사례다. ‘정형화(stereotyping)‘란 어떤 대상, 특히 잘 알려지지 않은낯선 소수 집단을 몇 가지 고정관념을 중심으로 표상하는 것을 의미한다. 고정관념은 특정 집단의 특징에 대한 일반적이고 추상적인 지식인데, 정형화란 집단 전체의 일반적인 특징을 구성원에게예외 없이 동일하게 적용하는 것을 말한다. 고정관념은 정보를 효율적으로 처리하는 데 도움을 주지만 하나의 기준으로 사람들을분류하거나 특정 집단에 속한 모든 사람들에게 동질적인 특성을부여하는 것은 많은 문제를 초래할 수 있다. 무엇보다 고정관념은 다른 사람에 대해 미처 알기도 전에 선험적으로 어떤 판단을 내리게 한다는 점에서 위험하다. 복잡하고 다채로운 특성을 가진 사람을 하나의 대표적인 속성으로 단순화하다 보니, 한 집단 안에 존재할 수 있는 다양한 차이(diversity in diversity)를 무시하거나 간과하는오류도 범하게 된다. 고정관념에만 의존할 경우 소위 허위 조작 정보(disinformation)에도 취약해질 수 있다. 어떤 대상에 대한 고정관념이 강할 경우 그와 다른 정보를 접하게 되더라도 사람들은 그것을 예외적인 상황이라고 생각하고 주목하지 않는다. 반대로 해당 집단에 대한 허위조작 정보라도 이미 가지고 있는 고정관념에 일치한다면 의외로쉽게 수용한다. 예컨대 우리가 이주 외국인에게 흔히 갖는 고정관념 중 하나가 ‘우범자‘라는 인식이다. 선행 연구(예: 박상조 · 박승관,2016)에 따르면, 외국인 범죄의 경우 실제 발생 비율보다 언론에 보도되는 비율이 훨씬 높다고 한다. 이처럼 미디어는 소수 집단 자체는 과소재현하면서도 소수 집단의 부정적 특성은 과도하게 부각하는 모순된 양상을 나타낸다. 이주 외국인을 우범자로 인식하는 부정적 고정관념은 이러한 미디어 담론에 기인하는 바가 크다. - P152
이제 세 번째 논점을 살펴보자. 다양성을 저해하는 미디어 담론의 또 다른 특성인 소위 ‘갈등 지향성‘ 문제다. 사회의 다양성이 높아질수록 필연적으로 여러 양상의 갈등이 생겨나고 집단 간 대립도 심화될 수 있다. 한편으로 갈등은 그 자체로 큰 비용을 유발하는 사회 문제이기도 하지만, 다른 한편으로 다양성이 살아 있는 포용적인 사회로 진보해나가기 위해 어쩔 수 없이 겪어야 하는 과정이기도 하다. 그렇다면 미디어는 다양성 사회에서 수반되는 갈등을 어떻게 다루고 있을까? 많은 연구에 따르면, 미디어는 표면적인 갈등 현상 자체를 부각하며 당사자 간 대립을 실제보다 더 심각한 것으로 과장하는 경향을 보인다. 갈등의 본질적인 원인을 심층적으로 규명하고 사안을 둘러싼 여러 의견을 전달하면서 합리적으로 갈등이 해결되도록 이끌기보다는 갈등을 과잉 재현하거나 부추기는 방식으로 보도하는 것이다. 갈등 지향적인 미디어 담론은 ‘왜 갈등이 발생했는지‘를 시민들에게 설명하기보다 대립과 반목 자체만을 주목하게 하여 피로감과 냉소를 유발한다. - P156
언론이 사안의 성격과 관계없이 정파적인 극화(polarization) 보도를 하는 것도 다양한 의견 사이의 건강한 토론을 저해한다. 극화된 보도를 계속 접하면 이용자는 이슈의 본질과는 상관없이 정파적 시각에서 입장을 정하게 되기 때문에 여론은 더 심하게 양극화될 수 있다. 갈등 지향적인 미디어 담론을 접하며 이용자는 ‘차이‘를 성가신 것으로, ‘이견 간의 논쟁‘을 비생산적인것으로 인식할 수 있다. 마치 다양성 자체가 이렇게 불편한 갈등을 만들어내는 원인인 것처럼 오해할 우려도 있다. 사실은 다양성이문제가 아니라 다양성을 포용하지 않는 것이 갈등을 만들어내고 있는데도 말이다. - P157
추천알고리즘에 대한 디지털 플랫폼 이용자들의 의존도가 높아지면서자기 선택이 아닌 알고리즘의 선택을 따라가는 경향이 커지고 있기 때문이다. 검색 엔진. OTT 콘텐츠 큐레이션, 뉴스 추천, 소셜미디어의 친구 추천 등 다양한 플랫폼의 알고리즘은 이용자에게 맞춤형 정보와 서비스를 제공한다. 이는 대규모 이용자 정보를 분석하여 분류하고 예측하는 인공지능 기술에 기반하는데, 알고리즘은 이용자가 가장 선호할 만한 콘텐츠를 추천함으로써 플랫폼에머무르는 시간을 최대화하는 방식으로 작동한다. 이렇듯 추천 알고리즘에 의존해서 개인화된 콘텐츠를 지속해서 소비하게 되면 어떤 결과가 나타날까? 결국 이용자들이 경험하는 정보나 관점의 범위가 자연스럽게 협소해지면서, 사회 전반의 다양한 견해를 접하지 못하고 필터 버블(filter bubble)‘이라는 울타리에 갇힐 가능성이 커진다. 여기서 ‘필터 버블‘이란 미국의 시민운동가 일라이 퍼리저 (EliPariser)가 2011년 제안한 개념으로, 알고리즘의 자동 필터링 때문에 플랫폼 이용자가 자기 신념에 일치하는 정보와 관점에만 반복적으로 노출되고 다른 정보와 관점으로부터는 단절되는 것을 의미한다. 예컨대 진보적 성향을 가진 페이스북 이용자의 피드에는 보수적 성향의 게시글이 거의 노출되지 않는 식이다. 자기만의 우주인 필터 버블 속에서 개인의 기존 신념은 더 굳어지고 정보의 사실성이나 의견의 균형성을 추구하려는 경향은 약해진다. 필연적으로 허위 조작 정보, 루머, 음모론 등에 대한 저항력도 낮아진다. - P160
알고리즘은 인간이 만들어낸 데이터를 활용하여 인간이 개발하는 것이기 때문에 여러 단계에 걸쳐 다양한 유형의 편향이 개입될수 있다. 데이터 부족과 편향성이 안면 인식 AI의 인종 편향을 만들었다면 애플의 시리, 아마존의 알렉사, 구글의 어시스턴트 등 대다수 인공지능 스피커가 여성의 목소리를 기본 값으로 설정한 것은 알고리즘 설계자의 편향이 반영된 것이라고 할 수 있다(한애라, 2019), 마이크로소프트사(MS)의 인공지능 챗봇 테이나 국내 스타트업이 개발한 챗봇 이루다는 출시 후 이용자와의 상호작용 과정에서 여성, 특정 인종, 성 소수자 등에 대한 차별과 혐오 표현을 학습하게 된 경우다. 인공지능에 기반한 알고리즘이 다양성 위기를 초래할 수 있음을 보여주는 사례는 셀 수 없이 많다. 자칫 ‘기계는 중립적이고 공정할 것‘이라고 기대하기 쉽지만, 그 역시 인간과 사회의 편향에서벗어나지 못한다는 것을 알 수 있다. 알고리즘은 보이지 않는 곳에서 작동하지만, 우리 일상과 사회의 다양한 영역에서 거대한 영향을 미친다. 알고리즘의 작동 원리, 특히 다양성을 저해할 수 있는알고리즘의 편향성에 경각심을 가져야 하는 이유다. - P162
|