Пузырь фильтров

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

Пузырь фильтров (англ. «Filter bubble») — это понятие, разработанное Интернет-активистом Илаем Парайзером (англ. Eli Pariser) и описанное в его книге с одноимённым названием, где описывается явление, при котором веб-сайты используют алгоритмы выборочного угадывания, какую информацию пользователь хотел бы увидеть, основываясь на информации о его месторасположении, прошлых нажатиях и перемещениях мыши и его истории поиска. В результате веб-сайты показывают только информацию, которая согласуется с прошлыми точками зрения данного пользователя. Вся иная информация как правило пользователю не выводится. Яркими примерами этого являются Google с персонализированными результатами поиска, а также Facebook с персонализированной лентой новостей. Соответственно, пользователи получают намного меньше противоречащей своей точке зрения информации и становятся интеллектуально изолированными в своём собственном информационном пузыре. Илай Парайзер приводит пример, когда один пользователь искал в Google по запросу «British Petroleum» и в ответ получил только инвестиционные новости о компании British Petroleum; когда же другой пользователь отправил такой же запрос, то получил в ответ информацию о Взрыве нефтяной платформы Deepwater Horizon, и обе эти страницы с результатами поиска «разительно отличались» между собой.[1][2][3] Эффект пузыря может иметь негативные последствия для формирования гражданского мнения.[4] .

Фильтрация[править | править вики-текст]

Парайзер в своей книге «The Filter Bubble» предупреждает, что потенциальным недостатком фильтрации поисковых запросов является то, что она «закрывает нас от новых идей, предметов и важной информации»[5] и «создаёт впечатление того, что наши узкие собственные интересы и есть всё, что существует и окружает нас».[2] Это приносит потенциальный вред как для личности, так и для общества в целом. Парайзер раскритиковал Google и Facebook за предоставление пользователям «слишком много сладкого, но ничего полезного».[6] Он предупреждает, что этот «невидимый алгоритм редактирования в сети» может «ограничить получение новой информации и сузить рамки разнообразия этой информации». Согласно Парайзеру, вредное воздействие от «пузыря фильтров» включает вред в обществе в целом, так как он может подрывать формирование «гражданского мнения» и сделать людей более уязвимыми к «пропаганде и манипуляциям».[2]

Похожее явление[править | править вики-текст]

Пузырь фильтров — понятие, похожее на явление, в котором люди и организации ищут информацию, которая изначально кажется им правильной, но она оказывается совершенно бесполезной или почти бесполезной, и избегают информацию, кажущуюся и воспринимаемую ими как неправильную и несущественную, но оказывающуюся полезной. Проблема появляется потому, что реальная значимость конкретного факта или понятия в этих случаях очевидна только после того, как этот факт стал известен. До этого идея изучения была отклонена, потому что какой-либо факт был неправильно воспринят. Соответственно, ищущий информацию попадает в ловушку и не может узнать то, что ему действительно нужно, и попадает в своего рода информационное слепое пятно. Этот феномен был описан как «парадокс релевантности»[5], и это происходило во многих случаях на протяжении всего человеческого интеллектуального развития и является важной проблемой для науки и образования. Книга под названием «The IRG Solution» (автор David Andrews, 1984 год) предсказывает и анализирует эту проблему, а также предлагает общее решение этой проблемы.

Книги[править | править вики-текст]

См. также[править | править вики-текст]

Примечания[править | править вики-текст]

  1. Lynn Parramore (interviewer) Eli Pariser (subject). The Filter Bubble, 'The Atlantic' (Oct 10 2010). Проверено 20 апреля 2011. «Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....».
  2. 1 2 3 Jacob Weisberg. Bubble Trouble: Is Web personalization turning us into solipsistic twits?, 'Slate Magazine' (June 10, 2011). Проверено 15 августа 2011.
  3. Doug Gross, CNN. What the Internet is hiding from you, 'CNN' (May 19, 2011). Проверено 15 августа 2011. «I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.».
  4. Zhang; Séaghdha, Quercia, and Jambor (February 2012). «Auralist: Introducing Serendipity into Music Recommendation». ACM WSDM.
  5. 1 2 First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser, 'USA Today' (2011). Проверено 20 апреля 2011. «Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.».
  6. Bianca Bosker. Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns, 'Huffpost Tech' (7 марта 2011). Проверено 20 апреля 2011. «When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.».