Манипуляции соц.сетей. Реклама и политика

фото фейсбук

В соц.сетях началась алгоритмическая пропаганда. Суть ее довольно интересна, но не всем понятна. Попробуем рассказать подробно. Но для этого надо начать с самого начала, т.е появления поиска.

В настоящее время любой конфликт, любое более-менее значимое событие имеет отражение в сети интернет. Большое влияние оказывают так называемые сообщества, иногда имеющие политические темы. Обычно в этих сообществах большинство людей придерживается единой точки зрения на политику. Но кроме того, они имеют специфические регуляторы социального поведения, особые формы общения и даже язык(некоторые выражения, которые не понятны членам других сообществ).

Активное вовлечение людей в определенную виртуальную среду, не только освещает тему или конфликт, но и позволяет показать его с нужной стороны большому количеству людей, формировать или корректировать общественное мнение, а манипуляция им позволяет влиять на некоторые процессы в обществе и политике. Интернет позволяет выбрать какую информацию потреблять (картинки, тексты, видео, аудио и т.д), часто даже на одном сайте. Фильтрация контента в интернете идет хуже, ее мало кто контролирует, поэтому писать можно практически все, что угодно.

Но когда-то все было совсем не так.

Предыстория появления манипуляции соц.сетей

Когда-то в интернете нормального поиска не было, а найти нужную информацию проще всего было по каталогам. Потом появились поисковики. А потом, уже после того как гугл придумал и внедрил адаптивные поисковые алгоритмы, оказалось, что можно корректировать выдачу сайтов, вставляя в текст некоторые слова и выражения несколько раз. С разными падежами, склонениями и слова близкие по теме и смыслу. Т.е. специально затачивать текст под определенный запрос людей. Этим стали пользоваться админы для сео адаптации сайтов.

Потом поисковики пошли еще дальше, и выяснялись что можно не просто выдавать наилучший результат поиска, а результатами подталкивать человека к определенным выводам. Например (этот и другие примеры из головы, тут важнее смысл), если человек осуществляет поиск по тегу “политика”, можно выдать результаты по 2 тегам “политика + либертарианство” и выводить это раньше тегов “политика + капитализм”или “политика + социализм” и т.д .
Люди больше будут заходить в первые 3 сайта в выдаче (больше всего в первый). Т.к люди несколько ленивы, то первые сайты в выдаче будут восприниматься как более важные, более соответствующие теме и популярные, а значит информация в них будет казаться более полой и/или более правильной.

С чего начались манипуляции в соц сетях

иконки социальных сетей

Фейсбук, а потом и другие соц.сети пошли чуть дальше в технологиях. Здесь уже даже дело не в поисковых запросах. Система алгоритмов берет поисковые алгоритмы и данные, но она воспринимает как запрос каждое написанное человеком слово, коммент и каждый его репост. Хотя берет и данные за пределами соц. сетей, а не только в них. На этом основан ретаргетинг(показ рекламы исключительно людям которые посетили определенный сайт или даже конкретную его страницу). В автоматическом режиме анализируются все ваши лайки, репосты, комментарии, посты, сохраненные рецепты блюд, статьи и ссылки и т.д. Сети интересуют: ваши личные данные, дети, помолвки, свадьбы, разводы, дни рождения, социально-демографические показатели(и на все это можно настроить рекламу. Типа :”У вас скоро день рождения? “Вот вам бесплатный купон на посещение нашего салона красоты” булочной, кафе, кинотеатра и т.д. ).

Сеть интересует все. Что вы читали вне сети фейсбука или в контакте, чем интересовались в сети. В итоговом варианте создаётся ваш внутренний профиль(в котором собрана вся информации о вас вплоть до каждого лайка), по которому система определяет, что именно показывать человеку в ленте.
Это касается текстов, картинок, видео и рекламы. Короче, всего того, что вы видите в соц.сетях.

Надо сказать, что изначально технология социальных сетей сначала работала исключительно по принципу “подобное к подобному”. Но оказалось, что человеку пишущему о суициде — предлагаются группы, где собирались люди думающие о самоубийстве. Пишущем об алкоголе -алкоголиков. А пишущему о преступниках-группы преступников. Человеку который лайкал картинки, показывались практически одни картинки, лядям которые читали тексты-тексты, кто смотрел видео — у того стало много видео в ленте (принцип лайканья картинок, постов и видео остался, но видоизменился). Но, больше работала тематичность, что наделало много шума.

Из-за этого фейсбук (самый первый) получил общественное одобрение на изменение алгоритмов работы и принцип формирования ленты в сторону “здоровья общества”. Сначала пишущим о суициде стали показывать группы реабилитации. А беременным — группы по подготовке к родам (и заодно магазины для беременных и новорожденных , а как же?). А далее эта опция вошла в пакет продаваемый рекламодателям. Теория разбитых окон? Думаем, слышали. Постепенно, постепенно, а потом все больше в сторону наполнения рекламой и увеличения цены. Но рекламные и обычные охваты поста при этом резались постоянно и режутся до сих пор. Для большей прибыли владельцев сайтов, естественно.

Политика

политик

Самое интересное, что через некоторое время оказалось, что одна из самых дорогих реклам- политическая. Т.к. чаще всего оплачивается из денег лоббистов. Но, дело вот в чем: реклама резко отличающаяся от политических взглядов читателя не воспринимается. Вернее так: человек может с ней спорить, он может репостить с опровержениями, но на сторону оппонентов он не переходит. Для проверки проводились множество исследований. Это полностью подтвердилось. Подобная реклама в лоб не работает. И тут потребовались манипуляции соц сетей (хотя, вернее соц сетями). К ним шли долго и упорно, но пришли. Некоторые сети не брезгуют и манипуляцией выдачи по политической и экономической информации, и даже продвижением своих творений, но мы не об этом.

По результатам экспериментов дело пошло еще дальше.

Кратко: можно взять интерес из личного политического профиля пользователя, из его «окна дискурса» и показать с другой политической стороны. И оказалось этот метод работает намного лучше.
К примеру(напомню, что примеры придуманы), правые, вместо политических рекламы радостей социализма, начали иногда получать новости разоблачающие социализм с правых позиций (настраивается таргетинг по интересам), но показывали сам социализм с некоторыми правыми положениями. А левые обсуждающие кап. строй с левых, но и те и эти получали нечто такое, что они готовы принять. Это дает некую терпимость и приятие других политических взглядов и даже симпатию.

С этого и началась реальная манипуляции соц.сетей. Вам показывают то, что вы подсознательно хотите, используя данные о вас.

afisha.yandex.ru

На каких принципах работает алгоритм манипуляции соц.сетей

А результат получаем в результате работы двух социологических эффектов.

1.«Окно Овертона(Окно дискуса)».

Суть такова: человек готов воспринимать чужое мнение которое в какой-то степени соотносится с его мнением. И очень плохо воспринимает противоположное. Воспринимаемые мнения — это и есть то самое «окно». Там есть еще и соотнесение еще с моралью, но в данном случае оно нам не интересно. Если получается что определенных пограничных мнений в окружении человека становится слишком много, граница «окна дискурса»расширяется чтобы вместить их все(или смещается).

Из-за расширения или сдвигания границы в «окно» попадают всё новые мнения, к которым человек раньше не прислушивался и приходит в результате к определенным выводам или становится лояльнее к определенным взглядам. Пограничные мнения с другой стороны – могут выпасть из «окна» и больше не восприниматься.

2. Второй социологический эффект: «спираль молчания Ноэль-Ноймана».

Это менее известный эффект. Основывается он на том, что люди немного трусливы и немного недогадливы. В целом получается что люди более склонны говорить то, что уже говорится в обществе или высказывать точку зрения, которая уже прозвучала вслух. И с меньшей вероятность его выразят, если такого мнения нет в публичном дискусе. Или если чувствуют что они находятся в меньшинстве. В нашем случае точка зрения озвучена или описана в его окружении на фб(или другой соц сети). Система опирается на тюремные исследования Милгрема, связанные с подчинением авторитету. В исследованиях выявлено что люди гораздо проще подчиняются и даже нарушают закон, если его просьба исходит от человека обладающего авторитетом.

Но здесь авторитетом выступает общество вокруг человека, а не конкретный другой человек. Спиральная система позволяет агрессивному и крикливому меньшинству навязывать свою точку зрения большинству. Большинство при этом думает, что оно в меньшинстве. И его мнение недопустимо. Поэтому большинство помалкивает. Система называется спиралью потому как со временем постепенно окно дискуса расширяется, меньшинство постепенно подавляет большинство и давление на большинство усиливается по спирали. И поэтапно большинство становится меньшинством. Похожую схему успешно использует телевидение для пропаганды, но более жестко.

Что нужно для спирали молчания?

спираль молчания

1)Показать человеку новости находящиеся в окне дискурса, в сфере интересов. 2) Показать граничные положения которые окно сместят 3) Показать что это именно это разделяется абсолютным большинством.

Этим включается механизм работы «спирали молчания».
Получается опасная техника, которая легко действует на неокрепшие умы пользователей соц. сетей интересующихся политикой или близкой темой. Основная проблема в том, что работает эта техника на основе алгоритма, т.е работает автоматически. Теперь чтобы поменять дискус даже не нужны многочисленные ТВ каналы.

Кроме того, некоторые политические сайты поняли, что нельзя дальше наращивать аудиторию, ее просто нет. Или решили влиять на оппонентов. И в результате они стали периодически предлагать новости резко (или не очень) отличающиеся от канвы сайта и давать их людям с другими политическими взглядами. Этим делая людей более лояльными к другой информации размещенной на сайте и привлекая новых читателей.

А определенные организации создали огромное количество левых аккаунтов и страниц и групп. Эти левые аккаунты высказывают определенное мнение и в группах и у себя на странице, пригласили множество людей в друзья. Другие липовые аккаунты его поддерживают, при этом делая репосты со страниц расширяющих окно дискурса и подталкивающие людей к спирали молчания.

Благодаря нашим профилям в соцсетях и информации о посещённых сайтах продвинутые алгоритмы определяют наши политические взгляды. Возможно скоро начнут определять и их динамику во времени. И все что нужно политическим заказчикам и рекламодателям — создавать больше контента дискурсивности, а потом давать на людей рекламу или периодически учитывать противоположную точку зрения.

Проявляя интерес к дискуссии: лайкая, постя статьи, комментируя и даже читая(задерживаясь по времени на посте в вашей ленте), Вы, подтверждаете интерес к этой теме для соц сети. Даже негативный комментарий- это комментарий. Даже негативный лайк- это лайк. Репост даже с вашим негативным комментом – репост. Они увеличивают охват(соц сети покажут большему количеству людей) и впихивают вас в список интересующихся. Не надо спорить и переубеждать если вы не согласны! Вы раскручиваете пост, не говоря уж о подтверждении ваших интересов.

Способы противодействия манипуляциям соц. сетей

  • Создание материалов, которые будут опровергать информацию (что кроме опровержения этой информации еще и снижает доверие к ресурсу). Часто это делается в сатирической форме.
  • Распространять информацию альтернативными способами: ссылки на другие сайты, посты, с ненужных страниц скриншоты вместо репостов. 
  • Покинуть соц сеть на некоторое время. Алгоритм может сбиться.
  • Не влазить ни в какие политические споры и попросить об этом знакомых и друзей. Если так сделает много политический материал будет опущен вниз ленты (если на него не будут реагировать). А стоимость рекламы взлетит. Через поиск или ленту его увидят единицы. 

Хотя, уникальность материала делает ее видимой из поисковиков. Но, это уже менее существенно.

Видео в тему: Звериный оскал патриотизма. Все как у зверей.

Читайте также:

Как люди бывают необъективны в соц.сетях.

Почему люди верят в теории заговоров?

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *