Незримые кукловоды. Роль алгоритмов подбора контента в формировании нашей цифровой реальности

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В мире, где каждый клик и лайк оставляют цифровые следы, социальные сети стали не просто платформами для общения, а отражением наших интересов, желаний и страхов. Но в отличие от волшебных зеркал из сказок соцсети показывают не то, что мы хотим увидеть, а то, что, по мнению сложных алгоритмов, соответствует нашему психологическому портрету. Эти алгоритмы — тайные мастера манипуляций, незримые кукловоды, которые решают, какой контент нам подбросить, а что оставить за кулисами бесконечного цифрового театра. Сегодня мы попытаемся приоткрыть занавес тайны и разберемся, как они функционируют, влияют на повседневность и как не стать очередной марионеткой в цифровом спектакле.

Поле чудес

Каждый раз при выходе в интернет нас встречает уникальный мир, будто созданный специально для нас. Любая публикация или пост кажутся близкими и знакомыми. Но как этот мир формируется? Ответ кроется в алгоритмах машинного обучения, неустанно трудящихся, аки папа Карло, над тем, чтобы предоставить нам самый релевантный контент.

На заре времен, когда трава была зеленее, а интернет получали по карточкам, публикации в социальных сетях появлялись в хронологическом порядке. Пользователи подписывались на страницы знакомых, группы по интересам и успевали за всем этим следить. С годами количество информации росло в геометрической прогрессии. Соцсети начали разрастаться и расширяться. Появились крупные новостные паблики, музыкальные и игровые сообщества. И контент, генерируемый людьми в реальном времени, начал попросту теряться в общей ленте. Поэтому платформы принялись разрабатывать системы рекомендаций, чтобы пользователь не пропустил все самое важное и интересное.

Театр начинается с вешалки, а подбор контента — с Big Data, или больших данных. Они стали тем самым фундаментом для создания умных лент. Каждый клик, скролл и комментарий пополняют эту бездонную цифровую кассу. И уже сегодня пользователи сами вскармливают свои рекомендации, даже не подозревая об этом.

Любая популярная соцсеть, будь то YouTube, TikTok или Instagram, открывается с чистого листа, предлагая посетителю выбрать то, что ему интересно, чтобы на основе этого подобрать рекомендации. Сами же алгоритмы занимаются анализом действий пользователя. Они могут отслеживать время, проводимое за просмотром контента, область щелчков мыши, тембр голоса и даже реакцию зрачков. За что отдельное «спасибо» встроенным веб-камерам и микрофонам. Собирая, суммируя и обрабатывая эти данные, алгоритмы создают модель наших предпочтений и используют ее, чтобы предсказывать, что нас заинтересует в будущем. Это создает иллюзию личного пространства, где каждая публикация кажется важной и предназначается именно вам. На этом поле чудес легко найти как новые идеи, так и отражение своих собственных мыслей.

Перед алгоритмами стоит конкретная задача — максимизировать вовлеченность пользователя, чтобы тот проводил в соцсети как можно больше времени.

Цели же могут быть совершенно разными: безобидный рекламный таргетинг, продвижение контента или даже навязывание определенного мнения. Системы ранжирования публикаций — это скрытый инструмент формирования и направления внимания, вкусов и в конечном итоге разума.

По всей длине носа

Подобные алгоритмы часто называют черными ящиками, потому что результат их работы до конца нельзя предугадать. Однако в таком случае и называть системы подбора контента алгоритмами тоже не совсем корректно. Ведь в классическом понимании алгоритмом считается совокупность точно заданных последовательных действий для получения конкретного результата. Но правила, по которым ранжируется контент в новостной ленте, настолько сложны, что сами разработчики вряд ли в состоянии точно определить, как в подборку попадает та или иная публикация. Добавьте в эту безумную кавалькаду изменчивое настроение общества, машинное обучение с нейросетями и все — finita la commedia. Не мудрено, что платформы не особо распространяются, по какому принципу работают их системы рекомендаций.

Алгоритмы соцсетей можно контролировать на уровне определения основных функций или точечно влиять на их поведение в конкретных ситуациях, но объяснить однозначно, по какой причине в ваших рекомендациях появилось какое-то видео, невозможно.

На практике чаще всего за каждым таким кукольным театром стоит свой Карабас-Барабас. Чтобы содержимое соответствовало правилам и интересам платформы, живые модераторы вручную помечают неподобающий контент, а данные впоследствии «скармливают» алгоритму. И поскольку принципы работы модераторов в разных соцсетях различаются, то и автоматическое ранжирование может быть разным.

Люди по своей природе испытывают большой интерес к сенсациям, теориям заговора и желтым заголовкам. Это подтверждается фактом того, что шок-контент или фейковые новости распространяются быстрее обычных. Когда вы видите громкий заголовок, то он вас удивляет, потому что чаще всего это информация играет на вашем ожидании. Любопытство — не порок. Многие переходят по таким ссылкам, и алгоритм определяет, что этот контент повышает вовлеченность, повторюсь — главную задачу этих самых алгоритмов. И абсолютно не важно, фейковая это новость или реальная. Систему подбора контента заботит только то, что этот материал генерирует просмотры.

В стране дураков

Сейчас широко распространено мнение, что алгоритмы знают нас лучше, чем мы сами себя. Отчасти это так. Однако все зависит от смысла, который мы вкладываем в слово «знают».

За несколько лет пребывания в цифровом мире люди наследили так, что, анализируя эти данные, алгоритму достаточно нескольких публикаций, чтобы определять характерные черты пользователя.

Покупаете азбуку на популярном маркетплейсе, и вас по всему интернету начнет преследовать навязчивая реклама с похожими предложениями. И, черт побери, иногда складывается ощущение, что сеть пугающе много знает наперед о том, что вам в этой жизни нужно.

Даже основываясь лишь на косвенных данных, такую рекламу очень просто таргетировать на конкретную возрастную группу или людей со схожими интересами. И это вполне себе безопасно. Но когда реклама рассчитана на тревожного человека и точно известно, что она на него подействует, то это уже манипуляция.

Подбор контента с учетом психопортрета пользователя напрямую использует человеческие уязвимости.

Например, направляя определенную информацию на особо доверчивых людей, можно заставить их верить в различные конспирологические теории или выдуманные новости. А нацелившись на чувствительные религиозную и политическую сферы, можно разжечь негасимые пожары по всему миру.

Соцсети, в свою очередь, дают благодатную почву для взращивания такой аудитории. В отличие от газет или телевидения они открыты, там может зарегистрироваться кто угодно и начать производить любой контент. И в этом случае обычные пользователи оказываются лишены возможности верифицировать факты.

Три корочки хлеба

Когда человек оказывается в потоке информации, которой в принципе нельзя доверять, персонализированный контент начинает сильнее влиять на восприятие реальности. Повинуясь своей основной задаче, алгоритм продолжает «взламывать» когнитивные уязвимости мозга, и все для того, чтобы как можно дольше держать человека внутри платформы.

Система сама определяет, какая информация отобразится первой и какие новости и взгляды покажутся ей более важными и актуальными. А человек, подвергаясь воздействию только тех мнений, которые соответствуют его собственным, ступает по следу из хлебных корок, заботливо разбросанных обученными алгоритмами. В конечном итоге он попадает в так называемую эхо-камеру — информационный пузырь, где пользователи сталкиваются с однобокими идеями и суждениями, которые только усиливают их собственные убеждения.

Вместе с тем подобный контент заглушает другие аналогичные информационные потоки. На человеческий мозг продолжает беспрерывно сваливаться огромное количество однотипных данных. А он не задуман для таких информационных атак и зацикливается. Люди, находящиеся в «закрытой» системе, начинают слушать сами себя и соглашаться только с собой. Иными словами, любые высказывания приводят не к здоровым дискуссиям, а к больному поддакиванию и поддержке таких же единомышленников.

Туда по определению не попадает никакая альтернативная точка зрения. И такие наивные Буратино с древесной стружкой в головах принимают любую информацию, подброшенную соцсетями, за чистую монету. Это в итоге и приводит к нарастанию социальной поляризации в обществе.

Кто-то скажет, что свиньи повсюду находят грязь или тот, кто ищет, тот всегда найдет. Однако это не совсем такой случай.

Большинство рекомендательных систем хоть и разработаны таким образом, чтобы распространять популярное мнение, но, по сути, выбирают лишь единицы из сотни миллиардов публикаций.

Очевидно, что в этом случае не существует единственно правильной точки зрения. Потому как в подборе контента присутствует явная предвзятость. Как целенаправленная, так и непреднамеренная.

Показатель вовлеченности пользователей в соцсетях — самый простой и доступный для обучения алгоритма параметр. Но объективным, равно как и справедливым, его не назовешь. А в силу своей непредсказуемости алгоритмы могут выступать только вспомогательным инструментом.

Когда нужно четко продвинуть чуждую повестку или, например, распространить фейковые вбросы, то это дело не отдают на откуп каким-то системам. За ширмой всегда стоят хитрые лисы и жадные коты, неустанно бдящие за тем, чтобы нужный им нарратив дошел до конечного зрителя. Как говорится, у кого «золотой ключик», тот и заправляет всем этим борделем. И в поисках счастья на поле чудес не стоит забывать, что находится оно в стране дураков.

Артем МИКУЛА


Источник: vk.com

Комментарии: