Читать «Максимальный репост. Как соцсети заставляют нас верить фейковым новостям» онлайн - страница 68

Борислав Козловский

Что в этом плохого? Представьте, что вы уехали на неделю в командировку в другой город (эксперимент длился как раз неделю, с 11 по 18 января). За это время вашего хорошего друга избивают в питерском метро и отбирают у него любимую зеркалку со всеми объективами. В такой ситуации каждое слово поддержки не лишнее. Но если вдруг вы оказались в первой группе подопытных, вы просто ничего не прочтете о неприятностях друга. А если вы, наоборот, в группе, изолированной от «позитива», то мимо вас пройдет запись однокурсника, который давным-давно эмигрировал в Австралию и тут, наконец, собрался прилететь на пару дней в Москву. В итоге вы с ним так и не встретитесь.

Словом, если вы привыкли все самое важное о жизни небезразличных вам людей узнавать из Facebook, и при этом вам не повезло попасть в число 689 003 подопытных, то Facebook неделю держал вас в дураках. Возможно, не без последствий – как в случае с избитым другом и однокурсником из Австралии.

С технической точки зрения ничего особенно ужасного ученые не сделали: Facebook и так постоянно скрывает от нас 80 % всего написанного друзьями. Два года назад администраторы соцсети на официальной странице «Facebook для бизнеса» рассказали с цифрами, как это работает: всякий раз, когда среднестатистический пользователь заходит в соцсеть, его поджидают 1500 новых непрочитанных постов, в которых он рискует утонуть с головой. Умный алгоритм, зная наши предпочтения, выбирает из них 300 – только они отобразятся в ленте, остальные 1200 будут забракованы. Когда алгоритму предстоит тяжелый выбор – показать нам свежее фото со страницы лучшего друга, где помечены вы и ваша девушка, или пост про футбол у человека, с которым вы случайно познакомились в долгой очереди к стоматологу и с тех пор не общались, – алгоритм обычно знает, как поступить.

Но направленное вмешательство – все-таки особый случай, и его постарались сделать как можно безболезненнее: если в разгар эксперимента вы заходили напрямую на страницу друга, там все его спрятанные записи были доступны. И, разумеется, цензура не коснулась личных сообщений.

«Негатив» от «позитива» специальная программа-фильтр пыталась отличить по ключевым словам-маркерам, которые как-то соотносятся с положительными и отрицательными эмоциями. Реагировать на отдельные слова – это, конечно, не идеальный способ вникать в смысл написанного. Например, сразу понятно, что от программы ускользают ирония и сарказм. Скажем, фразу «радость-то какая» она просто из-за наличия слова «радость» классифицирует как «позитивную» вне зависимости от контекста. Зато если пожертвовать такими тонкостями, получается быстрее обрабатывать гигантские объемы данных: сквозь фильтр ученые пропустили 3 млн записей, содержащие 122 млн слов; 3,6 % слов отнесли к «позитивным» и 1,8 % – к «негативным».

Команду Facebook интересовало, как зачистка ленты отразится на поведении подопытных. Для этого ученые снова воспользовались своим излюбленным методом – подсчетом слов. Оказалось, что те, у кого из френдленты поудаляли «позитивные» записи, сами начали писать более мрачные тексты: частота соответствующих слов-маркеров выросла настолько, что с вероятностью 99,3 % это нельзя было назвать случайным совпадением.