5-06-2023, 10:40   Раздел: Новости, Политика   » Как интернет влияет на наше мышление? Комментариев: 0

Как интернет влияет на наше мышление?

Как интернет влияет на наше мышление?

Как интернет влияет на наше мышление?


Казалось бы, интернет и социальные сети предоставляют нам огромную свободу для общения. Мы можем сами выбирать, что нам смотреть, читать и слушать. Можно подумать, что мы самостоятельно приходим к определенным выводам и формируем свое мнение по широкому кругу вопросов. В чем тогда смысл «информационных кампаний по формированию убеждений» в интернете? Как оценивать влияние? Как планировать такие кампании? Можно ли считать саму сеть или тех, кто имеет доступ к ее алгоритмам, активными участниками процесса или всё происходит на основе обезличенных методов машинного обучения?
Исследования подтверждают, что да, социальные сети активно вмешиваются в процесс.
Однако оценка их влияния на ход информационных кампаний в интернете по формированию убеждений и изменению поведения индивидов — сложная задача, в том числе из-за неполноты данных, которые, как правило, трудно получить в нужном объеме, и непростой природы социально-сетевых взаимодействий.
Поэтому ученые-исследователи данной темы в своих работах, как правило, вводят ряд допущений и оговорок. Некоторые из них носят технический характер.
Например, авторы одной из статей в журнале Nature пишут, что ограничивают свое исследование текстовыми сообщениями. Опустим тот факт, что сообщение может иметь не текстовую форму. Существенно, что в данном случае основой статистического анализа становится предположение, что сам факт появления поста в ленте пользователя оказывает воздействие на его политические убеждения. Такое утверждение небесспорно.
Во-первых, появившийся пост не требует каких-либо действий от пользователя, и не факт, что тот вообще его прочитал.
Во-вторых, нам известно, что влияние сообщения на убеждения конкретного индивида зависит как от содержимого послания, так и от доверия к его источнику. Причем если вы подписаны на несколько источников информации, это не значит, что вы доверяете им одинаково.
Влияние на наше отношение к сообщениям в ленте оказывают и уже сформированные взгляды. Например, в пандемию при анализе поведения пользователей сети «ВКонтакте» мы обнаружили, что политические убеждения и доверие к источнику информации серьезно определили отношение к медицинским маскам.
Известно также, что на происходящие в сети информпроцессы сильно влияет структура каналов передачи данных — так называемая топология сети. Наиболее известный эффект — наличие эхо-камер (ситуация, в которой определенные идеи, взгляды и убеждения повторяются внутри закрытой системы и изолируются от опровержения) и информационные пузыри.
Все эти факторы и эффекты учитываются и исследуются в математических моделях информвлияния в социальных сетях.
Для нас как ученых особый интерес представляет так называемый алгоритмический фактор — влияние алгоритмов самой сети, которые определенным образом формируют порядок выдачи постов в лентах и тем самым могут оказывать воздействие на их информированность и убеждения.
Декларируется благая цель — пользователи должны получать актуальную и интересную для них информацию. Однако детали этих алгоритмов скрываются.
Тем не менее очевидно, что учитываются социально-демографические характеристики пользователей, их действия в прошлом, а также отношения между ними. В итоге то, что видит человек в своей новостной ленте, определяется, как правило, механизмами семантической фильтрации (она отбирает посты, похожие по содержанию на интересовавшие его ранее), совместной фильтрации (когда предлагаются сообщения, которые интересны пользователям, похожими на него) и, наконец, отбора на основе популярности контента в сети.
Фактически алгоритмы действуют в роли «привратников», или информационных посредников, формирующих персональную новостную повестку для каждого.
Судя по многочисленным публикациям в Science, Nature и других авторитетных научных журналах, среди ученых есть разногласия относительно долгосрочных последствий алгоритмической персонализации контента для общества.
Но многие из них всё же считают, что она ведет к формированию информационных пузырей и эхо-камер, когда альтернативные точки зрения исключаются, а пользователь в основном видит факты и аргументы, подтверждающие одну точку зрения. Таким образом в сети возникает эффект ложного консенсуса («все так думают») и происходит усиление поляризации.
Результаты проведенных нами и другими исследователями модельных экспериментов показывают потенциал информационного управления.
В частности: а) изменение порядка сообщений в новостной ленте «подталкивает» общественное мнение в «нужную» сторону, б) алгоритмы рекомендации новых «друзей» также можно назвать механизмами вмешательства, влияющими на степень разногласий в сети.
Алгоритмы персонализации в силу своей механики уязвимы. Изнутри — как минимум, на этапе машинного обучения возникает предвзятость, внесенная обучающей выборкой данных и решениями его разработчиков. Как пример — история чат-бота Tay от Microsoft в Twitter (2016 год). Извне — легальная реклама или применение «реверс-инжиниринга» алгоритмов (вспомним историю с выборами в США и Cambridge Analytica). Это дает возможность целенаправленного масштабного информационного воздействия на мнения в сети.
Эффективность информационных воздействий в ближайшее время будет качественно усилена использованием новейших больших языковых моделей (применяются, в частности, в ChatGPT), которые генерируют убедительные сообщения, где зачастую сложно отделить факты от вымысла.
Сгенерированные таким образом правдоподобные сообщения (посты, комментарии) могут резко снизить издержки на проведение кампаний и взращивание агентов влияния в социальных сетях (ботов, троллей, фальшивых пользователей). Они могут также применяться для быстрого и масштабного продвижения нарративов в рамках информационных кампаний при помощи сети агентов влияния и на основе знаний социально-психологических и алгоритмических факторов в онлайновых социальных сетях. Очень яркая история описана в исследовании британской некоммерческой организацией по борьбе с ненавистью и дезинформацией в сети (CCDH) о 12 антиваксерах, сформировавших сеть влияния, ответственную за 70% контента против вакцинации в Facebook* (принадлежит Meta, признана в РФ экстремистской организацией).
В этой ситуации особую значимость приобретает изучение сетевых моделей формирования и распространения мнений, при помощи которых следует верифицировать механизмы информационного влияния в сети. Сюда относятся в том числе гипотезы о поведении людей и ботов, о влиянии алгоритмов сети на мнения/поведение.
Следует изучать и разрабатывать модели, которые способны прогнозировать динамику мнений в обществе на мезо- и макроуровне. В целом для корректной оценки влияния необходимы междисциплинарные исследования с привлечением специалистов, как минимум в области машинного обучения, психологии, коммуникаций и моделирования динамики общественного мнения.
Дмитрий Губанов — доктор технических наук, ведущий научный сотрудник Института проблем управления имени В. А. Трапезникова РАН



ПОДПИШИСЬ СЕЙЧАС НА Telegram Россия и Украина Новости: Спецоперация Z и будь в курсе новостей!
Оцени новость:





Также смотрите: 
  • Наступление врага: кадры боя и уничтоженная бронетехника США на запорожском фронте (ФОТО, ВИДЕО)
  • Подросток помогал украинским террористам в Белгородской области, — СМИ





  • Другие статьи и новости по теме:

    Вам понравился материал? Поблагодарить легко!
    Будем весьма признательны, если поделитесь этой статьей в социальных сетях:

    Обнаружили ошибку или мёртвую ссылку?
    Выделите проблемный фрагмент мышкой и нажмите CTRL+ENTER.
    В появившемся окне опишите проблему и отправьте уведомление Администрации ресурса.
      Оставлено комментариев: 0
    Распечатать
    Информация
    Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.






    НОВОСТИ В TELEGRAM


    Наши партнёры
    Мы Вконтакте
    Популярные новости за неделю
    Спонсоры проекта