Иностранных кампаний манипуляции в социальных медиа может быть замечен, смотря на ключи, время и продолжительность сообщения и URL-адреса, которые они содержат, исследователи нашли.
С 2016 года президентские выборы в США в квартал и месяц, растет количество политических событий, как полагают, были ориентированы на внешнеэкономическую деятельность на социальных медиа-платформ, таких как Facebook, Twitter и Reddit.
Теперь исследователи говорят, что они разработали автоматизированную систему машинного обучения типа искусственного интеллекта, – могут увидеть такие посты, исходя из их содержания.
Деза возраст: революция в пропаганде
Подробнее
“Мы можем использовать алгоритмы машинного обучения для автоматического определения содержания постингов тролль и отслеживать информацию онлайн операции без вмешательства человека,” сказал д-р Meysam Ализаде, из Принстонского университета, соавтор исследования.
Команды говорил, что этот подход отличается от простого обнаружения ботов, которых они говорят, очень важно, так как такие кампании часто включают в должности людьми. Они говорят, что количество постов в так называемый тролль кампании означает, вероятно, нужны стандартные шаблоны и операционных процедур.
Записи в журнале Science авансы, отчет команды, как они выполняли свою работу с помощью постов из четырех известных кампаний в социальных медиа, которые нацелены на нас, приписывается Китая, России и Венесуэлы.
Команда нацелена на посты тролля сделанные на Twitter в период с декабря 2015 по декабрь 2018 года и на Reddit период с июля 2015 по декабрь 2016 года.
Для сравнения, они также использовали данные с тысяч американских аккаунтов Twitter, у пользователей занимается с нами политика и средних потребителей, а также посты из тысячи Реддите счет не привязанный к иностранной кампании по манипуляции.
После обучения системы на подмножестве данных, команды изучили пять различных вопросов. Они включают ли система машинного обучения могу сказать только посты от троллей и тех, которые связаны с обычной деятельностью, и является ли кормление системы с постов троллей из одного месяца позволит ему определить сообщения, сделанные в течение следующего месяца по новым счетам тролль.
Результаты показывают, что этот подход хорошо работал, с сообщения, помеченные системой как правило, исходит от троллей. Однако, не все посты тролля были выявлены системой.
“Это очень важный, интересный и местами интригующий фрагмент анализа”, — сказал профессор Мартин Иннес, директор преступление Кардиффского университета и научно-исследовательского института безопасности. “Алгоритмы машинного обучения должны быть в состоянии определить подобные контент из ограниченного набора данных, пожалуй, следовало ожидать, а ведь там уже были сигналы в данные, что позволило им быть на связи. Но как авторы совершенно правильно уточнить, существует разрыв еще предстоит преодолеть в плане применения этих подходов ‘в диких условиях’ для выявления «живых» операций”.
Исследователи также обнаружили различия в производительности системы в зависимости от страны, за кампанию, с китайской активности легче обнаружить, чем в России. “С точки зрения венесуэльской кампании, Наш спектакль-это почти идеальный; близко к 99% точности”, — сказал Ализаде.
“С точки зрения китайской, наша производительность составляет около 90%, 91%. Русские были самые сложные и самые изощренные кампании: Наш производительность составила около 85%”.
Ализаде отметил, что не означает, что российским информационным актеры обязательно лучше гармонирующий с обычных пользователей США. “Они хорошо имитирует политическую американских пользователей в Twitter”, — сказал он. “Но есть и другие причины, они не обнаружить: например, венесуэльцы всегда говорят о политике. Российские тролли, некоторые из них никогда не говорить о политике – они занимаются хэштег игры или поделиться ссылками на скачать музыку. Почему российские тролли это делают? Один ответ может быть, чтобы построить собственную аудиторию”.
Говорят авторы работы также показывает, каким образом иностранные кампании менять тактику с течением времени: например, в случае действий России, используйте хэштег упал после пика в конце 2015 и начале 2016 года.
“Идея появилась у нас еще с начала развития общественного мониторинга, что журналисты и люди могут проверить на ежедневной основе, чтобы понимать, что происходит в социальных медиа, касаемо внешних и внутренних информационных операций”, — сказал Ализаде.
Что-то вроде того, что “стало бы первым шагом в обеспечении наших демократий. И тогда мы должны также распространить его на другие страны, другие демократические страны и другие языки.”
Свежие комментарии