Правовые проблемы использования чат-ботов в социополитических коммуникациях
Правовые проблемы использования чат-ботов в социополитических коммуникациях
Аннотация
Код статьи
S102694520024146-1-1
Тип публикации
Статья
Статус публикации
Опубликовано
Авторы
Санникова Лариса Владимировна 
Должность: Руководитель Центра правовых исследований цифровых технологий Государственного академического университета гуманитарных наук (ГАУГН)
Аффилиация: Государственный академический университет гуманитарных наук (ГАУГН)
Адрес: Российская Федерация, Москва
Сокольщик Илья Михайлович
Должность: Врио ректора ГАУГН, Декан Юридического факультета ГАУГН
Аффилиация: Государственный академический университет гуманитарных наук (ГАУГН)
Адрес: Российская Федерация, Москва
Выпуск
Страницы
68-78
Аннотация

Политические боты стали важным инструментом политтехнологов. Во всех важнейших электоральных процессах в мире было зафиксировано активное использование чат-ботов в социальных сетях. При этом исследователи выявили негативное влияние таких ботов на политические процессы. Деструктивный характер политических ботов заключается в том, что они являются цифровыми инструментами манипулирования общественным сознанием. В связи с этим возникает необходимость в установлении правовых рамок и границ для использования таких систем искусственного интеллекта в социополитических коммуникациях. На основе анализа опыта зарубежных стран в статье обоснована необходимость законодательного закрепления принципа прозрачности систем искусственного интеллекта, что позволит обязать разработчиков и владельцев таких систем маркировать их. Информирование пользователей о том, что они взаимодействует с системой искусственного интеллекта, позволит снизить риск манипулирования общественным сознанием.

Ключевые слова
искусственный интеллект, политические чат-боты, социальные сети, политические технологии, правовое регулирование ИИ, прозрачность ИИ, маркировка ботов
Источник финансирования
Проект 122101000041-6 реализован в ФГБОУ ВО «Государственный академический университет гуманитарных наук» по итогам отбора научных проектов, проведённых Министерством высшего образования и науки РФ и ЭИСИ.
Классификатор
Получено
07.11.2022
Дата публикации
20.02.2023
Всего подписок
13
Всего просмотров
477
Оценка читателей
0.0 (0 голосов)
Цитировать Скачать pdf 100 руб. / 1.0 SU

Для скачивания PDF нужно оплатить подписку

Доступ к дополнительным сервисам
Дополнительные сервисы только на эту статью
Дополнительные сервисы на весь выпуск”
Дополнительные сервисы на все выпуски за 2023 год
1 Введение
2 Технологии искусственного интеллекта (ИИ) все активнее проникают во все сферы общественной жизни современного общества, существенно изменяя его. Однако не все происходящие изменения носят позитивный характер. Многие вопросы, связанные с применением искусственного интеллекта, вызывают обоснованные опасения и становятся объектом острых дискуссий. Одна из таких дискуссий ведется по поводу негативного влияния чат-ботов на политические процессы. Использование политических чат-ботов было выявлено в ходе проведения голосований по Брекзиту1, выборам президента США в 2016 г.2, отделению Каталонии3 и др. Нельзя не признать, что именно успешная предвыборная кампания экс-президента США Д. Трампа, которую он активно проводил в социальных сетях, обусловила обсуждение в зарубежном экспертном и научном сообществе перспектив правового регулирования использования ботов в социально-политических коммуникациях4.
1. См.: Howard P.N., Kollanyi B. Bots, #Strongerin, and #Brexit: Computational Propaganda During the UK-EU Referendum // SSRN. 2016. DOI: 10.2139/ssrn.2798311

2. См.: Bessi A., Ferrara E. Social Bots Distort the 2016 U.S. Presidential Election Online Discussion // First Monday. 2016. No. 21(11); Woolley S., Guilbeault D. Computational Propaganda in the United States of America: Manufacturing Consensus Online / S. Woolley, Ph. N. Howard (eds). Working Paper. 2017.5. Oxford, P. 1 - 28; Howard P., Woolley S., Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration // Journal of Information Technology & Politics. 2018. No. 15 (2). P. 81 - 93. DOI: 10.1080/19331681.2018.1448735

3. См.: Massimo S., Ferrara E., De Domenico M. Bots Increase Exposure to Negative and Inflammatory Content in Online Social Systems // Proceedings of the National Academy of Sciences 115. 2018. No. 49. P. 12435–1240. DOI: 10.1073/pnas.1803470115

4. См.: Pedrazzi S., Oehmer F. Communication Rights for Social Bots? Options for the Governance of Automated Computer-Generated Online Identities // Journal of Information Policy. 2020. No. 10. P. 549–81.
3 Российские политологи и социологи также изучают использование ботов в социальных сетях, прогнозируя возможные политические риски5. Однако исследования о применении политических ботов (политботов) во внутриполитической жизни страны отсутствуют, основной акцент делается на внешнеполитические угрозы6. По мнению исследователей, политботы могут использоваться недружественными странами для дестабилизации обстановки в стране, особенно в условиях обострившегося геополитического противостояния. В связи с этим представляется актуальным исследовать необходимость установления правовых рамок и границ для использования таких интеллектуальных систем в социополитической коммуникации.
5. См.: Михайленок О.М., Малышева Г.А. Роботизация социальных сетей и ее политические последствия // Власть. 2020. № 1. С. 85 - 91; Василькова В.В., Легостаева Н.И. Социальные боты в политической коммуникации // Вестник РУДН. Сер.: Социология. 2019. Т. 19. № 1. С. 121—133; Мартьянов Д.С. Политический бот как профессия // ПОЛИТЭКС. 2016. № 1. С. 74 - 89.

6. См.: Чесноков В.О. Применение алгоритма выделения сообществ в информационном противоборстве в социальных сетях // Вопросы кибербезопасности. 2017. № 1. С. 37 - 44.
4 Понятие и виды политботов
5 Под ботами понимаются автоматизированные или полуавтоматизированные программы, создаваемые на основе технологий искусственного интеллекта. Многообразие ботов нашло отражение в классификациях, предлагаемых исследователями. Так, Robert Gorwa и Douglas Guilbeault предложили выделять следующие виды ботов:
6 веб-роботы (краулеры и скреперы);
7 чат-боты (диалоговые системы «человек-компьютер», использующие естественный язык посредством текста или речи);
8 спам-боты;
9 социальные боты (различные системы автоматизации, работающие на платформах социальных сетей);
10 “sockpuppets” и тролли (поддельные личности, используемые для взаимодействия с обычными пользователями в социальных сетях);
11 киборги и гибридные аккаунты (боты, управляемые человеком).
12 Несмотря на широкое распространение данной типологии ботов в научной литературе, следует признать, что исследователям не удалось выделить и обосновать четкие критерии классификации. В представленной типологии имеет место простое перечисление различных видов ботов. Представляется, что к чат-ботам относятся социальные боты, которые, в свою очередь. могут быть “sockpuppets”, троллями, киборгами, гибридными аккаунтами.
13 Чат-боты - широкое понятие, объединяющее автоматизированные / полуавтоматизированные интеллектуальные системы. Они имитируют диалог с человеком, что позволяет выполнять запросы пользователей цифровой платформы без привлечения человеческих ресурсов. Чат-боты получили широкое распространение в самых различных сферах: финансовой, здравоохранения, образования, правовых услуг и др. Они активно используются для онлайн-консультаций, ответов на стандартные вопросы пользователей, организации сервисных рассылок и т.д. Таким образом, основная функция ботов заключается в распространении информации.
14 В социальных сетях чат-боты играют важную роль в коммуникациях с пользователями. Под социальным ботом понимается учетная запись, оснащенная программным обеспечением для автоматизации взаимодействия с другими учетными записями пользователей, прежде всего реальных людей. Создатели социальных ботов стремятся к максимальной имитации учетных записей реальных пользователей соцсети, в том числе путем размещения соответствующего контента (фальшивых фотографий и т.д.), чтобы у пользователя не возникало сомнение, что он получает сообщения от реального человека. Тем не менее существуют определенные признаки, по которым можно вычислить такие фейковые аккаунты (например, распространение одинаковых сообщений в одно и то же время). Следует особо отметить, что для создания ботов используются специальные сервисы, причем один сервис может обеспечивать разработку чат-ботов для нескольких разных социальных платформ.
15 Фейковые аккаунты могут использоваться пользователями соцсетей в различных целях (например, для «раскрутки» личного блога с целью увеличения числа подписчиков). В тех случаях, когда такие социальные боты участвуют в политических коммуникациях, например, в рамках обсуждения политических вопросов, в электоральном процессе и т.д., они могут обозначаться как политические боты. Наиболее часто политботы используются политтехнологами для формирования общественного мнения по самым острым проблемам.
16 Влияние политботов на политические коммуникации
17 Механизм функционирования политботов в социальных сетях и их влияние на политические процессы стали объектом многочисленных исследований. Сложность таких исследований заключается в непрозрачности алгоритмов («черный ящик»), что затрудняет понимание того, как проявляется их влияние. Зарубежные ученые активно изучают использование политботов в конкретных социальных сетях7, что позволяет им выявлять общие закономерности их применения в политических коммуникациях.
7. См.: Caldarelli G., De Nicola R., Del Vigna F. et al. The role of bot squads in the political propaganda on Twitter // Commun Phys. 2020. No. 3. P. 81. DOI: 10.1038/s42005-020-0340-4; Bonneau J., Grondin-Robillard L., Ménard M., Mondoux A. Fighting the “System”: A Pilot Project on the Opacity of Algorithms in Political Communication // Hepp A., Jarke J., Kramp L. (eds). New Perspectives in Critical Data Studies. Transforming Communications – Studies in Cross-Media Research. Palgrave Macmillan, Cham, 2022. >>>> ; Santia G., Mujib M., Williams J. Detecting Social Bots on Facebook in an Information Veracity Context // Proceedings of the International AAAI Conference on Web and Social Media. 2019. No. 13(01). P. 463 - 472.
18 Изначально привлекательность политботов обусловливалась их широкими возможностями по распространению информации в социальных сетях благодаря сетевому эффекту. Для проведения политической кампании важно создать впечатление, что большое количество людей поддерживают кандидата или определенную позицию по вопросу, имеющему политическое значение. При отсутствии достаточного количества сторонников или финансов для их привлечения решением проблемы может быть использование политботов – фейковых учетных аккаунтов8. С помощью политботов, запрограммированных на распространение определенных мнений, суждений, мемов, ссылок на онлайн-ресурсы, в политическую кампанию вовлекаются реальные пользователи соцсетей, на которых подписываются боты. При этом у реальных пользователей сетей формируется ложное представление о политических предпочтениях большинства, что оказывает влияние и на их собственную позицию.
8. См.: Howard P., Woolley S., Calo R. -p. cit.
19 Как отмечают исследователи, люди предпочитают общение с теми, кто близок им по своим взглядам, интересам, образованию и т.д., образуя в соцсетях гомофильные (однородные) сообщества9. Соответственно, их участники склонны придерживаться мнения большинства, что может побуждать отдельного индивида либо высказывать свою позицию более активно, чувствуя поддержку большинства, либо скрывать ее, боясь негативной реакции, либо изменить свою позицию, исходя из мнения большинства. Таким образом, реакция пользователей соцсетей на деятельность политботов может быть различной: от «политической мобилизации» до «спирали молчания». Политическая мобилизация с помощью политических ботов достигается путем стимулирования пользователей к выражению своих политических предпочтений для объединения единомышленников, что использовалось политтехнологами для организации массовых протестов, «цветных революций» и т.д. Теория «спирали молчания» объясняет страх социальной изоляции, который может заставить пользователей соцсетей скрывать свое мнение, если оно отличается от позиции якобы большинства, создаваемого политботами10. В любом случае политические боты выступают инструментом манипуляции общественным сознанием11.
9. См.: McPherson M., Smith-Lovin L., Cook J.M. Birds of a Feather: Homophily in Social Networks // Annual Review of Sociology. 2001. No. 27(1). P. 415 - 444.

10. См.: Ross B., Pilz L., Cabrera B., Brachten F., Neubaum G., Stieglitz S. Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks // European Journal of Information Systems. 2019. No. 28(4). P. 394–412.

11. См.: Keller T.R., Klinger U. Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications // Political Communication. 2019. No. 36(1).
20 Описывая влияние политботов на политические процессы, исследователи12 отмечают распространение политботами незаконной или недостоверной информации, клеветы и т.д. Однако такая информация в эпоху «постправды» распространяется и традиционными способами, в частности через официальные СМИ. Основная опасность политботов заключается именно в манипулировании общественным мнением независимо от распространяемого ими контента. Негативный эффект от такого манипулирования лишь усиливается при распространении политботами клеветы, недостоверной или ложной информации.
12. См.: Ferrara E. Disinformation and Social Bot Operations in the Run up to the 2017 French Presidential Election. // First Monday. 2017. No. 22(8). DOI: 10.5210/fm.v22i8.8005
21 Таким образом, большинство исследователей приходят к выводу о негативном влиянии политботов на политические процессы, выделяя при этом три их основные характеристики:
22 «- распространение незаконного контента и дезинформации;
23 - под ложным предлогом человеческой идентичности;
24 - с помощью потенциально неограниченного числа коммуникационных и сетевых действий»13.
13. Pedrazzi S., Oehmer F. Op. cit. P. 552.
25 Вместе с тем в литературе можно встретить и более позитивный взгляд на политботы. Сторонники такого подхода пытаются рассматривать последние в качестве нового цифрового инструмента политических технологий, который может использоваться и в общеполезных целях, например, для «демократического блага»14. В этом же ряду стоит и предложение J. Haeg выделять наряду с «вредоносными» политботами «святые» политботы, «запрограммированные делиться непредвзятой и политически значимой информацией, которая часто не распространяется в основных источниках»15. Российские исследователи выявили применение бот-технологий гражданскими активистами, что позволило им рассматривать использование социальных ботов как инструмента для реализации различных форм гражданского участия16.
14. Woolley S. Bots and Computational Propaganda: Automation for Communication and Control // Persily N., Tucker J. (eds.). Social Media and Democracy: The State of the Field, Prospects for Reform. Cambridge, 2020. P. 89 - 110.

15. Haeg J. The Ethics of Political Bots: Should We Allow Them for Personal Use? // Journal of Practical Ethics. 2017. No. 5(2). P. 85 - 104.

16. См.: Василькова В.В., Легостаева Н.И., Радушевский В.Б. Социальные боты как инструмент развития гражданского участия // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 5. С. 19—42. >>>>
26 Представляется, что такой подход имеет право на существование и может приниматься во внимание при разработке правового регулирования. Однако его сторонники не учитывают, что суть негативного эффекта политботов заключается в том, что это инструмент манипуляции общественным сознанием. Попытка оправдать использование политботов необходимостью распространения полезного контента или достижения общеполезной цели представляется не вполне убедительной. В ситуации общественной дискуссии или, тем более, конфликта в обществе у каждой из противостоящих сторон складывается свое представление о правдивости информации и поставленных целях. О манипуляции свидетельствует сам факт использования ложной человеческой идентичности политботами независимо от распространяемого ими контента и заданных целей.
27 Применение манипулятивных политтехнологий имеет долгую историю, однако с появлением Интернета и новых цифровых технологий, прежде всего искусственного интеллекта, способы и характер политической манипуляции претерпели существенные изменения. В.Б. Строганов предложил ввести новое понятие ризоморфной политической манипуляции, под которой понимается «неосознаваемый личностью способ ее ориентации в политической среде посредством создания и распространения политического контента в медиасфере, результатом реализации которого является формирование политических установок»17. И хотя автор не упоминает политботы в качестве разновидности, делая акцент на интернет-мемы, первые вполне могут быть отнесены к ризоморфным политтехнологиям, так как ориентированы строго на интернет-коммуникацию. Данное исследование представляет интерес и с той точки зрения, что автор предложил отказаться от этических оценок данного феномена. При этом он отмечает, что большинство ученых, как российских18, так и зарубежных19, признают деструктивный характер манипуляций общественным сознанием.
17. Строганов В.Б. Технологии политической манипуляции в интернете: дис. … канд. полит. наук. 23.00.02. Екатеринбург, 2019. С. 10 (209).

18. См.: Грачев Г., Мельник И. Манипулирование личностью. Изд-во «Алгоритм», формат PDF. 1999; Кара-Мурза С.Г. Манипуляция сознанием. М., 2012; Доценко Е.Л. Психология манипуляции: феномены, механизмы и защита. М., 1997.

19. См.: Шостром Э. Человек-манипулятор. Внутреннее путешествие от манипуляции к актуализации. Киев, 2003; Van Dijk T. Discourse and manipulation // Discourse & Society. 2006. No. 17(2).
28 Таким образом, несмотря на дискуссионный характер рассматриваемых вопросов, можно с уверенностью констатировать, что использование политботов в политических коммуникациях вызывает обоснованные опасения у исследователей. В связи с этим представляются довольно справедливыми их упреки в адрес законодателей, которые «сознательно или бессознательно не принимают стандарты против вредоносной деятельности ботов, операторов социальных сетей (включая их руководство, программистов и т.д.), чья сетевая инфраструктура и условия использования допускают или даже поощряют вредоносную деятельность ботов»20.
20. Pedrazzi S., Oehmer F. Op. cit. P. 556.
29 Правовые проблемы регулирования использования политботов
30 Для целей правового регулирования этический подход имеет принципиальное значение при решении вопроса о допустимости использования систем на основе искусственного интеллекта в качестве манипулятивных политических технологий. В силу принципа технологической нейтральности права, которого стремится придерживаться законодатель, ответ на данный вопрос позволит определить вектор развития законодательства в отношении не только политботов, но и других разработок в области искусственного интеллекта, применяемых в коммуникациях. Отказ от этической оценки таких интеллектуальных систем означал бы нецелесообразность разработки для них правового регулирования, так как задача права состоит не в регулировании той или иной цифровой технологии, а в минимизации социальных рисков при ее применении. Такой подход реализован в Предложениях Европейской комиссии о Регламенте, устанавливающем согласованные правила в отношении искусственного интеллекта, в которых указывается, что «эта технология также может использоваться не по назначению и предоставлять новые и мощные инструменты для манипулятивных, эксплуататорских и социальных методов контроля. Такая практика особенно вредна и должна быть запрещена…»21.
21. Proposal for a Regulation of the European parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence act) and amending certain legislative acts. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
31 Признание деструктивного характера политических манипуляций закономерно приводит к выводу о деструктивном характере цифровых инструментов на основе искусственного интеллекта, используемых для таких манипуляций. При этом вряд ли целесообразно установление запрета на использование ботов. Такой запрет не вполне оправдан, когда речь не идет о распространении незаконной информации. Кроме того, технически его реализовать как минимум проблематично. Более взвешенный подход предполагает введение обязанности по информированию пользователя о том, что он взаимодействует с системой искусственного интеллекта. Информирование производится путем маркировки ботов, что позволяет пользователям соцсетей более критично относится к той информации, которую распространяют боты.
32 В целом требование о маркировке ботов соответствует общим принципам регулирования искусственного интеллекта, прежде всего принципу прозрачности22. Данный принцип получил признание как на международном, так и на национальном уровне в большинстве стран. В 2019 г. странами - членами и партнерами ОЭСР были подписаны Принципы ОЭСР в отношении искусственного интеллекта. В числе пяти основанных на ценностях принципов ответственного внедрения надежного искусственного интеллекта был назван принцип «прозрачности и открытости», согласно которому субъекты ИИ должны соблюдать прозрачность и ответственное раскрытие информации о системах ИИ23. В Рекомендациях ЮНЕСКО об этических аспектах искусственного интеллекта, принятых в 2021 г., «прозрачность и объяснимость» указаны в числе принципов деятельности. При этом под прозрачностью понимается, в частности, «предоставление должной информации соответствующим адресатам для обеспечения понимания и повышения доверия»24.
22. См.: Walmsley J. Artificial intelligence and the value of transparency // AI & Soc. 2021. No. 36. P. 585–595. https://doi.org/10.1007/s00146-020-01066-z ; Larsson S., Heintz F. Transparency in artificial intelligence // Internet Policy Review. 2020. No. 9(2). https://doi.org/10.14763/2020.2.1469

23. См.: URL: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

24. URL: https://unesdoc.unesco.org/ark:/48223/pf0000380455_rus
33 В Регламенте ЕС, устанавливающем согласованные правила в отношении искусственного интеллекта, разд. IV посвящен обязательствам по обеспечению прозрачности для определенных систем ИИ. Согласно ст. 52 Регламента провайдеры (разработчики или владельцы систем ИИ) должны обеспечить, чтобы системы ИИ, предназначенные для взаимодействия с физическими лицами, были спроектированы и разработаны таким образом, чтобы последние были проинформированы о том, что они взаимодействуют с системой ИИ, если это не очевидно из обстоятельств и контекста использования. В США принцип прозрачности ИИ в законопроекте о правах в области искусственного интеллекта (Blueprint for an AI Bill of Rights) сформулирован как «уведомление и разъяснение»: «Вы должны знать, когда используется автоматизированная система, и понимать, как и почему она способствует достижению результатов, которые влияют на вас»25.
34 В целях реализации принципа прозрачности ИИ на законодательном уровне должно быть установлено требование о маркировке ботов. В некоторых странах такое требование уже получило законодательное закрепление.
35 Первая попытка законодательного регулирования использования ботов была предпринята в штате Калифорния. В 2019 г. вступил в силу Закон California Senate Bill 1001, который также называется Законом о поддержке прозрачности в Интернете (Bolstering Online Transparency Act - CA Bot Act). Согласно ему признается незаконным использование бота для общения или взаимодействия в Интернете с жителями Калифорнии с целью стимулирования продажи или сделки с товарами или услугами или влияния на голосование на выборах без раскрытия информации о том, что общение осуществляется с помощью бота. Требование о раскрытии информации распространяется на публичные веб-сайты, приложения или социальные сети, которые имеют не менее 10 млн ежемесячных посетителей или пользователей в США. Закон не предоставляет пострадавшим потребителям право подать иск в суд, но дает генеральному прокурору штата широкие полномочия по взысканию штрафов до 2500 долл. за нарушение законов Калифорнии о недобросовестной конкуренции, а также возможность использования средств правовой защиты по праву справедливости.
36 В 2020 г. в Германии было принято Межгосударственное соглашение о СМИ (Medienstaatsvertrag - MStV), в котором установлена обязанность владельцев аккаунтов маркировать социальные боты путем указания на «факт автоматизации в случае контента или сообщений, созданных автоматически с помощью компьютерной программы» (§ 18(3))26. Данная обязанность распространяется и на социальные сети, которые должны обеспечить соблюдение поставщиками услуг обязательств по маркировке. Способ маркировки соцсети выбирают самостоятельно27.
26. См.: URL: https://www.gesetze-bayern.de/Content/Document/MStV-18

27. См.: Holznagel B., Kalbhenn J.C. Media law regulation of social networks - country report: Germany // Perspectives on Platform Regulation: Concepts and Models of Social Media Governance Across the Globe / J. Bayer, Holznagel B., Korpisaari P., Woods L. (eds). Nomos, 2021.
37 Вместе с тем установление правовой обязанности должно быть обеспечено надлежащей ответственностью за ее неисполнение. В связи с этим возникает вопрос о возможной ответственности за нарушение требования о маркировке ботов. Привлечение к ответственности физических и юридических лиц, использующих боты без раскрытия соответствующей информации, представляется весьма проблематичным из-за сложностей доказывания. Поэтому большинство экспертов высказываются за необходимость установления ответственности в отношении онлайн-платформ. Так, по мнению B. Stricke, основным недостатком California Senate Bill 1001 является отсутствие в нем ответственности для онлайн-платформ: «Снятие всей ответственности с онлайн-платформ значительно снижает шансы закона на успех»28.
28. Stricke B. People v. Robots: A Roadmap for Enforcing California's New Online Bot Disclosure Act // Vanderbilt Journal of Entertainment and Technology Law. 2020. No. 22(4). P. 839 - 894.
38 Для установления ответственности онлайн-платформ необходимо убедиться в наличии у них технических возможностей по выявлению ботов. Следует учитывать, что обнаружение ботов - сложная техническая проблема. Как и в других сферах, связанных с кибербезопасностью, боты эволюционируют, что заставляет представителей компьютерных наук постоянно развивать способы и методы их обнаружения. Для распознавания ботов использовалось машинное обучение на наборе данных с помеченными учетными записями ботов и не-ботов29. Такой подход не оправдал себя, так как обучение не успевало за эволюционированием ботов, соответственно, основанные на таком подходе инструменты не могли выявить новые виды ботов30. Широкое распространение получили методы распознавания ботов на основе анализа аномалий сетевого трафика, в частности, большие объемы трафика могут свидетельствовать о вредоносной атаке ботов. Для обнаружения новых поколений ботов требуется применение передовых технологий, таких как глубокое обучение, сложные / комплексные сети, роевый интеллект, защита с использованием подвижных целей (MTD), программно-конфигурируемая сеть (SDN)31.
29. См.: Ramalingaiah A., Hussaini S., Chaudhari S. Twitter bot detection using supervised machine learning // Journal of Physics: Conference Series. 2021. Vol. 1950 012006. 1950. https://iopscience.iop.org/article/10.1088/1742-6596/1950/1/012006/meta ; Sainath Gannarapu S., Dawoud A., Dawoud A. et al. Bot Detection Using Machine Learning Algorithms on Social Media Platforms: Conference: 5th International Conference on Innovative Technologies in Intelligent Systems and Industrial Applications (CITISIA). 2020; Subrahmanian V.S., Azaria A., Durst S. et al. The DARPA Twitter bot challenge // Computer. 2016. No. 49(6). P. 38–46.

30. См.: Sayyadiharikandeh M., Varol O, Yang KC. et al. Detection of novel social bots by ensembles of specialized classifiers // Proceedings of the 29th ACM International Conference on Information & Knowledge Management (CIKM ‘20). 2020. P. 2725–2732.

31. См.: Xing Y., Shu H., Zhao H. et al. Survey on Botnet Detection Techniques: Classification, Methods, and Evaluation // Mathematical Problems in Engineering. 2021. P. 1 - 24. https://doi.org/10.1155/2021/6640499
39 Создаваемые с использованием таких технологий цифровые сервисы позволяют выявлять и удалять боты из социальных сетей. В качестве примера можно привести Botometer, который проверяет активность учетной записи в Twitter и дает ей оценку32. Однако эффективность таких цифровых сервисов остается недостаточно высокой, что наглядно продемонстрировало исследование социологов33, в котором был проведен сравнительный анализ результатов применения трех различных цифровых сервисов идентификации ботов в Twitter. Результаты академического исследования нашли косвенное подтверждение и в преддоговорном споре Илона Маска с соцсетью Twitter в процессе приобретения последней. Представители Twitter утверждали, что боты составляют не более 5% от всех учетных записей. Анализ, проведенный компанией Cyabra позаказу Илона Маска, показал, что количество ботов в соцсети составляет 11%. Уровень достоверности результатов проведенного анализа генеральный директор Cyabra Дэн Брами оценил в 80%, отметив существующие ограничения на использование его компанией алгоритмов машинного обучения для определения того, являются ли учетные записи подлинными34.
32. См.: URL: https://botometer.osome.iu.edu/

33. См.: Martini F., Samula P., Keller T. R., Klinger U. Bot, or not? Comparing three methods for detecting social bots in five political discourses // Big Data & Society. 2021. No. 8(2). https://doi.org/10.1177/20539517211033566

34. См.: Duffy C., Fung B. Elon Musk commissioned this bot analysis in his fight with Twitter. Now it shows what he could face if he takes over the platform // CNN. 2022. October 10. URL: https://edition.cnn.com/2022/10/10/tech/elon-musk-twitter-bot-analysis-cyabra/index.html
40 Следовательно, у онлайн-платформ отсутствуют надежные инструменты для выявления ботов, что, в свою очередь, затрудняет и возможность эффективного контроля за тем, как сами социальные сети предпринимают усилия по борьбе с ботами. Как справедливо указывают исследователи, «регулирующие органы не могут эффективно отслеживать, достаточно ли усилий предпринимают такие платформы, как Twitter, против манипулирования платформой с помощью автоматических учетных записей, или даже делают ли они то, о чем они заявляют»35.
35. Martini F., Samula P., Keller T. R., Klinger U. Op. cit.
41 Таким образом, в настоящее время эффективный правовой механизм реализации требования об обязательной маркировке ботов не создан ни в одной правовой системе мира. Тем не менее первые шаги в этом направлении уже предпринимаются. Так, социальная сеть Twitter потребовала от разработчиков раскрытия информации об учетной записи в своих обновленных правилах 2020 г., а в начале 2022 г. у разработчиков появилась возможность маркировать свои боты в Twitter36. При несоблюдении владельцами ботов обязанности по их маркировке социальные сети, обладая определенными полномочиями по модерации размещаемого контента, вправе удалять такие фальшивые аккаунты.
42 Рассматривая проблему борьбы с политботами в более широком контексте, как борьбу с распространением незаконного или ложного контента в соцсетях, необходимо указать на наличие существенных различий в законодательствах разных стран. В США ситуация с политботами осложняется тем, что онлайн-платформы по общему правилу, установленному в разд. 47 U.S. Code § 23037, освобождены от ответственности за размещаемый сторонний контент.
43 В отличие от США российское законодательство устанавливает обязанности для владельцев социальных сетей в ст. 10.6 Федерального закона от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации». Обязанности владельцев соцсетей заключаются в соблюдении требования законодательства Российской Федерации при распространении информации, прежде всего недопущение распространения незаконной информации, такой как призывы к терроризму и экстремизму, пропаганда порнографии, культа насилия и жестокости и др. В рамках исполнения данной обязанности владельцы соцсетей должны осуществлять мониторинг соцсети, направленный на выявление такой информации и в случае обнаружения ограничивать доступ к ней пользователей. За нарушение порядка ограничения доступа к такой информации и (или) порядка ее удаления в ст. 13.41. КоАП РФ предусмотрена административная ответственность в виде штрафов, размер которых для юридических лиц может достигать восьми миллионов рублей.
44 Таким образом, нормы российского законодательства не только позволяют, но и обязывают социальные сети бороться с политботами, распространяющими незаконную информацию. Однако они не решают проблему манипулирования общественным сознанием с использованием политботов в полном объеме. В связи с этим возникает вопрос о целесообразности разработки особых правовых норм, регламентирующих использование ботов в электоральных и других политических процессах.
45 Учитывая отсутствие данных о широком использовании политботов в российском политическом пространстве, такой подход вряд ли будет востребован. Необходимо также учитывать, что в настоящее время основные угрозы использования политботов возникают не из-за внутриполитических дискуссий, для которых требовалось бы установление правовых границ, а из-за геополитического противостояния. Возможные попытки дестабилизации политической ситуации внутри страны с использование политботов, действующих из недружественных стран, не могут быть эффективно пресечены с помощью национального законодательства. На низкую эффективность национального законодательства указывают и зарубежные исследователи: «Поскольку деятельность социальных ботов не ограничена национальными границами, национальное регулирование представляется несколько анахроничным»38.
38. Pedrazzi S., Oehmer F. Op. cit. P. 578.
46 Тем не менее представляется целесообразным в рамках формирующегося российского законодательства об искусственном интеллекте предусмотреть обязанность разработчиков и владельцев ботов маркировать их таким образом, чтобы это было понятно взаимодействующему с ними человеку. В настоящее время в России действует Кодекс этики в сфере искусственного интеллекта, подписанный в 2021 г. В нем содержится указание на необходимость идентификации ИИ в общении с человеком в рамках ответственного подхода к созданию и использованию искусственного интеллекта: «Акторам ИИ рекомендуется осуществлять добросовестное информирование пользователей об их взаимодействии с СИИ, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию пользователя»39.
47 Необходимо переходить от этических правил в области ИИ к правовым нормам, четко регламентирующим обязанности разработчиков и владельцев систем ИИ, в том числе в отношении использования ботов. Ограниченные технические возможности по обнаружению ботов на данном этапе развития цифровых технологий могут рассматриваться в качестве аргумента для отказа от установления ответственности для онлайн-платформ за выявление и удаление ботов, но не для отказа от обязательной маркировки ботов. Представляется, что законодательное закрепление требования о маркировке будет способствовать снижению риска манипуляции общественным сознанием с использованием ботов, в том числе и в политических коммуникациях.
48 Заключение
49 Проведенное исследование позволило выявить деструктивный характер политических ботов, который заключается в манипулировании общественным сознанием. О манипуляции свидетельствует сам факт использования ложной человеческой идентичности политботами независимо от распространяемого ими контента и заданных целей. Снизить риск негативного влияния позволит маркировка ботов, которая информирует пользователя о том, что он взаимодействует с системой ИИ. Обязанность по маркировке должна быть возложена на разработчиков и владельцев таких систем. При этом установление ответственности для социальных сетей за обнаружение и удаление ботов нецелесообразно ввиду отсутствия в настоящее время технических возможностей для создания эффективных цифровых сервисов. Владельцы социальных сетей должны нести ответственность согласно действующему законодательству только за блокировку ботов, распространяющих незаконную информацию. Законодательно закрепить обязанность по маркировке ботов предлагается в формирующемся российском законодательстве об искусственном интеллекте в рамках реализации общепризнанного принципа прозрачности искусственного интеллекта.

Библиография

1. Василькова В.В., Легостаева Н.И. Социальные боты в политической коммуникации // Вестник РУДН. Сер.: Социология. 2019. Т. 19. № 1. С. 121—133.

2. Василькова В.В., Легостаева Н.И., Радушевский В.Б. Социальные боты как инструмент развития гражданского участия // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 5. С. 19—42. https://doi.org/10.14515/monitoring.2019.5.02

3. Грачев Г., Мельник И. Манипулирование личностью. Изд-во «Алгоритм», формат PDF. 1999.

4. Доценко Е.Л. Психология манипуляции: феномены, механизмы и защита. М., 1997.

5. Кара-Мурза С.Г. Манипуляция сознанием. М., 2012.

6. Мартьянов Д.С. Политический бот как профессия // ПОЛИТЭКС. 2016. № 1. С. 74 - 89.

7. Строганов В.Б. Технологии политической манипуляции в интернете: дис. … канд. полит. наук. 23.00.02. Екатеринбург, 2019. С. 10 (209).

8. Чесноков В.О. Применение алгоритма выделения сообществ в информационном противоборстве в социальных сетях // Вопросы кибербезопасности. 2017. № 1. С. 37 - 44.

9. Шостром Э. Человек-манипулятор. Внутреннее путешествие от манипуляции к актуализации. Киев, 2003.

10. Bessi A., Ferrara E. Social Bots Distort the 2016 U.S. Presidential Election Online Discussion // First Monday. 2016. No. 21(11).

11. Bonneau J., Grondin-Robillard L., Ménard M., Mondoux A. Fighting the “System”: A Pilot Project on the Opacity of Algorithms in Political Communication // Hepp A., Jarke J., Kramp L. (eds). New Perspectives in Critical Data Studies. Transforming Communications – Studies in Cross-Media Research. Palgrave Macmillan, Cham, 2022. https://doi.org/10.1007/978-3-030-96180-0_5

12. Caldarelli G., De Nicola R., Del Vigna F. et al. The role of bot squads in the political propaganda on Twitter // Commun Phys. 2020. No. 3. P. 81. DOI: 10.1038/s42005-020-0340-4

13. Duffy C., Fung B. Elon Musk commissioned this bot analysis in his fight with Twitter. Now it shows what he could face if he takes over the platform // CNN. 2022. October 10. URL: https://edition.cnn.com/2022/10/10/tech/elon-musk-twitter-bot-analysis-cyabra/index.html

14. Ferrara E. Disinformation and Social Bot Operations in the Run up to the 2017 French Presidential Election. // First Monday. 2017. No. 22(8). DOI: 10.5210/fm.v22i8.8005

15. Haeg J. The Ethics of Political Bots: Should We Allow Them for Personal Use? // Journal of Practical Ethics. 2017. No. 5(2). P. 85 - 104.

16. Holznagel B., Kalbhenn J.C. Media law regulation of social networks - country report: Germany // Perspectives on Platform Regulation: Concepts and Models of Social Media Governance Across the Globe / J. Bayer, Holznagel B., Korpisaari P., Woods L. (eds). Nomos, 2021.

17. Howard P.N., Kollanyi B. Bots, #Strongerin, and #Brexit: Computational Propaganda During the UK-EU Referendum // SSRN. 2016. DOI: 10.2139/ssrn.2798311

18. Howard P., Woolley S., Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration // Journal of Information Technology & Politics. 2018. No. 15 (2). P. 81 - 93. DOI: 10.1080/19331681.2018.1448735

19. Keller T.R., Klinger U. Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications // Political Communication. 2019. No. 36(1).

20. Larsson S., Heintz F. Transparency in artificial intelligence // Internet Policy Review. 2020. No. 9(2). https://doi.org/10.14763/2020.2.1469

21. Martini F., Samula P., Keller T. R., Klinger U. Bot, or not? Comparing three methods for detecting social bots in five political discourses // Big Data & Society. 2021. No. 8(2). https://doi.org/10.1177/20539517211033566

22. Massimo S., Ferrara E., De Domenico M. Bots Increase Exposure to Negative and Inflammatory Content in Online Social Systems // Proceedings of the National Academy of Sciences 115. 2018. No. 49. P. 12435–1240. DOI: 10.1073/pnas.1803470115

23. McPherson M., Smith-Lovin L., Cook J.M. Birds of a Feather: Homophily in Social Networks // Annual Review of Sociology. 2001. No. 27(1). P. 415 - 444.

24. Pedrazzi S., Oehmer F. Communication Rights for Social Bots? Options for the Governance of Automated Computer-Generated Online Identities // Journal of Information Policy. 2020. No. 10. P. 549–81.

25. Ramalingaiah A., Hussaini S., Chaudhari S. Twitter bot detection using supervised machine learning // Journal of Physics: Conference Series. 2021. Vol. 1950 012006. 1950. https://iopscience.iop.org/article/10.1088/1742-6596/1950/1/012006/meta

26. Ross B., Pilz L., Cabrera B., Brachten F., Neubaum G., Stieglitz S. Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks // European Journal of Information Systems. 2019. No. 28(4). P. 394–412.

27. Sainath Gannarapu S., Dawoud A., Dawoud A. et al. Bot Detection Using Machine Learning Algorithms on Social Media Platforms: Conference: 5th International Conference on Innovative Technologies in Intelligent Systems and Industrial Applications (CITISIA). 2020.

28. Santia G., Mujib M., Williams J. Detecting Social Bots on Facebook in an Information Veracity Context // Proceedings of the International AAAI Conference on Web and Social Media. 2019. No. 13(01). P. 463 - 472.

29. Sayyadiharikandeh M., Varol O, Yang KC. et al. Detection of novel social bots by ensembles of specialized classifiers // Proceedings of the 29th ACM International Conference on Information & Knowledge Management (CIKM ‘20). 2020. P. 2725–2732.

30. Stricke B. People v. Robots: A Roadmap for Enforcing California's New Online Bot Disclosure Act // Vanderbilt Journal of Entertainment and Technology Law. 2020. No. 22(4). P. 839 - 894.

31. Subrahmanian V.S., Azaria A., Durst S. et al. The DARPA Twitter bot challenge // Computer. 2016. No. 49(6). P. 38–46.

32. Van Dijk T. Discourse and manipulation // Discourse & Society. 2006. No. 17(2).

33. Xing Y., Shu H., Zhao H. et al. Survey on Botnet Detection Techniques: Classification, Methods, and Evaluation // Mathematical Problems in Engineering. 2021. P. 1 - 24. https://doi.org/10.1155/2021/6640499

34. Walmsley J. Artificial intelligence and the value of transparency // AI & Soc. 2021. No. 36. P. 585–595. https://doi.org/10.1007/s00146-020-01066-z

35. Woolley S. Bots and Computational Propaganda: Automation for Communication and Control // Persily N., Tucker J. (eds.). Social Media and Democracy: The State of the Field, Prospects for Reform. Cambridge, 2020. P. 89 - 110.

36. Woolley S., Guilbeault D. Computational Propaganda in the United States of America: Manufacturing Consensus Online / S. Woolley, Ph. N. Howard (eds). Working Paper. 2017.5. Oxford, P. 1–28.

Комментарии

Сообщения не найдены

Написать отзыв
Перевести