Между Сциллой и Харибдой. Как искусственный интеллект борется с дезинформацией и распространяет ее
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Между Сциллой и Харибдой. Как искусственный интеллект борется с дезинформацией и распространяет ее
В сегодняшней цифровой экосистеме право искать, получать и распространять информацию ограничивается крупными онлайн-платформами, которые, с одной стороны, полагаются на искусственный интеллект (дальше ИИ) для модерирования, чтобы бороться с дезинформацией, языком ненависти, распространением экстремистского или дискриминирующего контента. С другой стороны, платформы используют тот же ИИ для повышения вовлеченности пользователей, и алгоритмы ИИ часто усиливают распространение спорного, кликбейтного и некачественного контента. Продвижение такого рода контента продиктовано самой бизнес-моделью платформ.
Эта двойственность, а также фактическая непрозрачность и неподотчётность платформ в использовании ИИ уже привела, например, к этническому конфликту в Мьянме или вмешательству в избирательный процесс во многих странах. Но во время пандемии масштабы сопровождающей ее инфодемии показали, что проблема настолько глобальна, что усилиями отдельных государств, самих платформ и исключительно технических инструментов ее не решить.
Эксперты круглого стола ОБСЕ «Искусственный интеллект и дезинформация как вызов многосторонней политике» считают, что нужно создать единые правила регулирования работы платформ на международном уровне. При этом такие нормы должны создать баланс между правами человека, в первую очередь свободы мнения и его выражения, и недопустимостью распространения контента, который вредит разным группам людей и подрывает основы демократических институтов. MediaSapiens публикует выдержки из дискуссии экспертов, посвященной проблемам использования ИИ онлайн-платформами.
ИИ — не магическая пилюля
Основа демократии и ее развития — возможность искать и распространять информацию, иметь доступ к выверенным данным для формирования своего мнения и свободной дискуссии о проблемах общества. Но сегодня, говорит представитель ОБСЕ по вопросам свободы средств массовой информации Тереза Рибейро, огромное количество систем и механизмов влияет на то, кто и какую видит информацию. И эти алгоритмы искусственного интеллекта не ориентированы на достоверность и общественное благо. Наоборот, они направлены на максимизацию пользовательского взаимодействия с рекламными объявлениями для получения прибыли. Поэтому крайне важно понять, как бизнес-модели влияют на доступ к информации пользователей. Ряд исследований показывает, что такие механизмы приводят к радикализации различных групп и поляризации общества, а также усиливает распространение фейкового контента.
Кроме того, есть еще одна важная проблема: если новости регулируются алгоритмами в целях получения прибыли так же, как и любой другой контент, это ставит под угрозу стандарты журналистки: получая выгоду от кликбейтных материалов, алгоритмы поисковиков и социальных сетей оставляют в тени качественную информацию.
Пандемия вкупе з инфодемией привела к необходимости совершать беспрецедентные шаги по борьбе с дезинформацией, в том числе использовать автоматизированные инструменты. «Мы все согласны с тем, что есть необходимость борьбы с дезинформацией и что это сложная задача, которая требует различных мер, в том числе использования алгоритмов. Но ИИ не учитывает нюансы человеческой речи, что приводит к ложноположительным или ложноотрицательным результатам, то есть алгоритмы цензурируют законную речь или, наоборот, не выявляют вредоносный контент. Так что ИИ — не магическая пилюля», — говорит Рибейро.
Один из самых важных аспектов в использовании ИИ для борьбы с дезинформацией, по мнению представителя ОБСЕ по свободе слова, — подотчетность и прозрачность онлайн-платформ. «Я вижу ключевую роль государств в том, чтобы обеспечить правовые процессуальные механизмы для защиты прав человека в онлайн-среде, — говорит она. — Сейчас государства полагаются на посредников в решении проблем онлайн-дезинформации, а они, в свою очередь, действуют в условиях слабой подотчетности и используют механизмы автоматизации, которые не соответствуют государственным обязательствам по защите свободы слова. Именно поэтому необходимы нормативы, которые повысят прозрачность бизнес-практик платформ. Нам нужно бороться, даже если это означает изменение законов об онлайн-рекламе». При принятии таких норм, считает эксперт, ИИ может не нести угрозы, а наоборот — усиливать безопасность цифровых экосистем.
Модерация соцсетей и право на свободу мнения
«Свобода мнения — это абсолютное право, что означает, что любое вмешательство в это право не может быть ограничено никакими причинами, — говорит юрист по правам человека Сьюзи Алегре. — Также, согласно международным конвенциям, право иметь мнение предполагает право его формировать и изменять». Важно, добавляет эксперт, что право на формирование мнения включает право делать это свободно, без целенаправленного вмешательства со стороны, и включает право на защиту от манипуляций этим мнением. То есть защиту от пропаганды, манипуляций, от «промывки мозгов» — и этот аспект крайне важен в борьбе с дезинформацией в цифровой реальности, где алгоритмы могут ограничивать доступ к одной информации или распространять широко другую. Таким образом платформы обладают техниками или методами, которые позволяют субъектам влиять на наше мнение.
Алегре привела пример, который доказывает влияние соцсетей на формирование мнения пользователей: в 2019 году группа исследователей провела опрос на двух конференциях сторонников теории о плоской Земле в США. Все участники мероприятия, за исключением одного опрошенного, стали сторонниками теории благодаря роликам, которые они смотрели в ютубе. Но, как выяснили исследователи, изначально они не искали видео именно на эту тему, и были сторонниками совершенно других, не связанных между собой теорий заговора — например, искали информацию о том, что американские астронавты не высаживались на Луну или что Кеннеди убили в результате сговора мафии и ЦРУ. Однако механизмы ютуба настоятельно рекомендовали им контент, основанный на их первоначальных запросах, — в первую очередь, видео о плоской Земле. Так они оказались на конференции. «Можно оценить, какой силой обладают эти платформы не только для формирования мнений, но и для изменения этих мнений на основании рекомендованных алгоритмов», — говорит Алегре
Глобальная цифровая стратегия или Дикий запад?
Кайл Мэтьюс, исполнительный директор Монреальского института исследования геноцида и прав человека, считает, что во время пандемии стало особенно очевидно: платформы прилагают максимум усилий для противодействия дезинформации, но не справляются и проигрывают в этой борьбе. Что ведет к подрыву доверия к демократии.
«ИИ используется как для намеренной манипуляции и распространения дезинформации, так и для ее выявления, так что это обоюдоострое оружие. Причем его используют и частные организации, и государства, — говорит Мэтьюс. — Мы понимаем, что демократические общества не лучшим образом отреагировали на проблему пандемии, и поэтому они утрачивают свою роль в качестве образцов для подражания для развивающихся государств. Что повлекло за собой широкое распространение дезинформации другими государствами, которые используют ее для радикализации определенных групп, влияния на доверие к СМИ, поляризации общества. Под воздействием этой государственной дезинформации люди стали еще больше утрачивать веру в демократические институты».
Один из ярких примеров использовании ИИ для дезинформации о коронавирусе, говорит Мэтьюс, — это исследование Калифорнийского университета в Сан-Диего (UCSD), которое доказывает: более 300 тысяч фейсбук-аккаунтов, которые были ботами, распространяли фейки о коронавирусной пандемии, о вреде масок и другие неправдивые сообщения. Платформа со временем заблокировала эти аккаунты, но пользователи уже получили доступ к этим фейкам.
Попытки платформ модерировать контент показали две ключевые проблемы: во-первых, основные их усилия направлены на англоязычную среду, оставляя за бортом огромные сообщества, которые используют другие языки. Во-вторых, из-за неоднозначности принятых решений все большее количество людей, представителей научных сообществ, гражданского общества требуют большей прозрачности от платформ, которые занимаются модерацией контента. Все это, считает Мэтьюз, демонстрирует необходимость принимать решения на уровне государств или таких организаций как ОБСЕ. «Нам необходимо создание новых государственно-частных партнерств. Но не у всех государств есть навыки и технические ресурсы для эффективного реагирования на эти вызовы. Кроме того, невозможно бороться с дезинформацией как на Диком Западе, где каждый сам за себя. Поэтому важно, что генеральный секретарь ООН призывает к созданию глобальной цифровой стратегии», — считает Мэтьюс.
Проблема не только в соцсетях
Когда говорят о влиянии онлайн-платформ, обычно подразумевают работу алгоритмов соцсетей, говорит Хлоя Колливер, глава цифровой политики и стратегического диалога ISD. Но исследования ISD показывают, что и другие крупные платформы также могут влиять на формирование мнения людей, радикализируют определённые группы и продвигают различные теории заговора. Например, Amazon, который приобрел огромное влияние во время пандемии за счет онлайн-продаж: его механизмы рекомендаций пользователям, которые покупают или ищут литературу, устроены таким образом, что показывают потенциальному покупателю все более и более радикальный контент или книги о теориях заговора. Механизмы поиска гугла тоже устроены специфическим образом: исследователи вводили в поисковик словосочетание «американские выборы» и анализировали, какие следующие слова подсказывает поисковик. В первых строках оказывались «выборы украдены», «выборы сфальсифицированы», «выборы неверный подсчет голосов». Схожие подсказки, продвигающие теории заговора, и у слова «вакцина»: «почему не работает», «почему опасна», «почему не помогает».
Отдельное исследование организация посвятила работе тиктока — соцсети, о которой мало говорят в связи с продвижением контента, разжигающего ненависть или романтизирующего экстремизм. Как говорит исследовательница, алгоритмы тиктока обладают в этом смысле колоссальными возможностями — и те, кто заинтересован, активно пользуется этой возможностью. Выяснилось, что 24% видео, которые анализировали исследователи, продвигают белый супрематизм, экстремистские или террористические группы; пользователь находит такой контент с первого запроса, и создатели этих видео сознательно используют механизмы продвижения в соцсети через хештеги. А соцсеть, как показывает анализ, не способна качественно модерировать такой контент.
Единственный выход из сложившейся ситуации Колливер, как и большинство других экспертов, видит в прозрачности механизмов соцсетей и совместной работе экспертов и представителей отрасли: «Для борьбы с подобным контентом нужно не только понимание работы алгоритмов критериев выдачи, но и политики соцсетей; нужно понимать, как тикток и Amazon принимают решения, как тестируют алгоритмы, и какие у них результаты. Доступ к таким исследованиям необходим независимым аналитическим центрам и гражданскому обществу. Существует ряд нормативов, вроде Закона о цифровых услугах и цифровой безопасности, но нужен независимый аудит с учетом множества заинтересованных сторон».
Поляризация ради монетизации
Основная проблема в распространении дезинформации и другого вредоносного контента — не в том, что платформы используют в кампаниях или что это делается сознательно и злонамеренно. А в том, что сами механизмы крупных платформ изначально таковы, что влияют на формирование мнений пользователей, и это является частью бизнес-стратегий платформ, считает Кортни Редш, эксперт по правам человека и медиатехнологиям.
Более 70% пользователей в США видят в лентах контент, который подготовлен на кликбейт-фермах Македонии и Косово, хотя сами пользователи никогда не заходили на страницы, связанные с этими государствами или не выбирали ничего подобного в своих поисковых запросах. Приблизительно такая же ситуация у немецких пользователей. Все эти статьи появились в лентах благодаря усилиям самой платформы. В 2015 году Facebook (теперь Meta) запустила сервис «Мгновенные статьи», который позволял пользователям мобильного приложения просматривать материалы СМИ, не покидая ленту соцсети. Таким образом фейсбук получал доходы от рекламы, отъедая кусок рекламного пирога у гугла, а взамен позволял СМИ или конкретным авторам монетизировать свой контент. Вскоре выяснилось, что для крупных СМИ это не слишком выгодная сделка, а вот для копипастеров, которые могут создать сайт, заполняя его плагиатом, и размещать его на десятках разных страниц в соцсети, — золотое дно. Особенно если контент будет провокационным, разжигающим ненависть к этническим, гендерным, религиозным группам. На такие ссылки чаще кликают, обеспечивая «кликбейт-фермам» стабильных доход.
Подобный контент и продвигали «кликбейт-фермы» в Мьянме, Филиппинах, в Германии и США; некоторые из них зарабатывали миллионы долларов в год, получая доход от фейсбука и гугла. Именно влияние онлайн-платформ привело к геноциду рохинджа в Мьянме, поляризации общества и приходу к власти диктатора на Филиппинах, к продвижению экстремистского контента, в том числе ИГИЛ, «Аль-Каиды» и белых супрематистов, в США. Благодаря им у праворадикальной партии «Альтернатива для Германии» в пять раз больший охват пользователей, чем у других немецких партий.
Особую проблему алгоритмы соцстетей составляют для СМИ.
Во-первых, поскольку ложная информация распространяется быстрее и эффективнее, охватывает большее количество людей, возникает проблема доверия к СМИ. С одной стороны, дезинформация или вредоносный контент часто ориентирован на дискредитацию журналистов: их представляют как создателей лживых новостей. С другой, дезинформация и фейки заполняют пробелы, которые возникают в работе СМИ — например, во время пандемии, когда в начале распространения коронавируса научной информации было мало.
Во-вторых, масштабная дезинформация, которую продвигают алгоритмы платформ, не дает журналистам и СМИ формировать актуальную повестку дня по ключевым вопросам, в частности, о выборах, здравоохранении и так далее. Коммерческие интересы платформ влияют на продвижение плагиата, фейков и вредоносного контента, из-за чего понижается выдача достоверной информации.
«Сама логика искусственного интеллекта принуждает журналистов добросовестных СМИ перераспределять ресурсы, чтобы подстроится под их алгоритмы — например, как только фейсбук стал продвигать видеоконтент, это вынудило новостные редакции делать больше видеоматериалов. Когда фейсбук стал продвигать контент от друзей, а не медиа, СМИ снова были вынуждены нанимать людей для оптимизации и продвижения своего контента. Таким образом платформы ограничивают возможности медиа», — говорит Кортни Редш. Помимо этого, отмечает эксперт, очевидно, что есть существенная разница между ресурсами, которые тратят государства на продвижение дезинформации, и ресурсами, которыми располагают частные СМИ, даже самые крупные. Журналисты во многих случаях зарабатывают столько же или меньше, чем тролли. Это создает дополнительные сложности для создания качественной информации, поскольку СМИ, со всеми несопоставимыми затратами на производство собственного контента, приходится конкурировать с кликбейт-фермами, чьи затраты на производство контента существенно ниже.
«Мы видим, что скоординированные кампании по дезинформации сейчас являются доминирующей логикой в онлайн-пространстве. Это можно проанализировать по ситуации с коронавирусом, где легко проследить двенадцать суперраспространителей, которые существенно повлияли на появление мощного антивакцинаторского движения. И все это стало возможно благодаря тем алгоритмам, которые заложены в саму структуру соцплатформ и бизнес-логику корпораций, уязвимости которой можно эксплуатировать, — добавляет Редш. — Интерес этих платформ не совпадает с общественным интересом. В первую очередь, они ориентированы на оптимизацию, на рост пользователей и взаимодействий, на выгоду тех, кто может платить».
Эксперт считает, что небольшое количество платформ, которые определяют логику распространения информации, — серьезная проблема. Благодаря их алгоритмам, которые продвигают кликбейтную, вредоносную информацию, происходит процесс поляризации общества, а центр и «центристская», то есть не поляризующая и не радикализирующая пользователей, информация просто становится невидимой.
Решения проблемы дезинформации, предлагаемые самими платформами, пока не показывают эффективности. Во-первых, из-за минимальной модерации контента на неевропейских языках. Основные усилия соцплатформы направляют на модерацию контента в США и Европе. Во-вторых, сейчас платформы сами проводят оценку информации, решают, как ее контролировать и модерировать. По мнению эксперта, самим платформам с проблемой не справиться — нужны усилия и государств. «Наша задача — перестроить саму логику функционирования этих систем. Ведь такое огромное влияние не может находиться под контролем такого небольшого количества организаций и людей», — говорит Редш.
Что делать?
Нет стопроцентно эффективного плана противодействия дезинформации и другому вредоносному контенту, распространяемым с помощью искусственного интеллекта. Но эксперты сходятся в том, что его можно будет выработать, если все заинтересованные стороны — государства, международные организации, гражданское общество и сами платформы — начнут прилагать скоординированные усилия. Без этих партнерств ни платформы, ни отдельные государства просто не справятся с ситуацией.
Важнее всего — понимать влияние монетизации и, шире, бизнес-модели онлайн-платформ на распространение дезинформации. Поэтому экспертам и государствам нужно более четкое представление о работе алгоритмов. Прозрачность этих механизмов и внешний независимый аудит их работы — один из ключей к борьбе с дезинформацией.
Помимо этого, и международные организации, и сами государства должны разработать национальные и международные нормативы, стратегию, в рамках которой работали бы платформы. Такие инициативы уже есть. Великобритания работает над собственным законодательством, в ЕС обсуждаются законы о цифровых услугах и цифровом маркетинге, которые усилят ответственность платформ за удаление незаконного контента, а также сделают алгоритмы более прозрачными.
Эксперты также подчеркивают, что и государства должны взять на себя обязательства и защитить, с одной стороны, свободу слова, а с другой — право свободно формировать свое мнение без влияния скоординированных информационных атак. Помимо этого, законодатели должны разработать систему оценки рисков: без их реальной оценки невозможно понять, какая информация действительно вредоносна и к каким последствиям ее распространение может привести. В Великобритании, которая готовится к принятию собственного закона об онлайн-платформах к 2024 году, будет сформирован консультационный совет по противодействию дезинформации, куда будут входить исследователи, регулятор, представители платформ и гражданского общества. Создание подобного органа рассматривают и во Франции.
Возможны и другие инициативы, и другие подходы, — например, человеческий надзор за работой и решениями ИИ, и обучение ИИ на более полных рядах данных и для бóльшего количества языков, чтобы модерация контента была более понятной и не вызывала недоверия у пользователей. Эти усилия уже прилагают сами платформы — например, фейсбук уже создал независимый наблюдательный совет, который влияет на принятие решений по поводу модерации контента, и его решения обязательны для исполнения. Но очевидно, что человечество впервые столкнулось с проблемой такого тотального влияния на жизнь, взгляды и здоровье людей. Эту проблему можно решить только совместными усилиями.
Фото: unsplash.com