ИИ может укрепить демократические институты, обеспечив условия для того, чтобы голоса граждан действительно были услышаны
Общество обеспокоено тем, что искусственный интеллект (ИИ) подрывает или в ближайшее время начнет подрывать демократию. Люди опасаются, что развитие ИИ вызовет потерю рабочих мест, дестабилизацию экономики и увеличение разрыва между богатыми и бедными. Это может привести к дальнейшему сосредоточению влияния в руках нескольких технологических компаний и ослаблению государственных структур, призванных регулировать их деятельность. Некоторые также опасаются, что технологические гиганты и государственные органы могут все чаще делегировать принятие решений, принимаемых человеком, машинам, в результате чего демократию сменит «алгократия», при которой правит не народ, а алгоритмы.
Это антиутопическое видение не учитывает имеющиеся у нас сегодня возможности по определению направления развития ИИ. Мы как человеческие общества имеем (по крайней мере, пока) политические возможности для предотвращения вреда, который нам может нанести ИИ, и несем за это ответственность. У нас также есть технологические возможности для того, чтобы использовать ИИ для укрепления наших демократических процессов, с тем чтобы повысить нашу коллективную способность управлять сферой ИИ, а не просто ее регулировать.
Аналогично другим этическим и политическим вопросам, таким как редактирование генома, управление ИИ требует не только более активного вмешательства экспертов и регулирования, но и более активного участия и вклада граждан, например в вопросе регулирования распределительного воздействия ИИ на экономику. Как и в случае с другими глобальными проблемами, такими как изменение климата, для управления ИИ необходимо, чтобы этот голос демократии был услышан на уровне международных организаций. К счастью, ИИ обладает потенциалом для создания более инклюзивной, основанной на широком участии общественности, совещательной форме демократии, в том числе в глобальном масштабе.
Эксперименты по вовлечению общественности
В течение 40 лет правительства многих стран проводили эксперименты, направленные на то, чтобы более широко вовлечь рядовых граждан в процесс разработки политики и законодательства, чем только путем голосования. Эти эксперименты в основном проводились локально и были небольшими, аналогично гражданским ассамблеям и гражданским жюри, которые нашли широкое применение для обсуждения проблемы изменения климата и других вопросов. При подготовке доклада Организации экономического сотрудничества и развития за 2020 год было выявлено примерно 600 таких случаев, когда случайная выборка граждан подробно исследовала проблему и формулировала обоснованные рекомендации о мерах политики (а в одном случае даже предложения).
Однако некоторые из этих политических экспериментов также предусматривали массовое участие граждан, как, например, конституционные процессы, организованные в 1980-х и 1990-х годах в Бразилии, Кении, Никарагуа, Уганде и Южной Африке, а также относительно недавно в Египте, Исландии и Чили, в ходе которых для работы с рядовыми гражданами использовались консультации с широкой общественностью и краудсорсинг. Конечно, не все попытки были успешными, но все они являются частью важной тенденции.
Правительства некоторых стран также развернули кампании по проведению масштабных многоформатных консультаций. В качестве примера можно привести «Большие национальные дебаты» 2019 года, которые президент Франции Эмманюэль Макрон инициировал в ответ на движение «желтых жилетов»; в них приняло участие около 1,5 миллиона человек. Другой пример — общеевропейская Конференция о будущем Европы, в рамках которой гражданам стран — членов ЕС было предложено высказать свое мнение по поводу реформ, касающихся политики и институтов ЕС, в результате чего 5 миллионов человек посетило веб-сайт и 700 тысяч человек приняло участие в дебатах.
Несмотря на некоторые онлайн-элементы, в этих экспериментах в основном применялись низкотехнологичные, аналоговые процессы, в которых ИИ не использовался вовсе. Политики, получив слишком большой объем необработанных и многомерных данных или будучи не уверенными в их значении, в результате легко игнорировали мнение граждан. Людям дали возможность высказаться, но их не всегда слышали. А уровень обсуждения проблем даже самими участниками часто был поверхностным.
Повышение качества дискуссий
Теперь у нас есть возможность существенно расширить масштабы проведения таких совещательных процессов и усовершенствовать их, с тем чтобы голоса граждан во всем их изобилии и многообразии могли влиять на ситуацию. Примером такого процесса служит провинция Китая Тайвань.
После «революции подсолнухов» 2014 года, в результате которой к власти пришли технически подкованные политики, была создана онлайн-платформа с открытым исходным кодом pol.is. Эта платформа позволяет пользователям подробно выражать свои мнения по любой теме, от регулирования Uber до политики в отношении COVID, и голосовать за или против мнений других участников. Эти голоса также используются для получения общей статистики общественного мнения, которая помогает участникам понять, какие предложения позволят достичь консенсуса, и в то же время четко определить мнения меньшинства и несогласных и даже выявить группы лоббистов, придерживающихся очевидной партийной линии. Это помогает людям лучше понимать друг друга и уменьшает поляризацию. Затем политики используют полученную информацию для разработки ответных мер государственной политики, учитывающих все точки зрения.
За последние несколько месяцев pol.is получила дальнейшее развитие за счет интеграции машинного обучения с некоторыми ее функциями с целью позволить участникам взаимодействовать с платформой в форме более активной дискуссии. Теперь пользователи платформы могут взаимодействовать с большой языковой моделью, или LLM (разновидность ИИ), которая генерирует информацию от имени групп, представляющих различные мнения, и помогает участникам изучить позицию своих союзников, оппонентов и промежуточные мнения. Это позволяет пользователям платформы участвовать в более глубоких дискуссиях и еще больше способствует деполяризации. Сегодня этот инструмент часто используется для консультаций с общественностью, в которых участвуют 12 миллионов человек, или почти половина населения.
Корпорации, которые сталкиваются с собственными трудностями управления, также отмечают потенциал проведения масштабных консультаций с использованием ИИ. После создания своего более традиционного технократического Наблюдательного совета, в который вошли юристы и эксперты, ответственные за принятие решений по контенту, в 2022 году компания Meta (ранее Facebook) начала экспериментировать с форумами сообществ Meta: случайно выбранным группам пользователей из нескольких стран было предложено обсудить регулирование контента, связанного с изменением климата. Еще более амбициозный эксперимент состоялся в декабре 2022 года, когда 6000 пользователей из 32 стран в течение нескольких дней на 19 языках обсуждали проблему кибербуллинга в метавселенной. Обсуждения в рамках эксперимента Meta проводились на разработанной Стэнфордским университетом платформе с помощью (пока еще базового) ИИ, который назначал продолжительность выступлений, помогал группе определиться с темами и советовал, когда дискуссию следует отложить.
На данный момент нет доказательств того, что ИИ-координаторы справляются со своей работой лучше, чем люди, но это может скоро измениться. И когда это произойдет, ИИ-координаторы будут иметь явное преимущество в виде значительно более низкой стоимости, что будет иметь важное значение, если мы хотим однажды расширить охват глубоких совещательных процессов между людьми (а не между людьми и имитаторами LLM, как в примере Тайваня) с 6000 до нескольких миллионов человек.
Перевод, резюмирование, анализ
Вопросы применения ИИ в области совещательной демократии пока находятся на стадии изучения. Следующим рубежом будет мгновенный перевод речи между многоязычными группами, а также резюмирование коллективных обсуждений. Согласно недавним исследованиям, резюме текста, выполненное ИИ, на 50 процентов точнее резюме, выполненного человеком (по оценкам обученных студентов, сравнивших резюме стенограмм обсуждений, выполненные ИИ и специалистами по анализу текстовой информации). Однако для решения многих из этих задач, вероятно, потребуется определенная доля человеческого суждения. В таких случаях ИИ может стать полезным инструментом для аналитиков, координаторов и переводчиков.
На горизонте возникают новые способы укрепления демократии с помощью ИИ. Компания OpenAI, запустившая ChatGPT, недавно представила программу грантов под названием «Демократический вклад в ИИ». Гранты были предоставлены 10 самым перспективным группам в мире, работающим над разработкой алгоритмов, призванных содействовать дискуссии между людьми (в целях раскрытия информации отмечу, что я вхожу в совет кураторов, который помог сформулировать условия программы и выбрать победителей). Хотелось бы надеяться, что скоро эти инструменты можно будет начать использовать, в частности, для организации глобального обсуждения вопросов управления ИИ.
Снижение рисков
Внедрение ИИ в демократические процессы связано с определенными рисками, такими как необъективность данных, проблемы конфиденциальности, возможность слежки и юридические сложности, практически во всех областях. При этом также возникает проблема информационного разрыва и потенциального исключения из процесса лиц, не имеющих образования, и групп, скептически настроенных по отношению к технологиям. Многие из этих вопросов необходимо решать в первую очередь на уровне политики, экономики, права и общества, а не только на уровне технологий. Но и здесь могут помочь технологии.
Например, проблемы конфиденциальности и слежки можно решить с помощью таких методов, как протокол с нулевым разглашением (также называемый доказательством с нулевым разглашением, или ZKP), который служит для проверки или «подтверждения» личности без сбора данных об участниках (например, путем аутентификации с помощью текстовых сообщений или через блокчейн). ZKP может использоваться как для участия в онлайн-голосовании, так и в контексте обсуждений, например для передачи конфиденциальной информации или исполнения роли анонимного разоблачителя. В то же время генеративный ИИ может обеспечить доступ к ранее дефицитным знаниям и обучающим ресурсам для всех, кто в них нуждается. Этот инструмент, выполняющий роль индивидуального собеседника, готового к общению с гражданами, может разъяснять технические вопросы политики в специфическом когнитивном стиле, понятном человеку (в том числе с помощью изображений), и при необходимости преобразовывать устную речь в письменную.
Несмотря на существующие ограничения и риски, ИИ обладает потенциалом для создания лучшей, более инклюзивной версии демократии, которая, в свою очередь, обеспечит правительствам легитимность и знания, необходимые для контроля за развитием ИИ. Требования регулирования ИИ, вероятно, будут лучше соблюдаться и иметь более высокую эффективность в демократических странах, использующих возможности ИИ.
Тем не менее существует риск того, что сама демократия может стать жертвой революции ИИ. Необходимы срочные инвестиции в такие инструменты ИИ, которые безопасным образом дополняют возможности наших государств по вовлечению общественности и проведению обсуждений.
Мнения, выраженные в статьях и других материалах, принадлежат авторам и не обязательно отражают политику МВФ.
Литература:
Siu, A., J. Joseph, and D. Hu. Forthcoming. “Finding the Drivers of Opinion Change Using Language Models.” Stanford University Deliberative Democracy Lab working paper, Stanford, CA.