Для эффективного управления ИИ директивные органы должны придерживаться пяти руководящих принципов
Искусственный интеллект привнесет в жизнь людей и в общество революционные научные достижения, небывалый доступ к технологиям, вредную дезинформацию, подрывающую демократию, и экономические потрясения. Попутно ИИ вызовет фундаментальный сдвиг в структуре и балансе глобальных сил.
Это ставит перед политическими институтами во всем мире беспрецедентную задачу. Им предстоит установить новые нормы для динамично развивающейся новой технологии, снизить ее потенциальные риски и сбалансировать интересы разнородных геополитических субъектов. Все чаще эти субъекты будут представлять частный сектор. И это потребует от правительств, включая стратегических конкурентов и противников, высокого уровня координации.
В 2023 году правительства во всем мире осознали эту задачу. От Брюсселя до Пекина и Бангкока законодатели заняты разработкой нормативно-правовой базы для управления ИИ, в то время как сама технология развивается в геометрической прогрессии. В Японии лидеры Группы семи инициировали «Хиросимский процесс» для решения некоторых из наиболее сложных вопросов, возникающих в связи с генеративным ИИ, а ООН учредила новый консультативный орган высокого уровня по ИИ. На саммите Группы 20-ти в Нью-Дели премьер-министр Индии Нарендра Моди призвал к созданию новой основы ответственного управления ИИ, ориентированного на человека, а председатель Европейской комиссии Урсула фон дер Ляйен выступила за создание нового органа по отслеживанию рисков ИИ по образу Межправительственной группы экспертов по изменению климата.
В ноябре правительство Великобритании провело первый в мире саммит на уровне лидеров, посвященный устранению рисков для безопасности, связанных с ИИ. Даже в США, где расположены крупнейшие компании-разработчики ИИ и где традиционно не спешат регулировать новые технологии, регулирование ИИ — это вопрос времени и редкий пример двухпартийного консенсуса.
Такой всплеск активности обнадеживает. За удивительно короткий промежуток времени мировые лидеры поставили необходимость управления ИИ во главу угла. Но договориться о необходимости регулирования — это только начало. Не менее важно определить вид регулирования. Искусственный интеллект не похож ни на одну из предыдущих задач, а его уникальные характеристики, в сочетании с геополитическими и экономическими стимулами основных субъектов, требуют творческого подхода к режимам управления.
Управление ИИ — это не просто одна проблема. Если говорить об изменении климата, может быть много путей к достижению конечной цели по снижению выбросов парниковых газов, но есть одна главная цель. С ИИ дело обстоит иначе, поскольку программа мер политики в области ИИ должна одновременно стимулировать инновации для решения трудноразрешимых проблем и предотвращать опасное распространение, а также способствовать достижению геополитических преимуществ, не втягивая мир в новую гонку вооружений.
Парадокс могущества ИИ
Еще одна сложность заключается в природе самой этой технологии. Искусственным интеллектом невозможно управлять так, как любой предыдущей технологией, потому что он не похож ни на одну из предыдущих технологий. Это не только создает политические проблемы; его уникальные характеристики все более усложняют решение этих задач. Это парадокс могущества ИИ.
Начнем с того, что все технологии развиваются, но ИИ является сверхэволюционным. Темпы совершенствования ИИ намного превзойдут и без того впечатляющий закон Мура, который успешно предсказал удвоение вычислительной способности каждые два года. Вместо того, чтобы удваиваться каждые два года, объем вычислений, используемых для обучения самых мощных моделей ИИ, увеличивается в 10 раз каждый год в течение последних 10 лет. Процессы, которые раньше занимали недели, теперь происходят за считанные секунды. Базовые технологии, обеспечивающие ИИ, будут становиться все меньше, дешевле и доступнее.
Но уникальность ИИ заключается не только в расширении вычислительной способности. Мало кто предсказывал эволюцию ИИ, начиная с его способности обучать большие языковые модели и заканчивая способностью решать сложные задачи или даже сочинять музыку. В скором времени эти системы могут быть способны к квазиавтономии. Это само по себе будет революционным событием, но последствия будут еще более значительными: искусственный интеллект может стать первой технологией, способной улучшать саму себя.
Искусственный интеллект легко размножается. Как и любое другое программное обеспечение, алгоритмы ИИ гораздо проще и дешевле копировать и распространять (или красть), чем физические активы. По мере того, как алгоритмы ИИ становятся все более мощными, а вычисления более дешевыми, такие модели скоро будут работать на смартфонах. Ни одна столь мощная технология никогда не была доступна настолько широко и быстро. Поскольку предельные издержки, не говоря уже о предельных издержках доставки, равны нулю, после выпуска модели ИИ смогут быть и будут повсюду. Большинство из них будут безопасными: многие были обучены ответственным образом. Но, как и в случае с вирусом, достаточно одной злонамеренной или вышедшей из-под контроля модели, чтобы посеять хаос.
Стимулы указывают на неуправляемый ИИ
Природа ИИ также предполагает различные стимулы. Технологии двойного назначения не являются чем-то новым (не зря использование ядерной энергии в мирных целях находится под пристальным наблюдением), и ИИ — не первая технология, где размыты границы гражданского и военного применения. Но в то время как такие технологии, как обогащение ядерного топлива, очень сложны и капиталоемки, незначительная стоимость ИИ означает, что его можно использовать бесконечно, как для гражданских, так и для военных видов применения. Поэтому ИИ — это нечто большее, чем обычная разработка программного обеспечения: это совершенно новый и опасный способ демонстрации силы.
Достаточно сложно сдерживать ИИ на технологической основе. Но его потенциал для обогащения влиятельных игроков и усиления их власти означает, что правительства и частные компании, разрабатывающие ИИ, заинтересованы в обратном. Проще говоря, превосходство в области ИИ является стратегической целью каждого правительства и компании, обладающих ресурсами для конкуренции. Если холодная война сопровождалась гонкой ядерных вооружений, то сегодняшнее геополитическое соперничество подобным образом будет отражать глобальную конкуренцию за ИИ. И США, и Китай рассматривают превосходство в области ИИ как стратегическую цель, которая должна быть достигнута и которой не должна достигнуть другая сторона. Такая игра с нулевой суммой означает, что Пекин и Вашингтон сосредоточены на ускорении развития ИИ, а не на его замедлении.
Но какими бы сложными ни были отслеживание и контроль в сфере ядерной энергетики 30 лет назад, сделать то же самое в отношении ИИ будет еще сложнее. Даже если бы мировые державы были склонны сдерживать ИИ, нет никакой гарантии, что они смогут это сделать, поскольку, как и почти везде в цифровом мире, каждый аспект ИИ в настоящее время контролируется частным сектором. И хотя небольшое число крупных технологических компаний, которые в настоящее время контролируют ИИ, могут сохранить свое преимущество в обозримом будущем, столь же вероятно, что постепенное распространение ИИ приведет к появлению на этом поле все большего и большего числа мелких игроков, что усложнит управление. В любом случае, у частного бизнеса и отдельных технических специалистов, которые будут контролировать ИИ, мало стимулов для саморегулирования.
Любая из этих особенностей создаст трудности для традиционных моделей управления; вместе все эти особенности делают эти модели несостоятельными, а задачу управления ИИ — не похожей ни на одну другую задачу, стоявшую перед правительствами раньше.
Принципы управления
Чтобы глобальное управление ИИ было успешным, оно должно отражать уникальные особенности ИИ. Первой среди них является тот факт, что прогресс ИИ как сверхэволюционной технологии по своей сути непредсказуем. Директивные органы должны учитывать, что при такой непредсказуемости любые правила, которые они принимают сегодня, могут оказаться неэффективными или даже неактуальными через несколько месяцев, не говоря уже о нескольких годах. Ограничивать регулирующие органы рамками негибких режимов сейчас было бы ошибкой.
Вместо этого для надлежащего управления лучше всего было бы установить набор базовых принципов, на основе которых можно разработать политику в отношении ИИ.
- Предосторожность. Соотношение рисков и выгод, связанных с ИИ, несимметрично; несмотря на огромные преимущества потенциала ИИ, директивные органы должны обеспечить защиту от его потенциально катастрофических недостатков. Уже широко используемый принцип предосторожности должен быть адаптирован к ИИ и закреплен в любом режиме управления.
- Гибкость. Структуры разработки политики, как правило, статичны, а стабильность и предсказуемость ценятся выше, чем динамизм и гибкость. С такой уникальной технологией, как искусственный интеллект, это не сработает. Управление ИИ должно быть настолько же гибким, адаптивным и самокорректирующимся, насколько ИИ является динамичным, сверхэволюционным и самосовершенствующимся.
- Инклюзивность. Наиболее успешное отраслевое регулирование, особенно когда речь идет о технологиях, всегда осуществлялось в сотрудничестве с коммерческим сектором, и это особенно верно для ИИ. Учитывая эксклюзивный (по крайней мере, на данный момент) характер разработки ИИ и сложность этой технологии, единственный способ для регулирующих органов должным образом контролировать ИИ — это сотрудничество с частными технологическими компаниями. Чтобы отразить безграничный характер ИИ, правительствам следует сделать компании участниками международных соглашений. Включение частных компаний в дипломатические отношения на высоком уровне может показаться чем-то неслыханным, но если исключить тех, кто обладает столь сильным влиянием, любая структура управления без участия этих субъектов будет обречена еще до того, как начнет действовать.
- Непроницаемость. Чтобы управление ИИ было успешным, оно должно быть непроницаемым; учитывая способность ИИ легко размножаться, всего одно отступление от режима может позволить какой-либо опасной модели выйти из-под контроля. Таким образом, любые механизмы соблюдения должны быть непроницаемыми; к ним должно быть легко присоединиться, чтобы добиться участия в них, а выход из них должен дорого обходиться, чтобы предотвратить несоблюдение.
- Адресность. Учитывая универсальный характер ИИ и сложности, связанные с управлением им, единого режима управления недостаточно для устранения различных источников рисков, связанных с ИИ. На практике для определения подходящих инструментов борьбы с теми или иными рисками потребуется разработка обновляемой, действенной таксономии дискретных потенциальных видов воздействия ИИ. Поэтому управление ИИ должно быть целенаправленным, основанным на оценке рисков и модульным, а не универсальным.
В ближайшие десятилетия управление ИИ станет одной из самых сложных задач для международного сообщества. Насколько важно регулировать ИИ, настолько же важно регулировать его правильно. Текущие дебаты о политике в отношении ИИ слишком часто сводятся к ложному выбору между прогрессом и обреченностью (или геополитическими и экономическими преимуществами и снижением рисков). Вместо творческого мышления решения слишком часто напоминают парадигмы для решения проблем вчерашнего дня. В век ИИ это не сработает.
Надлежащая разработка политики будет иметь крайне важное значение, но достичь этой цели можно лишь при наличии подходящих институтов. Чтобы создать эти институты, международному сообществу необходимо договориться о концептуальной основе для рассмотрения вопросов, связанных с ИИ. В качестве отправной точки мы предлагаем эти принципы.
Мнения, выраженные в статьях и других материалах, принадлежат авторам и необязательно отражают политику МВФ.