政策当局者は、AIを効果的に統治するために5つの指針を遵守しなければならない。
人工知能(AI)によって、人々の生活や社会は、画期的な科学の進歩やかつてないテクノロジーへのアクセスへと開放されると同時に、民主主義を混乱させる有害な誤情報や経済の大混乱といったリスクに晒されていく。このような状況下で、AIは、世界のパワーバランスや構造に根本的な変革を引き起こすであろう。
これは世界中の政治機関にとって未曾有の課題となる。流動的で新しいテクノロジーの規範を設け、そこから生じうるリスクを緩和しつつ、さまざまな地政学的当事者の利害を調整していかなければならないからだ。当事者は、民間部門において今後ますます増えていく。そして、戦略的競争国や敵対国を含め、政府間でのハイレベルな協調が必要になってくるのだ。
2023年、世界各国の政府は、この問題の重要性を悟った。AI技術の加速的進歩を背景に、ベルギーから中国、そしてタイに至るまで、政策当局は、AIガバナンスに係る規制枠組みの構築に尽力している。日本においては、先進7か国グループ(G7)の首脳陣が、生成AIを取り巻く難題に取り組むため「広島AIプロセス」を立ち上げ、国連では、AIに関するハイレベル諮問機関が新たに設置された。インドで行われたG20サミットにおいて、同国のナレンドラ・モディ首相は、責任ある人間中心のAIガバナンスの新たな枠組みの必要性を訴え、欧州委員会のウルズラ・フォン・デア・ライエン委員長は、気候変動に関する政府間パネル(IPCC)を参考にした新たなAIリスク監視機関を提案した。
2023年11月、英国は、AI リスクの安全対策を目的とした世界初の首脳級会合を開催した。大手AI企業を抱え、新技術の規制に関しては従来後ろ向きであった米国でさえも、AIの規制は、するしないの問題ではなく、いつ実行に移すかという議論になっており、珍しく超党派合意も達成した。
このような急展開は心強い。驚くべきほどの短期間で、各国首脳は、AIガバナンスの必要性を重視してきた。しかし、規制の必要性について合意することは、最低条件に過ぎない。また、どのような規制が必要かを決定することも、同様に重要である。AIを取り巻く課題は、過去に類を見ないものだ。AIが持つ独自性と主要な当事者の地政学的・経済的動機を踏まえると、創造性を発揮してガバナンス体制を構築することが求められる。
AIガバナンスの問題は、ひとつだけではない。気候変動に関して言うと、温室効果ガスの排出量削減という最終目標を達成する手段は数多く存在するかもしれないが、最終的に達成すべき目標がひとつであることには変わりない。一方、AIの場合状況は異なる。AIの政策議題は、難題を解決したり、危険な形でのAIの拡散を防止したりするためのイノベーションを同時に促進しなければならず、また、世界がうっかり軍拡競争に陥ってしまうことなく、地政学上の優位性を獲得できるようにしなければならないからだ。
AIのパワー・パラドックス
状況は、AI技術が持つ性質そのものによって、さらに複雑化する。AIは、従来のテクノロジーとは異なるため、今までのように統治することはできない。AIの持つ特性によって、政策面での課題が生じるだけでなく、課題の解決がますます困難になる。これが、AIのパワー・パラドックスなのである。
第一に、テクノロジーは全て進化していくものであるが、AIは超進化的である。演算能力が2年毎に倍増するとの予測を的中させたムーアの法則が提唱した進化速度は既に高速であったにも関わらず、AIの速度はそれを凌駕することになる。過去10年間において、最も有力なAIモデルの訓練に使用された演算量は、2年毎に2倍どころか、1年毎に10倍増加しているのだ。かつては数週間を要した計算も、今では数秒でできる。AIを動かす基盤テクノロジーは、より小型で安価になり、利用しやすくなる一方だ。
しかし、AIの独自性は、演算能力の拡大だけに限ったものではない。大規模言語モデルを訓練する能力や複雑な問題の解決力、そして作曲力にまで至り、AIの進化を予測した者はほとんどいなかった。このようなAIシステムでは、準自律化が間もなく実現するかもしれない。このこと自体すでに革命的であるが、それだけではない。AIは、自己進化する能力を備えた初のテクノロジーとなり得るのである。
AIは容易に拡散する。あらゆるソフトウェアと同様、AIのアルゴリズムは、物理的な物よりもはるかに容易かつ安価で複製し共有する(または盗み取る)ことができる。そして、アルゴリズムがさらに強化され、演算にかかるコストが低くなると、そのようなAIモデルは、間もなくスマートフォンに実装されるであろう。かつて、これほど強力なテクノロジーが、ここまでの速度で広範囲に渡って利用できるようになったことはなかった。また、AIモデルは、納品に関しては言うまでもなく、限界費用がゼロであるため、一度リリースされれば、どこにでも普及でき、ゆえにどこにでも普及するであろう。AIの多くは、責任を持って抜かりなく訓練されているため、大半が安全である。しかし、ウイルスと同様、「突然変異型」のような有害なAIモデルひとつで、大惨事が起こりうることを忘れてはならない。
AI規制にそぐわない動機
AIが持つ性質から、さまざまな動機を読み解くことができる。軍民両用のデュアルユーステクノロジーは決して新しいものではない(原子力の民生利用拡大を厳しく監視するのにも理由があるのだ)。また、民生利用と軍事利用の線引きが曖昧となったテクノロジーもAIが初ではない。しかし、核濃縮等の技術は、非常に高度かつ莫大な費用がかかるのに対し、AIにはコストがかからないため、民生利用や軍事利用を問わず永続的に採用することができる。AIは、もはや単なるソフトウェア開発の域を超え、全く新しい危険な戦力投射の手段となっているのである。
技術面でAIに制約を掛けること自体すでに困難である。にもかかわらず、AIは既に力のある当事者をより一層強化し、さらなる影響力を与えうるため、AIを開発する民間企業や政府にとっては、規制と正反対の動機が働く。すなわち、AIの覇権は、覇権争いに参戦する資本があるすべての企業や政府の戦略的目標となっているのである。冷戦時代を特徴づけたのは核軍拡競争であったのと同様、今日の地政学的競争は、AIを巡る世界的な覇権争いによって形作られている。米中両国は、AIの覇権を握ることを、必ず達成しなければならない戦略的目標としており、互いに譲ることはできないのだ。このゼロサム的な力学が働き、米中は、AI開発の手を緩めるどころかむしろ加速させることに焦点を当てている。
しかし、30年前に核の監視や検証で苦労したことを鑑みると、AIの分野で同様のことを行うのは困難を極める。たとえ、世界中の大国がAI抑制に傾いたとしても、必ずしもそれが実行可能であるとは限らない。デジタル社会でよく見られるように、AIはあらゆる面において、民間部門が管理しているためである。現在AI業界をリードする大手テック企業数社は、近い将来においても競争優位性を維持しているかもしれないが、徐々にAIが浸透するにつれ、中小企業が次から次へと参入し、ガバナンスがより複雑化するであろう。どちらにせよ、今後も業界をリードしていく民間企業や個人レベルの技術者にとって、AIを自己規制する動機が乏しいのである。
このような性質がひとつでも当てはまれば従来型ガバナンスモデルが機能しにくくなるのだから、すべてが当てはまるとなるとガバナンスモデルは機能不全に陥り、AI規制を巡る問題は、各国が未だかつて直面したことのない難題へと変容する。
ガバナンスの原則
AIガバナンスが世界規模で上手く機能するには、AIが持つ特性を考慮しなければならない。その特性のひとつとして第一に挙げられるのは、超進化型テクノロジーであるAIの進歩を予測するのは、本質的に不可能であるという点だ。よって政策当局者は、そのような予測不可能な現状下において、今日可決した案が、数か月後には効力を発揮せず、妥当性さえも失っている可能性を考慮しなければならない。それが数年後となればなおさらである。現段階で、柔軟性がない枠組みを規制当局者に強いるのは、間違いである。
そうではなく、AIに係る次のような政策策定の大原則を設けることで、ガバナンスが最も上手く機能する。
- 予防の原則 AIが持つリスク・リターン型の特性は、非対称的である。多大な恩恵を得られる可能性がある一方、大惨事が起こりうるという欠点から身を守れるよう、政策当局者は策を講じなければならない。すでに広く普及している予防の原則をAIの分野に適応し、あらゆるガバナンス体制に導入する必要がある。
- 俊敏の原則 政策立案は構造上、ダイナミズムや柔軟性よりも安定性や予測可能性が重視されるため、スピードに欠ける傾向がある。このようなやり方では、AIのように独特なテクノロジーに対応しきれない。AIが、高速かつ超進化的で自己進化型であるのだから、AIガバナンスも、それに合わせるように俊敏かつ適応性があり、自己修正型でなくてはならない。
- 包括の原則 テクノロジー産業をはじめ、これまでのさまざまな業界規制は、民間部門との協働によって上手く機能してきており、AIの分野においてこれは特に当てはまる。(少なくとも現時点での)AI開発における特有の性質や技術の複雑性を鑑みると、規制当局は、民間テクノロジー企業との協働なしに適切にAIを管理することはできない。国境にとらわれないAIの特性を踏まえ、各国政府は、国際協定の取り決めの場に民間企業を関与させるべきである。ハイレベルな外交の場に民間企業を巻き込むことは、今まではあまり見られなかったかもしれないが、多大な影響力を持つ企業をその舞台から排除するようでは、策定の段階からガバナンス構造の破綻が決定しているようなものだ。
- 密閉の原則 上手く機能するAIガバナンスは、密閉的でなくてはならない。AIは容易に拡散するため、コンプラインスに違反する者がたった一人でもいると、危険なAIモデルが規制をすり抜けてしまう。したがって、コンプライアンスの仕組みは、誰もが参加できるよう垣根を低くすると同時に、コンプライアンス違反を防止するために規制逃れが困難な、密閉された性質でなければならない。
- 対象特定の原則 AIの汎用性とガバナンスの複雑性を考慮すると、さまざまなAIのリスクに対応するためには、単一のガバナンス体制では不十分である。実際、どのツールを用いて、どのリスクに対処するのが適切かを判断するためには、AIがもたらす個々の潜在的な影響を分類する実用的で生きた体系を構築することが必要となる。よってAIガバナンスは、画一型ではなく、リスクに基づき対象を絞ったモジュールでなくてはならない。
今後数十年のうちに、AIガバナンスは、国際社会が直面する最も困難な課題のひとつとなる。AIの規制が急務であるように、それを正しく規制することもまた同様に重要なのである。現在のAI政策に係る議論は、進歩と破滅(あるいは地政学的・経済学的優位性とリスク軽減)といった文脈での誤った議論に陥る傾向が非常に強い。また議論は創造性に欠け、解決策も前例を踏襲したケースが非常に多くみられる。AIの時代、これでは上手くいかない。
優れた政策立案は重要であるが、その成否は優れた制度に懸かっている。そのような制度の構築に当たっては、AIについての議論をどのように進めるかといった概念的枠組みに国際社会で合意する必要がある。まずは、このような原則に関わる議論から始めてみるのはいかがであろうか。
記事やその他書物の見解は著者のものであり、必ずしもIMFの方針を反映しているとは限りません。