

もし「10年で1世紀分」の技術進歩が一気に起きるとしたら、私たちのビジネスや社会はその超高速な変化に対応できるでしょうか?
ChatGPTは公開2ヵ月で1億人のユーザーに達し、TikTokやInstagramを凌ぐ史上最速の普及を記録。
AIの進化スピードは従来の常識を覆しつつあり、「インテリジェンス・エクスプロージョン(知能爆発)」とも呼ばれるAIの爆発的進化が現実味を帯びています。
そんな中、オックスフォード大学の研究チーム、ウィル・マカスキル氏とフィン・ムーアハウス氏が2025年に発表した論文「Preparing for the Intelligence Explosion」(2025年、Forethought)が話題を呼んでいます。
今回は両氏の論文をもとに、このAI時代にどう備えていくべきなのかについてわかりやすく紹介します。
知能爆発が起こるとどうなるのか?
「オールオアナッシング」ではなく広範な備えを
論文では、AIによる知能爆発に備えるうえで「結果はAIのアラインメント(目的整合性)の成否次第ですべてが決まる」という極端な見方に異を唱えています。
一般には「高度AIをうまく制御できなければ人類は破滅、制御できれば他の問題もAIが解決してくれる」と捉えられがちですが、彼らはそれ以外にも対処すべき課題が多数存在すると論じます。
たとえば、AIをうまく人類に利するよう制御できたとしても、AIがもたらす超高速な技術革新に伴う副次的なリスク(後述のグランドチャレンジ)が次々と発生し、私たちはそれらに迅速に対応しなければならないんです。
「1年が10年になる」技術圧縮
論文によると、汎用人工知能(AGI)が人間並みの研究開発能力を持つようになると、科学や技術の開発スピードが指数的に跳ね上がり、“10年で1世紀”、極端な場合“1年で10年分”もの進歩が起こりうるとしています。
これを言い換えるのであれば、10年先に想定していた課題が1年ごとに襲来するような事態がもうすぐ来るってことなんです。
人類が直面するグランドチャレンジとは
では、実際に知能爆発が現実となったとして、人類はどんな課題と直面することになるのでしょうか?
この論文では、これらの広範囲かつ同時多発的に起きうる課題を「グランドチャレンジ」と呼び、具体例として以下のような事態を挙げました。
- 次世代の大量破壊兵器: AI設計の新型生物兵器やナノテク兵器など、従来より安価かつ強力な破壊手段の出現。
- AIによる独裁の固定化: AIによる監視や自律兵器により、一部の権力者が国内外で圧倒的な支配力を持ち、政権を半永久的に維持してしまうリスク。
- 宇宙資源の独占競争: AI技術を使った宇宙開発レースで、早期に月や小惑星の資源を独占した国・企業が他を圧倒するロックイン(既得権化)が起こる可能性。
- デジタルマインドの誕生: 人間並みの知性や意識を持つデジタル存在が出現し、それらに道徳的配慮を払うべきかという全く新しい倫理・法的課題。
- 未知の競争圧力: 業界秩序の崩壊や極端な軍拡競争、AIによる高度なサイバー攻撃やディスインフォメーション(大規模偽情報拡散)による認知環境の攪乱など、未知のリスク群。
これまででは考えられなかったような課題が続々と降りかかってくると思うと、流石に恐ろしいですね……。
両氏は、こうした多面的なリスクに対して「未来のAIに任せればよい」と先送りできないと強調します。
なぜなら、一部の課題には時間制限があるから。
一度、権力や資源が偏ってしまうと、後から覆すのって難しいんですよね。また、AIが安全でも人間同士の競争圧力で暴走するケースが現れれば、結局リスクは現実化します。
要するに「AGIへの備え」とは、AIシステムのアラインメント対策だけではなく、AIが引き起こす様々な技術的・社会的変化に人類が振り回されないよう予め準備することだと論文は提言しています。
Views: 0