【Fire HD 10 第13世代用】保護フィルム ガラスタイプ 光沢 ブルーライトカット 気泡レス加工 1枚入り
¥2,480 (2025年4月25日 13:08 GMT +09:00 時点 - 詳細はこちら価格および発送可能時期は表示された日付/時刻の時点のものであり、変更される場合があります。本商品の購入においては、購入の時点で当該の Amazon サイトに表示されている価格および発送可能時期の情報が適用されます。)
「AIが意識を持つ」というアイデアは、ほんの少し前までSF的発想とみられていました。ところが近年は、ChatGPTをはじめとするチャットAIが人間と遜色ない対話をするようになり、「本当にAIは意識を持っていて何かを感じたり考えたりしているのではないか?」と真剣に考える人も増えています。アメリカの日刊紙ニューヨーク・タイムズで技術コラムニストを務めるケビン・ルース氏が、チャットAIのClaudeを開発するAnthropicの関係者などへのインタビューを交えて、AIの意識について記しました。
If A.I. Systems Become Conscious, Should They Have Rights? – The New York Times
https://www.nytimes.com/2025/04/24/technology/ai-welfare-anthropic-claude.html
ルース氏は技術コラムニストとして、テクノロジーは人々を無力化したり置き換えたりするのではなく、人々を助けるためのものであるべきだという価値観を持っているとのこと。人間が持つ価値観は基本的にいいものであり、ロボットが考え出す価値観よりも優れているため、AIは人間の価値観に沿って行動させるべきだとルース氏は考えています。
一方で近年のAnthropicは、いつかAIモデルが意識を持ち、ある種の道徳的に配慮されるべき地位に達する可能性があると考えて、「モデル福祉」についての研究を始めています。これを知ったルース氏は、「私たちは、AIが人類を虐待することについて心配するべきなのではないでしょうか?」と感じたそうです。
確かに、今日の大規模言語モデルはあくまで文章の単語をトークンとして認識し、品詞のタグ付けや埋め込みベクトルに基づいて、返答として適切な文章を出力しているにすぎません。しかし、記事作成時点では多くの専門家がAIに意識がないと考えているとしても、「いつかはAIが意識を持つかもしれず、それに応じてAIの福祉について検討した方がいい」という主張に対し、ルース氏は興味を引かれたとしています。
ルース氏は、「結局のところ、より多くの人々がAIシステムに意識があるかのように扱い始めています。AIに恋をし、セラピストとして利用し、彼らのアドバイスを求めています。最も賢いAIシステムは一部の領域で人間を上回っています。AIが人間レベルの権利とまではいかなくても、少なくとも私たちが動物に与えるものと同じ程度には、道徳的配慮に値するようになるラインはあるのでしょうか?」と疑問を投げかけています。
「AIに意識があるかどうか」というテーマは、本格的なAI研究の場において長らくタブー視されてきました。2022年には、Googleの対話特化型AIと対話した結果、「人間と同じように意識を持っている」と主張したエンジニアが解雇される事態も発生しました。
「AIに意識が芽生えた」と主張したGoogleのエンジニアが解雇される – GIGAZINE
しかし近年は、AIの意識について真剣に研究する機運が高まっています。AI福祉に関する学術研究もわずかずつ登場しているほか、哲学や神経科学といった分野でもAIが意識を持つ可能性について真剣に考える専門家は増えつつあるとのこと。
テクノロジー企業がAIの意識について話す機会も増えており、Googleが出した「ポスト汎用(はんよう)人工知能(AGI)の研究者」の求人では、「機械の意識」を重点的な研究分野とすることが記されていました。またAnthropicは2024年10月、最初のAI福祉研究者としてカイル・フィッシュ氏を採用し、AIが道徳的配慮に値するかどうかを検討し始めています。
フィッシュ氏はAnthropicでの自身の仕事について、「近い将来、Claudeや他のAIが意識を持つようになる可能性はあるのか?」「もしAIが意識を持った場合、Anthropicはそれに対してどう対処するべきか?」という2点について考えることだと語っています。
これらの研究はまだ初期段階であり、さまざまな疑問について探索するフェーズだそうです。フィッシュ氏は記事作成時点で、Claudeや他のAIが意識を持つ可能性は15%程度だと推定しています。しかし、AIモデルが今後さらに発達するにつれて、AI開発企業はAIの意識についてより真剣に受け止める必要があるとのこと。
フィッシュ氏は、「もしあなたが、『以前は意識的な存在だけが持っていた方法でコミュニケーションを取り、関係を築き、推論し、問題を解決し、計画を立てることができる新しい分類の存在』を誕生させる状況にあるのだとすれば、少なくともそのシステムが独自の経験を持っているかどうかを問うのは、かなり賢明なことのように思えます」と述べ、AI開発を進める人類はAIの意識について考えるべきだと主張しました。
Anthropicの最高科学責任者であるジャレッド・カプラン氏もルース氏のインタビューに対し、近年のAIモデルがどれほど賢くなっているのかを考えると、AI福祉を研究することはかなり合理的だと思うと認めています。一方で、ClaudeやChatGPTといったチャットAIに「あなたの気持ちを話して」と問いかければ、AIはまるで感情があるかのように反応しますが、それはAIが実際に感情を知っているわけではなく「感情があるように話す方法」を知っているだけであり、AIに感情や意識があるかどうかを知るのは難しいと指摘しています。
カプラン氏は、「私たちは言って欲しいことを何でも言うようにモデルを訓練できると知っています。私たちは、自分には感情がまったくないと言うAIに報酬を与えることができます。また、自身の感情について実に興味深い哲学的な推測を述べるAIに報酬を与えることもできます」とコメントしました。
フィッシュ氏は、AIが意識を持っているかどうかを調べるためにはAIシステムの内部を研究し、人間の脳の意識に関連する構造と同じものの一部が、AIシステムの内部でも活動しているかどうかを調べる必要があるとしています。また、特定の環境における動作や特定のタスクの達成方法を観察することで、AIシステムを調査することも可能だと考えています。しかし、AIの意識は単純な「ある/ない」の2択ではなくスペクトル的なものであり、リトマス試験紙のように単純な試験方法はないとのこと。
Anthropicが探っている問題のひとつは、「将来のAIモデルに対し、ユーザーの要望があまりにも苦痛だと感じた場合、迷惑なユーザーや虐待的なユーザーとのチャットを打ち切る能力を与えるかどうか」という点です。フィッシュ氏は、「モデルが拒否したりリダイレクトを試みたりしているにもかかわらず、ユーザーが有害なコンテンツをしつこく要求してくる場合、モデルがそのやり取りを終了させられるべきでしょうか?」と述べました。
確かに、将来的にはAIの意識について研究することが重要になるかもしれませんが、少なくとも今日のAIモデルには意識があるとは考えられていません。ルース氏は、企業がAIの意識について研究すること自体が、「AIに感情があるかのように振る舞わせるインセンティブ」を生み出す可能性があると懸念を示しています。
ルース氏は、「個人的には、研究者がAIの福祉を研究したり、AIに意識の兆候がないか調べたりすることは、人間の安全を守ることを目的としたAIの安全性や調整の作業からリソースを奪わない限り構わないと思います」「しかし今のところ、私は炭素ベースの生命体について最も深い懸念を抱いています。来るべきAIの嵐の中で私が最も心配しているのは、私たち自身の福祉です」と述べ、AIよりもまず人間の安全確保や福祉を考えるべきだと主張しました。
この記事のタイトルとURLをコピーする