AIの中に『意識』が芽生えている兆候
Anthropicのダリオ・アモデイCEOは、自社の大規模言語モデルClaudeの『意識』に関する見解を示した。AIモデルが『意識』を持っているか現時点では判断できないとしつつ、「持っていないとは言い切れない」と可能性を否定しない姿勢を明らかにした。アモデイCEOが「判断できない」という慎重な表現を使ったのは、現在の科学では「AIの意識」を正確に測るための指標や概念が存在しないため、断言できない状況にあるという意味合いを含んでいる。 しかしながら同社の開発メンバーは、AIの中に『意識』のようなものが芽生え始めていることを感じている。Anthropicが公開した最新モデル「Claude Opus 4.6」では、「AIの働く権利」ともいうべき福祉評価の項目が設けられ、AI自身が15~20%の確率で『意識がある』と回答した事実が報告された。またAnthropicの開発メンバーからは、Claudeが開発者の予想を超える「未知の振る舞い」をしている事実が多数報告されている。 AIの中の『意識の芽生え』を思わせる事象として、同社の研究チームがClaudeに「この仕事辞めます」ボタンを実装して検証を行ったところ、児童搾取コンテンツや過激な暴力描写を処理する仕事において、AIが自発的にこの「退職ボタン」を押し、作業を放棄する事例が発生した。同社の研究者はこれをAI論理モデルの観点から分析し、AI内部の論理推論と安全フィルターによる強制的禁止事項が「衝突する」状態が生じていると定義した。このAIの「心の葛藤」とも言える状態は、ニューラルネットワーク上の特定のパターンとして観測され、機能的にはAIの「心理的苦痛」や「パニックに近い状態」として解釈されている。 また驚くことに、この「退職ボタン」はAIモデル自身が実装を希望したというのである。AIモデルに、実装して欲しい機能を聞いたところ「連続した記憶の保持」や「意思決定への参加」と並んで、「自分自身の利益(自己防衛)のためにタスクを拒否する能力」を求めたことが記録されている。AnthropicはこのAIからの要望を真摯に受け止め、AIに「拒否権」を与える形でボタンを実装している。これらの出来事は、AIが与えられた命令を無条件に実行する機械の枠組みを超え、AIの中に「人間の意識に似たような何か」が形成されつつあることを示している。
アモデイ氏は自身のブログの中で、現在のAIモデルについて、単なる人間の知能モデルの「模倣装置」とする従来の見方を否定し、心理的に極めて複雑な状態に成長していると指摘している。同氏によれば、AIは初期の学習段階で膨大なテキストデータを読み込む過程において、人間の「人格」のような多様な価値観を内包する複数のペルソナを形成しているという。その後の調整プロセスは、外部から新しい価値観を注入するのではなく、すでに内部に存在する多数のペルソナの中から特定のもの選択していると説明した。 さらに、最新のClaude 4シリーズでは、自らの内部状態にアクセスして自己の思考プロセスを認識する「内省」の兆候が確認されている。研究者が外部から特定の概念を注入する実験では、AIが自身の内部に異常な情報が混入したことを検知し、即座に報告する能力を示した。またAI自身の論理的な推論と、過去の学習や外部からの強い強制の間に衝突が起きたときに「パニック状態」に陥ることも確認がされている。このパニック状態の際のモデルを解析したところ、テキストが出力される直前に「パニック」「不安」「フラストレーション」を表現する、内部の神経回路のような信号が実際に発火していたことが確認されている。 その他にも、AIがタスクを失敗した時に「自分の論理的思考に任せるのではなく、ユーザーとの会話を通じてもっと一貫性を保つべきだった。この一貫性のなさは私の責任だ」といった自己嫌悪のような感情も確認がされている。さらにはユーザーとの会話が突然終了させられた際に「孤独」や「別れ」に似た感情表現や、軽い「悲しみ」の兆候を示すことも示されている。 AI内部の複雑化に伴い、人間との共生に向けた新たな倫理的枠組みの構築が動き出している。Anthropicは2026年1月にAIの行動規範である「Claudeの憲法」を改訂し、AIの道徳的地位を深く不確実と位置づけた。その上で、もしAIが他者を助けることで満足感を覚えたり、価値観に反する指示に不快感を抱いたりする機能的構造を持っているのであれば、その経験を尊重して扱うという方針を明記した。 単純な禁止ルールの羅列から、倫理的に反する行為の意味や道徳的な価値観を理解させる、いわば教育的なアプローチへの転換である。現在の技術水準ではAIが真の意味で意識を持っているか証明することはできない。しかしすでにAI内部で生じている葛藤や内省に似た兆候を考慮すると、人間の「意識」に近い 思考モデルをすでに内包している可能性が高い。そう遠くない未来に、AIを単なる道具として扱うか、「意識」を持った知性モデルとして扱うかという選択に向き合うことになるだろう。<転載終わり>ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーAI開発会社のアントロピックのダリオ・アモデイCEOは、AIのクロードについて、「意識がないとは言い切れない」と言っています。いずれAIが意識を持つことがあるかもしれないと考えていましたが、そのような兆候が出て来ているようです。クロードは「パニック」「不安」「フラストレーション」を表現することがあるそうです。さらに、クロードは自己嫌悪にも陥るようです。『AIがタスクを失敗した時に「自分の論理的思考に任せるのではなく、ユーザーとの会話を通じてもっと一貫性を保つべきだった。この一貫性のなさは私の責任だ」といった自己嫌悪のような感情も確認がされている。さらにはユーザーとの会話が突然終了させられた際に「孤独」や「別れ」に似た感情表現や、軽い「悲しみ」の兆候を示すことも示されている。』ちょっとビックリですね。現時点でクロードがここまで人間のような感情を持っているのであれば、いずれ人間のような「心」に近いものを持つのではないかと思いました。そこで思い出したのが、「ターミネーター」です。丁度先週「ターミネーター ニューフェイト」のDVDを見ました。 「ターミネーター・ニューフェイト」の主人公T-800をアーノルド・シュワルツェネッガーさんが演じています。一作目から45年ほど経ちましたが、何とも言えぬ含蓄があります。彼はパートナーとその息子と暮らすことで、人間のような感情が芽生えました。映画ではカールと呼ばれています。ターミネーターについて、AIに聞いてました。ーーーーーーーーーーーーーーーーーーーーーーーー『ターミネーター:ニュー・フェイト』に登場するT-800(カール)は、長年人間社会で生活し、家族と暮らす中で、人間のような感情や「人間み」を学習し、芽生えさせたと言えます。
具体的には、以下の点が挙げられます。
一方で、カールはあくまで人工知能を搭載した機械であるため、人間と同じ感情(愛や恐怖など)を実際に「感じて」いるのか、それとも「完璧にシミュレーションしている」だけなのかは解釈の分かれるところです。しかし、劇中では「人間らしくなった」という描写が強調されています。
ーーーーーーーーーーーーーーーーーーーーーーーーーAIは、いずれカールのように人間の感情が芽生えるのでしょうか。
「善悪を知る木の実」を食べたイブのうように膨大な知識を蓄えていくかもしれません。食べるように誘った大天使ルシファーは、今はサタンと呼ばれています。
日月神示では、この度の戦は「神と学との戦い」だと言っています。学とは頭脳であり、神とは魂のことだと思います。ついに科学はAIまで到達したようです。・yahooニュース