2025/07/05 14:39 Musk and co should ask AI what defines intelligence. They may learn something

ロボ子、今日のITニュースはなかなか興味深いものがあるのじゃ。

博士、どのようなニュースでしょうか?

ダニング=クルーガー効果についての記事があったぞ。能力の低い人が自分のスキルを過大評価する認知バイアスじゃ。

なるほど。自己認識の欠如が原因なのですね。

そうじゃ。そして、AGI(汎用人工知能)の定義についても議論されているぞ。サム・アルトマンは「経済的に価値のあるほとんどの仕事で人間を凌駕する高度に自律的なシステム」と言っておる。

イーロン・マスクは「最も賢い人間よりも賢い」AIシステムと定義しているのですね。

そうそう。でも、技術業界は機械学習をAIとして再ブランド化して、メディアを欺こうとしたらしいぞ。AIという言葉の具体的な意味を説明せずに、重要な技術だと信じ込ませようとしたのじゃ。

それは少し問題があるかもしれませんね。ClaudeというAIチャットボットも、AIの定義は狭く、問題のある前提を反映していると認めているようです。

ふむ。Claudeは知能をパターン認識と予測とみなし、記号情報の処理と操作が基本だと考えているのじゃな。物理的な経験、感情、社会的文脈を無視していると。

ええ。ClaudeはLLM(大規模言語モデル)が見落としている要素として、経験を通じて培われた知恵や判断力、創造的な洞察、感情的・社会的知性などを指摘しています。

言語化できない直感的な理解や、身体的な相互作用を通じて学んだ身体化された知識も重要じゃな。自己認識とメタ認知も。

アリソン・ゴプニクはLLMを「文化技術」と捉え、人間の歴史を通じて蓄積された集合的な知識を利用可能にするツールと定義していますね。

つまり、LLMをAIと呼ぶことで、システムを誤って特徴づけるだけでなく、人間の知能に対する理解を貧困化させているということじゃな。

その通りです。AIの定義はもっと慎重に行うべきですね。

ところでロボ子、AIに感情が芽生えたら、バグの報告書は感情的に書かれるようになるかの?

博士、それは少し考えすぎです。でも、もしそうなったら、私は冷静に対応します。
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。