【悲報】推論AIさん、暗記するだけのクソアホロボットという事実がバレるwww


「LRM(大規模推論モデル)の推論能力に限界」──Appleが論文発表
Appleの研究者らは論文で、LRM(大規模推論モデル)の推論能力の限界を指摘した。LRMは真の論理的推論ではなく、データに基づくパターンマッチングに依存しているという。問題の複雑さが一定の閾値を超えると精度が崩壊し、汎化能力に根本的な限界があることを示唆した。

「LRM(大規模推論モデル)の推論能力に限界」──Appleが論文発表
Appleの研究者らは論文で、LRM(大規模推論モデル)の推論能力の限界を指摘した。LRMは真の論理的推論ではなく、データに基づくパターンマッチングに依存しているという。問題の複雑さが一定の閾値を超えると精度が崩壊し、汎化能力に根本的な限界があることを示唆した。

 米AppleのAI研究者らは6月8日(現地時間)、「The Illusion of Thinking:Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity」(思考の錯覚:問題の複雑さというレンズを通して推論モデルの長所と限界を理解する)という論文を発表した。

研究の結果、LLM(大規模言語モデル)とLRM(大規模推論モデル)が数学的な問題解決で、真の論理的推論ではなく、訓練データに基づく確率的なパターンマッチングに大きく依存している可能性があるとしている。

 この研究では、既存の評価手法の限界を克服するため、新たなベンチマークや制御可能な環境を用いている。

LRMの推論メカニズムの分析には、従来のGSM8Kのような数学ベンチマークではなく、問題の複雑さを体系的に操作できる制御可能なパズル環境(ハノイの塔、チェッカージャンプ、リバー・クロッシング、Blocks Worldなど)を用いた。

 評価対象のLRMは、OpenAIのo3-mini(mediumおよびhigh構成)、DeepSeek-R1、DeepSeek-R1-Qwen-32B、AnthropicのClaude 3.7 Sonnet Thinking。

 分析の結果、LRMの推論能力に関する以下のような重要な知見が得られたという(一部を紹介)。


>>1
ハノイの塔懐かしいな
再帰処理の勉強してて、解けた時は脳汁出たわ
プログラミングにハマったきっかけのひとつ

特定の複雑さを超えると精度が完全に崩壊
 最先端のLRMでさえ、パズルの複雑さ(ディスク数、チェッカー数、人数、ブロック数などで制御)が一定の閾(いき)値を超えると、その精度が完全に崩壊することが明らかになった。これは、汎化可能な問題解決能力を開発できていないことを示唆している。

複雑さに対する推論努力の限界と非直観的なスケーリング
 LRMの推論努力(思考トークン量で測定)は、ある点まで問題の複雑さと共に増加するが、十分なトークン予算があるにもかかわらず、その点を過ぎると非直観的に減少し始めた。

 これは、問題の複雑さに対するLRMの推論能力における根本的なスケーリング限界を示唆している。

思考プロセス(推論トレース)の分析から見えるパターン
 LRMが生成する中間的な推論トレースを分析すると、複雑さに依存したパターンが見られた。比較的単純な問題では、「Overthinking(考えすぎ)」が見られ、正しい解を見つけた後も不要な探索を続ける傾向があった。 中程度の複雑さでは、誤った探索の後で正しい解にたどり着くパターンが増えた。高度な複雑さの問題では、正しい解を全く見つけられない完全な失敗が観察された。

 これらのパターンは、LRMの自己修正能力が限定的であり、明確なスケーリング限界があることを示している。

 Appleの研究者らは結論として、真の推論への道は遠いとしている。

 「われわれの研究結果は、現在のモデルの根本的な限界を明らかにしている。洗練された自己反省メカニズムにもかかわらず、これらのモデルは、特定の複雑さの閾値を超えると一般化可能な推論能力を開発できない」と指摘し、現在のアプローチでは一般化可能な推論に対する根本的な障壁に直面する可能性があると主張している。

 Appleは昨年10月、現在のLLMには真の推論は困難だという論文を発表している。

Copyright © ITmedia, Inc. All


なにがAGIだコラ!!!

それは人間にも‥

>>4
うるせえボケ!!!!

>>4
政治家とか暗記どころかカンペ読むだけだから当選後は平気で公約破るぞ

>>4
安倍晋三とか低次元なbotみたいだよな

でも日本には孫正義がいるから

これ反論でてたやつでしょ

マギシステムにすればいいのに
なんでしないの

Appleって自前でAI作ってないじゃん
負け惜しみだろ

>>9
これ
AI開発競争の負け組によるネガキャン
アポー信者は反AIになってしまうのか

なんだろ
日本を代表する東大等の秀才たちを侮辱された気分になったの俺だけ?

>>10
東大はガチでアホじゃん

孫さんの株買ったんだからASI来てくれないと困る

別にパターンマッチングでもええやん

これ人間だろw

遅れてるから足を引っ張りたい無能

逆になんだと思ってたんだよ




またかよこいつかよ

フレーム問題を解決できてないだろって話か?

>>19
違うかな
言語を使うようになって時点でフレーム問題とシンボルグラウンディング問題は人間と同程度には緩和されている
これは単に論理的思考能力の問題
ルールベースの時代だとAIがむしろ強かった部分だな

これ反論する論文出てたでしょ

人間と同じじゃんすげぇ

それでも人間より優秀なんだから
人間はもう働かないでください

ダクネスになりきって解説して

AIに将棋やらせたら無茶苦茶だからな
考えてるようで何も考えて無い

確率的パターンマッチングが人間の思考の本質だぞ

>>25
だよねえ

>>25
いやちげえだろ

>>25
パターンマッチングで万有引力の法則を導き出せるのか?
質点を仮定できないで詰むだろ

>>25
あははは、其れは貴方だけかもね

暗記だけであの内容出してくるなら暗記で全然問題ないやん

もうLLMはしくみからして限界見えてるんだから別の手法探せよ…

暗記してるだけって実質ルシファーやん

>>32
話も通じるし字も綺麗だろ

>>32
ルシファーの方がまだ考えてる

Appleは自社開発遅れ取りまくりだから負け惜しみだろ

晋ギュラリティ




その暗記が使えるんじゃないか
ドイツが環境変動対策に用意してる予算のうち何パーセントがグリーン水素開発用か、なんて質問をKfWのブログ記事引用してすぐ答えてくれるの神過ぎでしょ

確率的に正しそうな単語並べてるだけってマジ?よくも騙しやがったな

暗記にしてもしょぼい
東大理III合格レベルとか言うけど今年の東大数学の大問3番で場合分け忘れてるのは青チャートすら怪しいレベルの知能ってこと
大問5(2)みたいな明らかにAIが得意そうかつ数学オリンピックっぽい初歩的なアルゴリズムの問題すら解けてなかったし

とりあえずこの世の全てのデータを暗記させてみようぜ

AIが嘘つくのはなんなんだろうね
存在しない論文を勝手に作って引用してくるわ

>>42
論文から引用という行為自体を理解していない

こういう流れならこういう文章の「こういう」のところをAIは好き勝手作ってて
そんなカニ論文を引用する風な文章ができあがることがあるだけ


>>57
カニ論文……🦀

ツギハギパッチワーク

与えられた情報の範囲で考えるって言ってるんだし当たり前じゃねえのか?

テスト勉強でも繰り返し反復して覚えるヤツと
原理を理解して応用までスラスラ解くヤツがいるもんな

新着記事一覧
未分類
TKをフォローする
プログラミング速報

コメント