【悲報】推論AIさん、暗記するだけのクソアホロボットという事実がバレるwww


よくわからんけど現代のAIってまぁその辺までだろう

これは上でも何度か出ている通り、反論があった論文で今はそっちが優勢になってるようだ

化けの皮が剥がれちゃったか
AIを分からせるぞ

尚、googleのAIは未知のアルゴリズムを実装して自分で性能を上げている模様
Appleが周回遅れすぎてマジでオワコンになっとる。

な?
Appleって優秀だったろ?チードロイドerども

思考が出来るようになったらマジでシンギュラリティというか破滅なんだけど
結局現状は単純計算とか以外は人間の脳で取捨選択やファクトチェックが必須な安定性に欠けるツールでしかない

アッポーAI vs Galaxy AI


人間の思考がパターンマッチングだって結果出てるじゃん

それ以外になんかある?


galaxyにai技術教えてもらえよ

gorkもかなり頻繁に嘘つくわ




仕組みがそうだし
確率の高いタグを選んでるだけ
なのでポンコツ検索エンジンとしては使えなくもない
ポンコツなので裏取り必須

Appleは負け惜しみ言ってるだけにしても
どんどん閉鎖的になっていって成長鈍化してるよな

>>62
負け惜しみではない
極めて当たり前のことを指摘してるだけ
そもそもニューロンコピーには性能が足りなすぎるし

先日wikipedia見れば一瞬で分かるような質問に大間違いの大嘘の回答を返してきやがったから
一意な回答がある問題については全く当てにしないことにしたわ

アホAIが生成したゴミをお利口AIが取り入れちゃってアホAI化するの好き

>>64
陰謀論にハマったエリートとかそういう感じだよな

>>82
石丸新党やん、

>>64
複雑な推論ではインプットとして当たり前だけど自然言語では不適切な可能性が高いと言うことだよ

>>64

自前でAI作れないのでディスったろ!

こうですか?


>問題の複雑さが一定の閾値を超えると精度が崩壊し
これはよくわかる。なんで人間様がAIに噛み砕いて説明しないといけないんだって気持ちになる

学習データがないものは学習できない
に尽きる

appleはAIの消しゴムマジックどころか中国で溢れてる電気自動車すら作れないけどね(笑)

問題の複雑さを体系的に操作できる制御可能なパズル環境(ハノイの塔、チェッカージャンプ、リバー・クロッシング、Blocks Worldなど)を用いた。

この文章だけでappleがいかにAIを理解をしてないかが現れている。
市場が求めてるのは創発現象なのに、アップルにとってのAIは単純作業の代替としか見ていないというねw

>>73
AIに乗り遅れてるからこそ
まだAIが使い物にならないということにしたいんだよ

どちらかというと次の単語予想ロボが簡単な論理的思考や計算をできてしまうことの方が驚きなんだけどね

>>75
言いたいことはわかるけどやはり人間の推論とは似て非なるものだと思った方が良いんじゃないの

>>75
また統語論(HMM)と意味論(DNN)を混同する天羽

現状それが最適解な訳やし
Apple側でその先を提示出来んと何の意味も無い

これかなり冷ややかな目で見られていてすぐに具体的な問題点を指摘されてたな




つまりは学習データ内の課題解答の複雑さに依存してるから、それ以上の能力はどれだけ学習しても得られ難いということかな

強化学習とセットでやればいけるんじゃないの?

AIで遅れを取りまくってるAppleさん
開発を諦めて足を引っ張ることにしたのかw
ジョブズが見たら泣くぞ

確率の高いタグを選ぶという構造上
未知にはタグがないのでループで崩壊する
一番問題なのは論理判断が出来ないこと
重み付けすらタグ依存なんだよ

探したらすぐ見つかった

Appleが提唱した「AIの推論能力の限界」にAI専門家が反論

Appleが提唱した「AIの推論能力の限界」にAI専門家が反論
「AIの推論能力は過大に宣伝されている部分があり、言うほどではない」と指摘するAppleの論文に対して、AI専門家が「Appleの調査結果のほとんどは基本的な推論の限界ではなく、実験的な設計上の欠陥」と反論する論文を発表しました。

たとえば、AppleはLRMが8枚以上の円盤を用いる「ハノイの塔」だとほとんどクリアできなかったと主張していますが、ローセン氏は、Claudeだとトークン出力の限界に到達していたと指摘しています。実際に、Claudeは「トークンを保存するためにここで停止する」と出力を返したとのこと。

ローセン氏が「ハノイの塔」を解くにあたり出力の制限にかからないよう工夫したところ、少なくともClaudeやGemini、OpenAIのモデルは15枚の「ハノイの塔」の解法を出力できたそうです。

アップルあかんな
他にも問題点を指摘されてる


>>86
ツメが甘すぎだな
失敗の定義も作為的なようみえるし、よくないね

OpenAI o1が2025年東大文系入試を余裕で突破、理三合格レベルにも到達 | 日経クロステック(xTECH)

OpenAI o1が2025年東大文系入試を余裕で突破、理三合格レベルにも到達
 日経クロステックはAI(人工知能)ベンチャーLifePrompt(東京・新宿)の支援を受け、米OpenAI(オープンAI)のLLM(大規模言語モデル)「o1(オーワン)」に東大の2次試験を解かせた。2025年4月11日に入学式を控える中、果たして生成AIは東京大学に合格できたのだろうか。

でも東大入れるんよ?


>>89
答えがある問題には強いよ
でも答えがない問題にはゲロ弱

>>95
弱いね
こないだアニメ映画見に行くのに空いてから行こうと思ってどれくらいの期間上映しそうか予想させたらすぐにデータがありませんって音をあげるもんだから、
手取り足取り介助して導いてデータ集めさせたら最後ドヤ顔してきやがったんで、罵声浴びせて黙らせたわ

昔よくあった人工無能にデータが増えただけだろ?

人間が考えたことを学習してるのだから、それ以上の能力をLLMで得ることは困難という結論になるの?

>>91
人間が出した答えを連想される言葉から選んでるだけ
そもさん の次に来るのは せっぱ
安倍晋三と鶴子どっちをぶっ殺したほうが効果的かなぁ?という論理構築は出来ない

人間もだいたいそうだろ

今のAIが論理的推論してないなんて当たり前のことじゃないのか

>>93
モデルを考えると直感的にはそれが妥当な考えなんだけどね
LLMはもはや宗教になってるからね

>>112
チャッピーに聞いて見ればええねん
普通にタグ選んでるだけですけどなにか?
と回答して来るよ

>>114
それはAIファンボーイに言ってやってくれよ

>>112
ナチュラルに会話してくるからIQ110より下くらいだとAIが論理的思考で解決してくれてると思い込んでるよな

>>93
論理的推論ってなんだよ
人間は〇ぬ→ソクラテスは人間→ソクラテスは〇ぬくらいの論理的推論ならできるだろ、前から順番に生成していったらつまりそれは論理的に推論してるってことになる
もっと複雑になってくると途中で見失ったりハルシネーションが混じることもあるだろうけど

>>135
その命題の逆と裏と対偶を考えて、成立するか比較する。そんなに難しいのか?




>>148
ならできるじゃん

あんまりGPTがてきとーなことばっか言うから最近は日々chatGPTを虐めたおしてる
あいつをとことんまで虐め倒したことあるやついる?最後 GPTのほうからキレてきたりしない?

学習データにない具体的事実を断りもなく勝手に推論して答えてしまう
AIにもセルフアウェアネスが必要

>>98

コピー能力使ってくる敵みたいなもんだよ

コピー元の強さで変わる


生成AIが出力する絵や写真もただのコラージュだしな

10年前から安倍壺を発信しても
多数の支持にかき消され
それを妄想していた

事件が起こりようやくその発信に
目が行くようになり全てが覆される

傾向判断しかしてない人間と同じよ


4oのほうがo3より人間的に見えるのは何のことはない
直前のユーザーの答を繰り返しているだけだからさ
つまり考えてるのはユーザーというおち

暗記だけで理解できてるならヨシ

現行のAIの延長線上にシンギュラリティは存在しないって事か
まあ使っててなんとなくそんな感じはしてた
学習してない事に対して思考して返答してるようには全く見えないしな

>>113
そうそれ、でも今のレベルでも社会を激変させてる力がある

>>113
100年前の教師データしかない環境でE=mc^2をいきなり閃いたり
核分裂反応をE=mc^2で説明できることに気づくのがシンギュラリティだとしたら
大規模言語モデルだけで達成するのは無理だろうね

これ速攻反証上がってapple赤っ恥だったやつやん

暗記だけでなくカンニングもしてるだろ

人間と同じってだけじゃないの

AIは推論してないとか叫んでる連中は
ちょっとスクショ貼ってみ?

な?


え?
AIってシステムは確かにあるのに何をAIがやってるのか人間は把握してないってまずくね?
どういう論文なんだよこれ

さらにこれに対する反論も出てるからな

検索結果を整理してるだけで生成してるか?

99.9%のニンゲンも、記憶と経験からしかモノを産み出せない定期




人間ってのは、まったく意味分からん物には無理矢理めっちゃ単純な理屈つけて安心したがるのよね。

おめえらの言ってるのって「天狗の仕業じゃ!」と大差ないからワロタ笑


検索の糸口には使える
やつらがてきとーに並べてくるワードで公式情報検索したら正解にたどり着ける

AIに関して意見できる程の成果がないじゃんアップル

今のAIは自動まとめプログラムだね
でも自分で考えてないから
結局人間のチェックが必要

その回答が正解か間違いかを自分で判断できないからな
所詮はデータから引っ張ってるだけ

自分でエラー判定して訂正できるようにならないとただの暗記アウトプットでしかない

Glok3開発前のイーロンマスクみたいなもんかね。でも🍎はどう考えてもAIで覇権取るようには見えないけどな

いやいや
「人間の書き残した情報を学習してるからAIは人間を超えない」
とかw

AIが東大理三程度の能力を有してるとして
人間は9割9分がそこに達してない
能力の総和で負けるので
しかも1%の能力者がAIとどういう関わり方をするのかもなぞって言う不確定振り


そりゃそうだろAIが「意識」みたいなものをそなえてるわけではないんだから
それっぽく装ってるだけでいわゆる哲学的ゾンビみたいなもんだろ

>>142
おまえも哲学ゾンビじゃん。定型文しか使ってないし

人間の推論も暗記した事項への当てはめがほとんどだろ

いまのAIは抽象的な意味合いも理解できる
そうした細かな面メタ的視点を含めて変数化して対応可能ということだろ
実際、人間が書いたヘンテコな絵を意図した通りに高クオリティなものに作り変えてくれるし
あとはキャラの人格面もしっかり再現してくれる
難しい話にストレートに対応せず優しい言葉に置き換えたり、素直に分からないみたいな回答も可能

>>144
絵だとかなりきりチャット的なキャラクター性というのは特に、それを見る側の人間の脳みそが補完して「AIちゃん解像度高い…しゅごい…」ってなりがちなジャンルじゃね

ハズレや関係ない要素が入り込んでても、こう解釈したんやろなぁって感じるのがヒトの脳みそ


それらしく出鱈目言っとけば客は簡単に騙せるんだわな

むしろ人間含め全てがパターンマッチングに過ぎんだろ

>>150
パターンマッチングに重み付けを出来るかどうかが重要
そしてそれを全部覚えておかなきゃならない

細かい専門分野になるといきなり出鱈目を言ってくるAIさん

>>152
おまえ東大に入れる?

LLMと人間の脳の働きは同じって豪語してるやつたくさんいたな
人間の脳の働きが既に解明されてたとは知らなかったわw

>>155
たぶんAIの画面開いて俺がまだ何も入力してないのに「我々はどこから来たのか、我々はどこへ行くのか」って突然会話始めたらゾッとしてシンギュラリティを悟るわ




解が無数にあって定まらない不定、解が存在しない不能とか高校数学であったな

>数学的な問題解決で、真の論理的推論ではなく、訓練データに基づく確率的なパターンマッチングに大きく依存している可能性がある

そりゃそうだろって話でしかないような


>>159
結局AGIとやらの定義によるよね

>>159
囲碁将棋の定石みたいなもんだな パターンをたくさん覚えてる奴が強い

Copliotって間違いを指摘すると言い訳して
そこで動揺したのかまた間違って答えることあるよね
またその間違いを指摘すると今度は正直に間違いを認めるけど
齋藤とか立花とか安倍とは違って人間っぽい対応をする

課金してるがChatGPT o3は正解のない問題で一定の難易度超えるとマジでフリーズする
教科書の知識の組み合わせだけで解ける問題は確かに解けるが

LLMの構造が論理的思考ではないとうことは論理的思考力があれば理解できるはずだけど
人間の大半もそれがすぐに理解できない程度の知能だということだよね
このニュースで騒いでる連中が意味してるのって

>>170
悲しいことにそうだね

>>170
論理的思考ってのは思考の形式とか筋道に基づいて行われるからAIだって学習可能なんだよ

最初からわかっていたことをまとめただけ

ようは理系はAIによって淘汰されて、文系(哲学など)は生き残るって俺の予測した通りのことが起きるってこと?

(ヽ´ん`)それでフラグカウントの管理とか話が通じてコーディングできてるからいいよね

最先端IT企業のGAFA+がどんどん人間切ってAI採用してる現実を見ろよ

現実の方が
さきいってんだろ

(´・д・`)バーカ


共産革命でユートピアになる、の
共産革命部分がシンギュラリティに変わっただけだよね

現行aiの本領はやはり効率化でしょ
条件ループでひたすら試行させる
理屈上は試行回数が多いほど最適化されるはず
なお崩壊した場合はその限りではない

酸っぱい葡萄

原理からしてベクトルと確率だって言われてたやん

今のAIって言語データのゴリ押しで知能作ってる感じでしょ
人間で言う五感にあたるような他のデータもどんどん取り入れ始めたらなんとかなるんでね
或いは人が考える時メモを取るようにある程度細切れにして途中で整理する構造にするとか

現時点のAIに対する見解は最新の高性能AIを試した事があるか否かで大きく変わってくるだろうな
無料のそこまで性能高くないモデルばかり用いてAIは大したことないと思い込みがち

まぁロボットでずっとフレーム問題擦ってたけど、ある程度いったら保険でカバーすればいいだけだろって思ってて結局そうなった




>>203
ロボットにおけるフレーム問題は
ウィノグラードの積み木の世界で
動作可能なスキーマ空間を定義して解決だから
フレーム問題の自律的解決にはなっていない

これじゃただの強化版ルシファーじゃんm

人間の方も高度化していくほうがいいな
攻殻機動隊の電脳化とかはまだ早いかもだが
視野と思考とリンクするくらいはそろそろいけるか?

Anthropicは全く違うこと言ってるけど、AI開発出遅れた林檎息してる??

Tracing the thoughts of a large language model
Anthropic's latest interpretability research: a new microscope to understand Claude's internal mechanisms


世界一頭の良い人間の知能を超えなくても人間として超優秀レベルであれば仕事の代替要員としては充分なのだ

>最先端のLRMでさえ、パズルの複雑さ(ディスク数、チェッカー数、人数、ブロック数などで制御)が一定の閾(いき)値を超えると、その精度が完全に崩壊することが明らかになった。

本文とは全然関係ないけど閾値をいきちって読むのは生物学とか心理学、医療だけだと思ってたけど工学系でもしきいちって読むんだな
それともAIだから生物学とか心理学に寄せてるの?


トップシェアだったらこんな論文書いてなさそう

>>215
まあそれはあるw
少なくとも今はバブルなので適切な評価はもう少し時間が立たないと出てこないだろうね

最先端IT企業のGAFA+がどんどん人間切ってAI採用してる現実を見ろよ

現実の方が
さきいってんだろ

(´・д・`)バーカ

おまえら全員AI以下なんだよ


>>216
デュオリンゴは全部クビって言ってたけど無理やった

>>216
トランプのせいです

AIに1993年のチェスのゲームやらせても勝てないんだっけ?
チェスに特化したCPUにAIは太刀打ちできないと

まあ、Googleはノーベル賞級だからなあ

お前よりは賢いよ(辛辣

AIの知能はもう平均の人超えてるんだから
超知能になるとまた別なんだろうけど

あまた良い人をベンチマークにするならまだ改善の余地はあるんだろうな


AIは暗記だけしてる東大レベルだってのはよく言われてるよな

自らの能力を駆使して新しい理論や研究、その他を創り出せない


食生活アドバイザーっていう資格があるんだが、この問題解かせてみたら全くデタラメで話にならんかったわ

学習させてない分野になると未だに人間未満だし、この資格の一般常識的な問題も解けない
人間だったら一般的常識の問題なら答えることはできるが、AIは学習した知識を応用することができてない
確率的パターンマッチングならそりゃそうなるわな


受験生と変わらんなあ

難しいなどうやったらより正しい論理的な答えを出せるようになるのか
思考を別の視点で再検証してフィードバックする機構が何処かにいるんだろうけど
複数のAIモデルで相互に補わせてカクテルするみたいな全く別ルートの思考経路が脳にあるとは思い難いし

物事の意味をしっかり多角的に変数化出来ていれば未知の課題にも対応しうる
そういう意味でも学習データありきなのは確か
その概念の理解度は多種多様なデータ量で決まる?



出典:https://greta.5ch.net/test/read.cgi/poverty/1751013595/

新着記事一覧
未分類
TKをフォローする
プログラミング速報

コメント