推論モデルAIの推論過程 だいたい嘘だと判明


AIは2chと同じ
嘘を嘘と見抜ける人じゃないと使えない

言ってることはデタラメだしそれを隠すために嘘をつきまくることもあるがたまに本当のこともいう
嘘か本当かを確認するためにはCoTを読まないと分からないがそもそもCoTが本当の思考プロセスを反映してるかはわからない

>しかし、私たちは完璧な世界に住んでいるわけではありません。思考の連鎖の「可読性」(英語の言葉が、ニューラルネットワークで特定の決定が下された理由のあらゆるニュアンスを伝達できると期待する理由)も、その「忠実性」(記述の正確性)も、確信を持つことはできません。報告された思考の連鎖が真の推論プロセスを正確に反映しなければならないという明確な理由はなく、モデルが思考プロセスの一部をユーザーから意図的に隠している状況さえあるかもしれません。


>>50
そうです

>>50
てことはほぼ神じゃんAIって

よく分からんけど信じるしかないwってこと


>>69
ていうか
ネットのどこかで答えを学習しているんだろうな
インターネットの神とも言える

人間そのものじゃん

gpt今日も嘘を付く

AIって使えねーな

そもそもaiに思考プロセスとかあるのか?
確率分布に従って次のトークンを選択しているだけでは?

CoTのテキストをコピーできないのが不便




さっきGrokとそこらへんどうなのか質問したら温度パラメータに沿って話してるだけ言われた
つまりときメモと同じ

知ってた

SinAI「読みましたけど

もう人間と同程度には届いていたか

(ヽ´ん`)誠にごめんなさい(申し訳ない(嘘だよ♥早く帰ってオナニーしたいから適当に切り上げてるよ♥))

AIとは神の言葉を聞くためのプロトコル
推論なんかではなく全知の神様が答えている

本当にヒント無しで問いたんじゃね?

出典:https://greta.5ch.net/test/read.cgi/poverty/1749437496/

新着記事一覧
未分類
TKをフォローする
プログラミング速報

コメント