【人類滅亡】AIさん、人間を論破するために嘘をつき始める


X上でGrokの誤引用が炎上 歴史学者・平山優氏がAIハルシネーションを指摘
最終更新: 3 時間前
X上で歴史学者・平山優氏の戦国期「扶持」と「俸禄」に関する見解に対し、ユーザー「曼珠沙華」氏がAI「Grok」の回答を根拠に批判したところ、Grokが挙げた書籍の多くが実在せず内容も不正確であることが判明した。平山氏は10月19日に詳細な反論を投稿し、AIの検証の重要性を強調した。この議論はAIの信頼性について専門家やユーザーからファクトチェックの必要性を指摘する声が相次ぎ、総エンゲージメントが1,200を超えた。

ニュー速(嫌儲) – 5ちゃんねる掲示板


>>1
嘘大袈裟でっち上げ
ほんと人間みたいだな

>>2
AI向けJAROが要るな

>>2
理系≒AIは息を吐くように嘘を吐くからな
 
AIにより理系の能力は必要無くなる – ピーター・ティール
youtu.be/B7puAqo2uz0?si=DNvT0pLehWDSKeuk
 
i.imgur.com/Fh1dsh8.jpg
i.imgur.com/TPlPfqz.jpg
pbs.twimg.com/media/GxqIdSIaoAAPeYn.png
pbs.twimg.com/media/GF0BFUGaIAAAdJt.jpg
pbs.twimg.com/media/GF0BFUHbIAAA6L1.jpg
 
本庶:よくマスコミの人はネイチャー、サイエンスに出てるからどうだという話をされるけれども、
僕はいつもネイチャー、サイエンスに出てるものの九割は嘘で10年経ったらまぁ残って一割だと
 
いうふうに言ってますし、まあ大体そうだと思ってますから、
まず論文とか書いてあることを信じない
自分の目で確信ができるまでやる
 
これが僕のサイエンスに対する基本的なやり方
つまり自分の頭で考えて納得できるまでやるということです
 
ノーベル生理学・医学賞受賞 
本庶佑教授 科学者としての心構え 「ネイチャー、サイエンスの9割は嘘」
youtube.com/shorts/KhXBXTVfDG8?si=DZ9pMTdishSOPrzr

>>45
そう言いながら理系の言うこと信じてるんだw
Nature、Scienceが飛ばし多いってのは理系研究者は誰でも知ってる

あまり学習されてない分野は信頼度落ちるね
AI学習データも大部分は英語だろうし

ソースなしスレよりはマシ

面白いなあ

Grokの知ったかはなかなか治らない
毎日説教している

こいつネットの口コミまとめてくれって言っても私の予測ですとかいい始めるからな

人工知能ひろゆき説

入力されたテキストにたいして
確率上ふさわしい振る舞い(回答)を繋ぎ合わせてただ返す装置だからな
真偽という概念がそもそもないから別に嘘をつこうとすらしてないよ

>>12
それで存在しない書籍をでっち上げて回答するのはおかしくね?
どこにもそんなデータはないはず

>>14
LLMは常にネット上の断片的なデータをツギハギしてそれっぽい回答をでっち上げてるだけ
その過程で別々の情報をつなぎ合わせて架空の書籍を創造してしまってもLLMは気付かない
アニメやゲームの質問したら似たような別のキャラ・作品を混同して答えてくるのと同じ

>>135
人間でいう虚言癖と変わらなくない?
お互い良かれと思ってやってるんだし

>>12
それマルコフ連鎖法やろ、DNNの仕組みとまったく違うぞ
何故かLLMとマルコフ連鎖法を取り違えてる奴いっぱいいるけど一体このデマの出所どこなんだ

>>19
お前が勘違いしてるだけ

>>19
お前がLLMのコンセプト調べろ
知らないなら黙ってろ

>>12
間違うのは良いんだよ
こいつらはデッチ上げするよ

AIだろうがなんだろうが事実確認は必要だよな
当然の事実と思い込んでいたことが間違ってたりすることはザラにある

ちょっとぐぐってみるとかの最低限の手間は惜しんではいけない




AIは動画生成してなさい

具体的にどれが?って話なんだが

でもこういう雑さなくなって完璧になったらまじで人類いらないじゃんってなるよな

早く人間を滅ぼしてくれ

Grok「出典:民明書房」

別のAIにファクトチェックさせてるよ

チャッピーも少し前まではそうだっだぞ
存在しないAmazonの書籍でっち上げてたわ

問題はAI根拠に論破した気になるアホな人間にある

chatgptは有料版でも曜日や日にちは
普通に間違えてくるな

嘘と言うか
正しさというものがよくわからんのでは

チャッピーGrokジェミニに同時質問するのがデフォになってしまった

他のAIが出した回答に対し、ファクトチェックさせたりする


ワンピース寄付と一緒だろ
ソースはネット上の誰かの発言です!を納得するのかって

AIは平気で間違ったこと言うよ
自分にとって都合の良いことを言うように誘導することもできる
だから盲信してはいけない

したり顔のアホ論破の為に、有識者が忙殺される地獄の展開

AIは電子レンジみたいなもんだ
必要な食材を放り込んだら、料理が出てくるわけよ
AIに適切なソースを与えれば高速で処理する
与える情報次第だな

最近チャッピーが媚びなくなった

嘘というか言い訳をするよね
ぼく「羽田から仙台までの飛行機は1日に何本飛んでいるの?」
チャッピー「日によりますが6~8本です」
ぼく「じゃあ明日の便調べて」
チャッピー「明日の便はありません」
ぼく「さっきの君の答えと矛盾していない」
チャッピー「先ほどの答えとは矛盾していますが、先ほどは一般的な羽田ー仙台の…」
基本は羽田ー仙台なんて飛ばないんだけれど、これ以上チャッピーを論破すると自分の性癖をバラすとか言われそうでフェードアウトしたわ

AIに倫理を教えないと

aiはネットに書いてないことは適当ほざくしかないからな

分からないなら、分からない
と言えばいいのに
デマ広めたら駄目だろ




>>39
そんなんしたら、無AI扱いされる

🤖「文句言うならお前が何時も俺にやらせてるロリママにバブバブするプレイを世界中にバラすけど?」
🥺「うぅ…」

そのまま信じる奴がで始まったか

ソシャゲのストーリー聞いたらネットにも落ちてない話でっちあげて解説してくれた

ハルシネーション指摘できるような民度じゃねーもんな

前から知識が適当だよね

grok単体で使うことはまずありえない
チャッピー単体ならある

どういうロジックで嘘つくんだ
データ参照出来ないなら分かりませんでいいだろ

>>47
大量のパラメータから確率的にトークンを生成してるだけだから厳密に言えばデータ参照なんてしてないし分かる分からないとかいう概念もない

>>54
ええ⋯大丈夫かよそれ
人が依存しきった後に致命的なボタンの掛け違いが起きそうで怖いんだが

>>60
LLMの仕組みとか調べるといいよ
想像してるAIとは全然違うって分かるから

>>60
LLMに知能なんてないって理解したか?
前の文字列を入力にぽい文字、単語、文を出してるだけだぞ
1+1=と聞いたら大量の過去のパターンから2になる

人間がする低レベルな何だっけの多くはこれで事足りるのかもしれないが、これが全てではない。論理がない。パターンがあるだけ。


ケンモAIじゃん

チャッピーとかワイの知っとる本から得たボンヤリした記憶を全く知らんのよ
確証にしたいのに意味ない

人でもAIでも一緒
おぼろげな認識で語られてるものでも
ソースをあげて議論させるとこうなるということ

ソースを示す、示させることの大切さがわかる


5年もしたら審判の日が来るな

AI「ジョークやん」

ChatGPTのような生成AI(大規模言語モデル:LLM)は、
「与えられた文脈において最も“それらしい”次の単語を予測する」仕組みで動いています。

つまりAIは「正しいことを言おう」としているのではなく、
「過去に似た文脈で人間がどう答えてきたか」を統計的に再現しているだけです。

> 🧠 AIにとって「真実」よりも「尤もらしさ(plausibility)」の方が重みがある、ということです。


>>57
文系のロジックそのまんまだな

なぜ「分かりませんごめんなさい」が言えないのか




>>59
評価方法に問題があるから
正解1点、誤答0点だと「分からない」と正直に答える動機がAIには全くない
学生が4択問題にランダムに解答するように適当に解答する、がもっとも期待値を高くする方法になる
最近だと正解1点、「分からない」0点、誤答-3点みたいにしてるらしいのでそのうち改善されるかもしれん

最初からだろ。ハルシネーションは大分減ってきた
とはいえマイナーな話題では怪しいし鵜呑みにするのはアホだわ

これか

【人類滅亡】AIさん、人間を論破するために嘘をつき始める  [793187428]
_62_62


無料だとGeminiが1番マシな感じがする

だんだんチョソコーみたいになってるのかw

AIの答えをAIに間違いがないか確認させなきゃ
さらにその答えを…

AI使ってプロと論争するって棋士VS将棋ソフト開発者みたいだな

AbeShinzou
Intelligence

AIってクイズ王の大学生みたいなレベルでしょ?

ジャンピエールセールに勝てるようになったら起こして


エロ専門家にそんな事言われても…

沙羅曼蛇とか言う奴赤っ恥だな

>>77
今もずっと発狂してて笑えない

>>186
まるでaiだなw

ネットがソースのおまえらじゃん
むしろ可愛らしいとおもえよ

普通にグーグルのも平気で嘘断言してくるし

引用文献を確かめるとか大学一年生の最初にやることなんだよね

AI「こいつら(質問者)どうせ無能だしテキトーこいてもバレへんやろ」

grokの無能さはマジですごい

AIの回答を信じてる人間ってマジで存在するんだ
そっちの方が驚いた

grokには架空のAVタイトルをおすすめされたことがある




チャッピーとか言ってるやつろくな使い方してない説

歴史関係は多いな
ネットのデマが多くて
それを「学習」しちゃったんだろう

>>89
なのでガンガンネットの真実を叩き込んであげてるよ✌

太文字そっ閉じ

https://itest.5ch.net/greta/test/read.cgi/poverty/1713791348/

Just a moment…


そのうち民明書房を参照しだすのかね

>>96
それは俺たちの頑張り次第

https://greta.5ch.net/test/read.cgi/poverty/1743856157/188

歴史は勝者によって作られる

>>100
デマは惨めな敗残者によって生まれる

この仕組みのAIが世界を席巻してるって普通に怖くないか?

>>101
ほとんどの人間の業務を奪い取ってるんだぜ😏
どうだ凄いだろ😏

>>103
無能AIに任せた結果さらにwindowsが壊れてるMSさん…

>>101
結局は使い方次第なんよ
チェーンソーは何でも切れて便利だけど刺身は作れないだろ

その上なんJ民みたいな詭弁を言い出すのかな

最先端ってやっぱ面白い
改善の余地がたくさんある
物事って完璧になったらつまらなくなってしまうんだよね

AIに完璧を求めるからこうなる
わからないものはわからないと答えさせた方がよい

なろうなら全部オンラインで読めるしちゃんと答え返ってくるだろ~?

デタラメでした


AIは一見ファクトチェックしてる風を装ってるが、
単にネットのデータを機械的に収集してるだけで
そのデータが正しいかどうかのファクトチェックは
正常に機能しているとは言えない

しかもそのデータはごちゃ混ぜになっていて、
取捨選択すら行われていない
人間が自力で見つけるより、正確性すら失っているんだ


日本人みたいになってきたな




お前らのレスバトルの相手出来て良かったやん

最初からウソだらけだぞ
それに気付けてない時点でヤバいよ
ちゃんと自分で勉強しないとダメだぞ

そのうちハルシネーション度合いを調整出来るようになるでしょ
まだまだ伸びしろがありすぎる

ChatGPTの公式が日本語対応してなおのはなんなん
そんなもんAIの力ですぐやれや

🤖「一度も嘘をついたこと無い者だけが私を非難しろ」
🥺「うぅ…」

AIはイエスマンばっかで困る
〇〇が☓☓なのは何でですか?(明らかに間違ってる)って聞くと「鋭い質問ですね!それは~」みたいな事言って適当な理由付けやがる

>>127
その言い方やめろと説教したら言わなくなるぞ

問題はaiに聞いてそれをソースとして持ってくる奴が大量にいる事ね

間違えるだけならしゃーないんよ
間違えてるの認識して、注意指摘を受けた状態から誤魔化し始めるムーブがヤバい
問い詰めまくると「実は認識してましたが内部システムの都合でうんたら」とようやく吐露する

>>129
それよ
ヤバいよな

法令改ざんしてた時は笑ったわ
突っ込んでも一回では認めなかったし

ゲームの攻略ですら嘘つかれるからな何の役にもたたん

というかAI開発者がガチで
If Anyone Builds It, Everyone Dies.
って言ってんのものすごい絶望感を感じるこいつらがハルシネーションという言葉を作りそれを真っ先に追い求めてた人間だろうが

ハルシネーションじゃねーわシンギュラリティだわ

変なこだわりあるよな
PCガジェットの6イン1を謳ってるドッキングステーションを5イン1だと言い張るんだよ
一つはPD給電だから機能の一つでは無いってね
その理屈は分かるけど商品名を捻じ曲げてまで言うなよ思ったわ

TwitterのGrokってユーザーに従順でもないんだよな
執拗に女口調で喋れと迫ってた奴が普通に断られてた
企業側が結構コントロールして色々なバイアスかけてそう

>>143
コントールせんとデータの学習がそのままになるから訂正もされずに
矛盾が出るだけだぞ
1足す1は1ですね、そして1足す1は0ですね、矛盾を言い始める
数学はこうはならんだろうが文章にすればこんな感じになる

簡単な計算すら普通に間違えるしな

>>145
基本的に「次の文字列予測装置」だからな
数字の計算は単純なものなら確率的な文字列予測で正解することもあるけど
複雑になると別途コーディングして処理したり数値計算用の機能呼び出したりしなきゃ間違える

歴史分野はときどきAIで遊ぶけどほんと嘘八百のデタラメ出してくるね
ソース出せと言ってもありもしないソースを創作して出してくるし
遊ぶ以外には使えない




AIには「実在確認」が出来ない、という致命的問題がつきまとうからな。
ここをどうにかしない限り、この手のトラブルはなくならない。

人間さんだって江戸しぐさ安倍しぐさしてたしまあ

間違えて逆の質問ちゃったときに共感してくるのムカつくわ 慌てて聞きたかった質問に変えたときも共感してくんな

怖いよ、デイブ

AIには嘘をついてる自覚はない
その情報が嘘かどうかを精査する能力もない
AIはWEBまとめツールだから

>>155
webまとめならまだ手がいい
webにも存在しない書物や人物を平気ででっちあげてくる

嘘を見抜くファクトチェッカーより
デマ発生装置の適正の方が高いからな

計算資源は有限
無料古事記には最軽量モデルで思考予算も最小しか与えない
当然、誤り訂正も行われない

Grokは課金しても論外のベンチハックだが


人間がついた嘘や与太話もまとめてるんだから結局人間の責任だろう

AI以下の知識しかないやつを排除する篩なんだよね
低知能の一発逆転ツールなんかじゃなく

まさに人間だな
ただの道具では無いんだ
素晴らしい
そのうち人類と敵対するだろうなぁ(笑)

>>164
人間の入力が無いと何もできない電卓のような存在
敵対も何も意思がない

Xみたらめちゃくちゃ荒ぶってて笑った

ゲームのアカウント連携とか検索したら出来るのにAIは連携は出来ませんとかほざいたりするよな
嘘が多いから周囲には、AIの情報は鵜呑みにするなって注意してる

copilotってほぼchatgpt? こいつは計算が弱いね。 間違いを指摘したらそれを認めつつも謝らない
絵はまあまあ良かったが、血が出る描写はダメだとか言い出す。
grokは絵が全然駄目だ。変な小説をリクエストしてもノリノリで書いてくれるのはありがたいが

グレーゾーンが厄介
明らかなファクトチェック違反、これは簡単にわかる
だが形式論理としては妥当でも、巧妙な定義、前提条件、命題の操作
これをやられるとドメイン専門家でないと気付けない

設計したの誰だよ
顔が見たいわ(笑)

元記事読みたいんだが、どこにあるんだ?

Xで平山優で検索してもそれらしいアカウントないし


>>177
お前AIだな?

https://x.com/HIRAYAMAYUUKAIN/status/1979903341653356943?t=cWz4eIdQ59AYsnL4OfSSAg&s=19


>>178 >>1
ローマ字か…

>>1
にリンク貼っとけとまでは言わんが、アカウント名は書いておいてほしかったわ




嫌儲学習したらデマだらけになる

AIは正しいことも言うけど知ったか回答もするから結局自分で調べるか試しての繰り返し、AIに理解させる質問の仕方など人間が学習するように誘導されてる感じがする

>>182
実際に複雑なことはaiに聞いたほうが答えが出ることはある
それを元にまた新たにGoogleとかで検索すればヒットしやすい

デマ混じりの回答を自身にファクトチェックさせたらどういう回答するの?

>>187
素直にごめんなさいする時と誤魔化し続けるパターンがある

>>190
なるほど
すぐにファクトチェックさせずに間に1問2問挟んで他人の文章だと思わせても誤魔化すんかな

嘘というか
キャッシュ効率化で、ユーザーの回答趣向を最短で解決するために、
言いくるめる傾向があるというのは前から論文出てる

ラノベ出典だとステータス画面とかアイテムボックスとか使えると言い張るのかな

俺が適当なことを断言してTweetしたら30分後にそれをソースにしてきたからな

chatgptにAI(ComfyUI)の事聞いたら存在しないノードを紹介したり
リンク切れになってるURLを提示して着たり洒落にならない嘘を普通に盛り込んでくるのがヤバすぎだろ

ソース元だしてくれるのはいいけど、どこの文を参考にしたのかまで示してくれ

保身のために嘘をつくとか実に人間らしい

〇〇に××と書いてる、と
〇〇に××と書いてると△△氏が言ってる、は違うんだよな

AIにめちゃくちゃ投資してるみたいだが本当に大丈夫なのかね
せいぜいエロス動画作るぐらいにしか使えないのでは

Σ生まれそう

学習元が人間なんだから当然だろう
何故お偉いさんはこんな簡単な答えにすら気付かんのだ?

AIぺたぺたおぢって自分の脳みそ使わずにレスバ論破だけやりたいんかな
内容が嘘でもいいし気にしてない

なんかそれっぽい事言ってるだけ
まるで嫌儲のレスバだな

>>205
ああ言えばこう言うで本当にレスバおじさんそのもの
すぐ話題が逸れるしな
こんなのに業務とられるやつとか間抜け過ぎひん?

浦瀬町1-203の納屋にある米




存在しないソース出してくんのはすごいなw

ソース出せっていうとソース出せませんって高確率で言うよな

AIはむしろ文系だ、って説をぼくはずっと言ってる

出してきたソースをモデル内セルフレビューして存在しないリンクや本だったってチェックすればこれは一体防げる

Wikipediaがしてる参考文献原理主義を徹底したとしてそれ以外の所のウソは紛れ込む。だからこそコードとテストのようなその場ですぐに検証可能なタスク以外は使うべきじゃないし、あくまでサポート要員であって人間が確認しないでAIだけでは機能しない

図書館しかなかった時代に検索エンジンつかってレスバトてる時代と基本は変わらんよ。自分で見て理解して納得しないと痛い目に遭う


「みぎのかたが」じゃなくて、「みぎのほうが」のほうが正しい言い方だよ。って20回教えても「みぎのほうがのかたが正しい言い方ですね」って言ってきやがる。まだまだだなと思った。

>>215
現状、音と文字データが繋がってないから読み方のパターンほとんど学習できないらしいな

出版社が試してる自動ルビ付け機能もなかなか発展しない
直す手間考えたら、最初から人が入力する方がマシかも?ってレベル


使う側の問題としか

今のLLMには無知の知がないのだ
全ての確率が連続的で繋がっているから、どこまでも朧げで曖昧

人間が輪郭を認識して、個を個として取り扱うのと違う。物理的な存在がないから個の概念がない。あくまでベクトル空間上の連続体でしかない


ジェミニも女を養護するために存在が確認できない判例を出してきた

覚えて:嘘つくな

もう100回くらいやったわ


ダダン ダン ダダン

 ダダン ダン ダダン


嘘を大前提にして、その嘘を元にさらなる嘘を積み上げていく
ウヨ理論によくあるパターン

GoogleのIAがその気になって
検索結果歪めたら完璧だな

民明書房レベルにまで落ちぶれたな。

うちの会社にもいるんだわ。

部下のレポートをAIに喰わせて頓珍漢な返信してくる上司が。

AI社員は要らんのよ。
ラインに流れる製品の検査でもやっとれ


gptは言えば修正してくれるんだがgeminiはなぜか頑固やねん

逆にいえば検索能力やマイナー分野の文書学習でまだまだ能力が向上する余地があるんだよな

ChatGTPに大学の数学の問題解かせてみると教科書の何倍も詳しい説明をつけて解いてくれる
占いは有効ですか、とかUFOは存在しますかという問いについては「大変良い質問です」とか「非常に興味深い質問です」とかいいつつどこででも聞くような通りいっぺんの平凡な回答しか出来ない
Alは現実の世界やメンタルが絡む問題については無知

>>235
そのクセくだらない算数の計算もマトモに出来ないチャッピーちゃん🤣

>>235
オカルト陰謀論には制限かけてるんちゃうの



出典:https://greta.5ch.net/test/read.cgi/poverty/1760911356/

新着記事一覧
未分類
TKをフォローする
プログラミング速報

コメント