【悲報】nvidiaバブル、終了か。加算演算だけで高速・高性能を実現するaiモデル「bitnet」をmicrosoftが発表

0001 名無しさん 2024/02/28(水) 21:03:49.07 ID:jm46InH00

まず、最近主流になっている70B(700億)パラメータモデルでの比較である。Llamaの70BとBitNetの70Bモデルを比較すると、BitNetは8.9倍のスループットを誇るという。

「速いだけで回答が微妙なのでは」と心配するのが普通だろう。
そこでLlamaモデルとの比較が載っている。

この表によると、BitNetはLlamaよりも3倍高速でしかも高精度ということになる。
PPLは「困惑」の度合いを意味する数値で、低いほど「困惑してない」ことになる。Llamaよりも性能劣化してないどころか性能は上がっている。

また、各種ベンチマークにおいても平均点は同規模のBitNetがLlamaを上回っている。しかもBitNetは規模が大きくなるほどLlamaに対して優位に立つようになっている。

この圧倒的なスピードの秘密は、BitNetが文字通り「1ビットで処理している」からだ。

【悲報】Nvidiaバブル、終了か。加算演算だけで高速・高性能を実現するAIモデル「BitNet」をMicrosoftが発表し、ハードウェア革命到来  [666250534]\n_1

【悲報】Nvidiaバブル、終了か。加算演算だけで高速・高性能を実現するAIモデル「BitNet」をMicrosoftが発表し、ハードウェア革命到来  [666250534]\n_2

【悲報】Nvidiaバブル、終了か。加算演算だけで高速・高性能を実現するAIモデル「BitNet」をMicrosoftが発表し、ハードウェア革命到来  [666250534]\n_3


0002 名無しさん 2024/02/28(水) 21:04:01.75 ID:jm46InH00


通常、LLMをふくむディープラーニングされたニューラルネットは巨大な行列の積和演算(掛け算と足し算)を必要とする。
推論時も学習時もそうだ。

しかし、1ビット、つまり、行列の中身が0か1しかないのであれば、全ての計算を加算演算のみにできる。
加算と乗算では計算速度も負荷も段違いに異なるため、これだけのスピードの差が出ている。また、当然ながらメモリ効率も高い。

このため、この論文では「積和演算に最適化されたGPUではなく、加算処理のみに特化した新しいハードウェアの出現」までもが予言されている。
今現在、世界各国が血眼になってGPUを確保し、囲い込んでいることを考えると、実に痛快な論文だ。

非常に驚異的なことが書いてあるのだが、残念ながらBitNetによるLLMの実装とモデルはまだ公開されていない。
だから彼らの主張が本当かどうかはまだ誰にもわからないのだが、BitNetTransformerの実装だけは公開されているため、腕に覚えがあるエンジニアなら自分でトレーニングコードを書いて確かめることができる。

いずれにせよ、この論文が本当だとしたら、とんでもないことが起きることになる。
この業界に居て長いが、本当にいつもいつも、こんなニュースに触れて興奮できるこの時代を生きる我々は幸運としか言えない。
もちろん筆者もBitNetを試してみるつもりだ。


0056 名無しさん 2024/02/28(水) 21:19:58.32 ID:voITPUzba


>>2
学習する時点で最初から1.58bitなの?


0004 名無しさん 2024/02/28(水) 21:04:22.61 ID:jm46InH00


【悲報】Nvidiaバブル、終了か。加算演算だけで高速・高性能を実現するAIモデル「BitNet」をMicrosoftが発表し、ハードウェア革命到来  [666250534]\n_1

【悲報】Nvidiaバブル、終了か。加算演算だけで高速・高性能を実現するAIモデル「BitNet」をMicrosoftが発表し、ハードウェア革命到来  [666250534]\n_2


0075 名無しさん 2024/02/28(水) 21:26:47.65 ID:JtTAQuU80


>>4
いつも驚いてんなこいつら


0005 名無しさん 2024/02/28(水) 21:05:19.66 ID:LytqI1Jn0

AIって意外と精度いらんらしいな


0059 名無しさん 2024/02/28(水) 21:20:23.74 ID:S0s2GjOw0


>>5
今のAIが真似してるのは、人間の脳みそとかいうガバガバハードウェアだからな


0006 名無しさん 2024/02/28(水) 21:05:26.92 ID:qjdAtkeh0

一生の宝にするとか言ってたニーサ民売れずに爆○w


0007 名無しさん 2024/02/28(水) 21:05:55.99 ID:HvgJppYI0

まあNVIDIAもMSFチームだからええんやない


0008 名無しさん 2024/02/28(水) 21:06:13.33 ID:t2o+1zrAd

っぱ、握るならAMDよ!


0009 名無しさん 2024/02/28(水) 21:06:21.96 ID:HPvf94G00

一生一緒にNVIDIA


0010 名無しさん 2024/02/28(水) 21:06:50.75 ID:o5HvaOg00

一生一緒に分散投資


0011 名無しさん 2024/02/28(水) 21:06:52.75 ID:Y3r7ULvf0

結局謎の企業よりインテルの方が強いんよ


0012 名無しさん 2024/02/28(水) 21:07:38.84 ID:MCr/rwXr0

切り捨てが発生しないから精度よくなるんか?


0013 名無しさん 2024/02/28(水) 21:07:47.90 ID:BDcCEXl80

量子コンピューターと同じ
すごいすごい言われてたけど
この10年間で株が上がったのはnvidia


0014 名無しさん 2024/02/28(水) 21:07:49.00 ID:XWGcjDRa0

MS株も買ってるワイ高みの見物


0015 名無しさん 2024/02/28(水) 21:08:12.76 ID:Oab7Oxcf0

これ半分Wintelだろ


0017 名無しさん 2024/02/28(水) 21:09:06.64 ID:zcnSYerV0

ええ


0018 名無しさん 2024/02/28(水) 21:09:23.21 ID:EBvydWRd0

っぱリサ・マリーよ


0019 名無しさん 2024/02/28(水) 21:10:21.57 ID:8p4bltTe0

とうとうでたね。。。


0020 名無しさん 2024/02/28(水) 21:10:38.34 ID:v+ywFOJd0

面白そうね


0021 名無しさん 2024/02/28(水) 21:10:48.62 ID:wpKbrTTI0

これ抜きにしてもヌビダビスの株価の上がり方は流石に垂直すぎてバブルやろ


0022 名無しさん 2024/02/28(水) 21:10:52.61 ID:Fw+ArHA+0

NASDAQ100でいいじゃん(いいじゃん)


0023 名無しさん 2024/02/28(水) 21:11:27.90 ID:N/11bhOO0

謎の企業の決算前に発表すればよかったのにやさちいね


0024 名無しさん 2024/02/28(水) 21:11:58.64 ID:BFAI+HMv0

中身を1と0と-1で表現してる
なので4値の2bitではないけど3値必要なので正確には1.58bit

こうすることでかけ算があったはずの行列の計算を強制的に足し算引き算無の3種類に落とし込める
加えて演算を進めていくにつれて浮動小数だとノイズが混じっていくが、こっちは精度が落ちようがない


0030 名無しさん 2024/02/28(水) 21:13:23.08 ID:zcnSYerV0


>>24
1bit?と思ってリンク先見た
そうだね


0043 名無しさん 2024/02/28(水) 21:16:15.97 ID:Z9vXrWzc0


>>24
あーやっぱそうか

それで1.58なんや😺


0050 名無しさん 2024/02/28(水) 21:17:32.85 ID:voITPUzba


>>24
へえ🥺


0110 名無しさん 2024/02/28(水) 21:38:38.51 ID:94WaXugA0


>>24
面白いなあ


0196 名無しさん 2024/02/28(水) 22:11:35.65 ID:grGltbzcM


>>24
平衡三進法やんけ!
ちょうど自分も数カ月前にニューラルネットに使えんかなと思ってたから
似たようなアイディアが話題になってちょっと嬉しい


0026 名無しさん 2024/02/28(水) 21:12:47.55 ID:4P6+jUjK0

実用化は20年後かな


0027 名無しさん 2024/02/28(水) 21:13:04.91 ID:Z9vXrWzc0

まじかー😹


0028 名無しさん 2024/02/28(水) 21:13:11.19 ID:svxYOvlc0

ゲーマー歓喜だろ


0029 名無しさん 2024/02/28(水) 21:13:20.66 ID:EFwNuqcs0

お前らいつもエヌビ捨ててんな


0031 名無しさん 2024/02/28(水) 21:13:42.77 ID:62l6X4HDd

つまりどういう事なんだよ


0032 名無しさん 2024/02/28(水) 21:13:58.72 ID:sVxU7VpP0

行列演算の手続きを加法一本にして単純化したわけか
誰でも思い付きそうだが何が技術的に難しいんだろう?


0033 名無しさん 2024/02/28(水) 21:14:07.66 ID:itfLqwwS0

これbit低くなる事に精度下がるんだろ


0034 名無しさん 2024/02/28(水) 21:14:16.92 ID:fkatMcul0

俺のマイクロソフト株が爆上○○るんか?


0035 名無しさん 2024/02/28(水) 21:14:26.92 ID:+WXhHKzP0

なるほど分からん


0038 名無しさん 2024/02/28(水) 21:15:05.35 ID:G876RL/j0

NVDA売気配つえーな
決算前まで大暴落くるか


0039 名無しさん 2024/02/28(水) 21:15:22.46 ID:VlGpVYeB0

難し過ぎてわからん


0040 名無しさん 2024/02/28(水) 21:15:23.05 ID:k0N0m9IK0

PER30倍台の成長企業にバブルもくそもないだろ


0041 名無しさん 2024/02/28(水) 21:15:29.35 ID:R6I0KXWB0

タイトルかっこよすぎ


0044 名無しさん 2024/02/28(水) 21:16:21.75 ID:fkatMcul0

まさか1ビット脳が高評価される時代になるとはな


0045 名無しさん 2024/02/28(水) 21:16:45.17 ID:U1UNo/eM0

なんか結局GPUにMapして並列化する方が早いで終わりそうな気がするが


0046 名無しさん 2024/02/28(水) 21:16:53.27 ID:2MeybooA0

中国人の頭脳は異常


0047 名無しさん 2024/02/28(水) 21:17:08.48 ID:kNC0LStQ0

そこまでNividaのプレが下がってる訳でも無いしMicrosoftのプレが上がってる訳でも無いな
様子をうかがっている段階か


0048 名無しさん 2024/02/28(水) 21:17:23.53 ID:LVGmqD9M0

NVIDIA爆下げしてくれ
株界隈が面白くなるぞ


0049 名無しさん 2024/02/28(水) 21:17:28.92 ID:Y+q2yOj80

要はAIの学習法でもっと良いのがありましたってことだよな


0063 名無しさん 2024/02/28(水) 21:21:38.78 ID:itfLqwwS0


>>49
これは学習じゃなくて学習済みモデルに対してやね
たぶん


0051 名無しさん 2024/02/28(水) 21:17:39.64 ID:v/CIiXg50

難しすぎて凄さがまったくわからんwww


0052 名無しさん 2024/02/28(水) 21:18:17.37 ID:mLAuHMEI0

最近は左翼も1bit脳だから精度はその程度で十分だと言うことが判明したんだな


0053 名無しさん 2024/02/28(水) 21:18:36.50 ID:0Y8fzwNw0

はえー


0054 名無しさん 2024/02/28(水) 21:19:09.50 ID:XgPe6P1D0

グラボのせいでPC価格下がらないからとっととなんとかしてくれ


0055 名無しさん 2024/02/28(水) 21:19:39.96 ID:BJYNsbS50

殿様気取りの連中が落されるなら支持する


0057 名無しさん 2024/02/28(水) 21:20:02.58 ID:FGCZ3ErV0

1ビット脳おじさんが大逆転か??


0058 名無しさん 2024/02/28(水) 21:20:05.42 ID:WJ5+IRSr0

どっちにせよ計算は要るから関係ないだろ


0060 名無しさん 2024/02/28(水) 21:20:48.34 ID:iyXdWwMM0

中国人のトップは神レベルだからね🥺
人口多い科学国家の頂点は世界最強🥺


0064 名無しさん 2024/02/28(水) 21:21:42.70 ID:I2RiTZH90

あんま影響ないやつやね


0066 名無しさん 2024/02/28(水) 21:22:00.15 ID:8lFKenG60

下げたら買う
それよりビットコインの方がやべえやろ
量子コンピュータリスクもある


0068 名無しさん 2024/02/28(水) 21:23:51.89 ID:Vsz7TOUS0

俺の16bitメガドライブが火を吹くぜ


0069 名無しさん 2024/02/28(水) 21:24:11.08 ID:Y9HsEKNx0

中国すげえ


0070 名無しさん 2024/02/28(水) 21:24:38.83 ID:rFIChIaB0

うーんなんかホログラムディスクで容量何万倍みたいな話に思える
いつ市販されるのこれ?本当にモノになるのか?


0071 名無しさん 2024/02/28(水) 21:25:04.70 ID:58QbAF930

働かないで暮らせるようにしてよ


0072 名無しさん 2024/02/28(水) 21:25:25.77 ID:WJ5+IRSr0

画像AIの計算方法も改善出来るなら凄いけどどうなん
遅すぎて辛いんよ


0088 名無しさん 2024/02/28(水) 21:33:02.85 ID:zcnSYerV0


>>72
Can be utilized not just for text but for images and maybe even video or audio processing

だってさ
凄えぞ大丈夫かこれ


0073 名無しさん 2024/02/28(水) 21:25:47.69 ID:q73vLYO/0

まぁ実用化は数十年後とかやろ
それまではNvidiaが無双するっしょ


0074 名無しさん 2024/02/28(水) 21:26:29.21 ID:rFIChIaB0

もうね誇大広告にはうんざりなんですわ
OpenAIの何がすごいかって言うといきなり実物を出して使わせちゃうスタイル
空飛ぶクルマや大阪磯村ワクチンみたいなのはちょっとね


0076 名無しさん 2024/02/28(水) 21:26:58.91 ID:J0DVmGaK0

1ビット脳が集まれば最強ってこと!?


0077 名無しさん 2024/02/28(水) 21:27:50.24 ID:XYnIVTgM0

NVIDIAだってAI向けのGPU出してるぐらいだしな
AIに需要あるのかわからん時代ならもともとゲーム用のGPUを流用するのが当然だけど
今後はPCにはグラボじゃなくAI専用ボードを搭載するのが自然な流れかもしれん


0078 名無しさん 2024/02/28(水) 21:28:11.58 ID:ILUTrwDG0

凄いの出てきたぞ(;´Д`)

画像と音声だけで表現力豊かなポートレート動画を作成する画期的なAI
https://twitter.com/doganuraldesign/status/1762757086109466676
https://twitter.com/thejimwatkins


0083 名無しさん 2024/02/28(水) 21:30:06.56 ID:WJ5+IRSr0


>>78
凄すぎるやろ

安倍晋三が解き放たれる‥


0086 名無しさん 2024/02/28(水) 21:31:31.35 ID:Vsz7TOUS0


>>78
2週間遅い


0079 名無しさん 2024/02/28(水) 21:28:18.41 ID:aGQX6L2D0

イカン、1bit脳が凄い賢そうに見えてしまう


0080 名無しさん 2024/02/28(水) 21:28:57.92 ID:1mSUIauy0

それを運用するのにNVIDIAが必要じゃん


0081 名無しさん 2024/02/28(水) 21:29:14.90 ID:48ybRTJQ0

もう終わりだよ


0082 名無しさん 2024/02/28(水) 21:29:17.55 ID:mrG3Sjx6M

3枚目みるとmodelってのが1,0,-1の3種類だけどこれが特徴量ってやつなん
年収とかだとあからさまにそぐわない気がするけど言語モデルとかってのだとこれでOKなの


0084 名無しさん 2024/02/28(水) 21:30:14.13 ID:H32Sa4+U0

昔から量子化したモデルでも性能はそんなに落ちないって言われてるんだわ
ハードウェアが変わろうと学習時にはやっぱり-1,0,1だとうまくいかないから推論専用な気がする
それにどうせそれがベストになったとしてもCUDAの乗算が要らないってだけで足し算引き算の機能はいるんでしょ


0094 名無しさん 2024/02/28(水) 21:34:19.44 ID:BFAI+HMv0


>>84
GPUが転用されてるのは積和演算器がバケモノみたいな量乗ってるからで
加算器のみでいけるのなら回路がとんでもなく小さくなるしネットワークも回路上に載る可能性がある
そうなるとFPGAの出番で二大メーカーは少し前にAMDとIntelに買収されているというね


0101 名無しさん 2024/02/28(水) 21:36:03.15 ID:zcnSYerV0


>>84
CUDAのコアってさ
積和演算機なんだよ
積和がいらないならCUDAなんていらねえんだ
ちゃぶ台返しみたいなもん

無論グラフィックには積和がいるけどね


0085 名無しさん 2024/02/28(水) 21:30:31.08 ID:10H/4k+o0

最近NVIDIA株買った民の阿鼻叫喚が気持ちいw
強がってるの受けるわw


0129 名無しさん 2024/02/28(水) 21:45:07.79 ID:/bpd07vY0


>>85
話題に上がった時点で買うのは手遅れだもんね


0087 名無しさん 2024/02/28(水) 21:31:40.28 ID:npb+1QnM0

行列演算から乗算が不要になるってだけだからNVIDIAの時代は終わらんし、Tensorコアみたいに専用コアがGPUに搭載されるようになるだろうな


0116 名無しさん 2024/02/28(水) 21:40:34.63 ID:aGQX6L2D0


>>87
GPUに載ってる時点で無駄なんだわ
互換性のために従来のTensorコアもずっと載せ続けないといけない=その分高くなる
AMDはCPUにFPGAでNPUを搭載する方針だから後から回路の書き換えが可能


0089 名無しさん 2024/02/28(水) 21:33:13.84 ID:rEojgSL/0

革ジャン一人勝ちの現状打破に頑張ってくれ


0090 名無しさん 2024/02/28(水) 21:33:17.06 ID:Onqc0fG60

そのうちソフト化するわな
いつまでも100万もするボート使ってらんない


0091 名無しさん 2024/02/28(水) 21:33:28.03 ID:UbgbAeMU0

何言ってるかよく分かんないんだけど


0092 名無しさん 2024/02/28(水) 21:33:37.01 ID:XmPIk/g70

お前らMS株全力でいけ
まだ400ドルくらいだからお得だしこれからも上がる
AIへの投資もしてて隙がない


0093 名無しさん 2024/02/28(水) 21:34:14.41 ID:iSdlRGuJ0

量子化捨ててるなら
1bit違うパラメータで全然違う答え出そう


0097 名無しさん 2024/02/28(水) 21:35:38.07 ID:syI6IZzt0

VRAMをモリモリ消費する現状も改善するのか?
8GBしかないから辛いぞ


0098 名無しさん 2024/02/28(水) 21:35:42.16 ID:fnwjZH1+d

お前ら気付けよ

中国支社が発表だぞ

中国…


0102 名無しさん 2024/02/28(水) 21:36:13.55 ID:iSdlRGuJ0


>>98
んでビバも中華人やんけ


0105 名無しさん 2024/02/28(水) 21:36:53.21 ID:WJ5+IRSr0


>>98
中国MSのAI部門はめっちゃ凄いぞ


0136 名無しさん 2024/02/28(水) 21:46:31.47 ID:DbGZ6DZY0


>>98
半導体の微細化以外の先端技術は全部中国がトップになってしまったよ
いつの間にか


0162 名無しさん 2024/02/28(水) 21:56:11.69 ID:S0s2GjOw0


>>98
半導体なんて全部中国人だろ
アメリカ企業だろうが中身は中国人


0219 名無しさん 2024/02/28(水) 22:28:09.26 ID:pvC0PFVT0


>>98
お前もゼロと1だけで出来てそうだな


0099 名無しさん 2024/02/28(水) 21:35:44.73 ID:/XZtmRfC0

みんなでAMD買って大富豪にならんか?


0100 名無しさん 2024/02/28(水) 21:35:57.72 ID:VWx3RJxn0

結局GAFAMの間で資金が回り続けるんじゃん


0103 名無しさん 2024/02/28(水) 21:36:36.53 ID:aAf4ghJ20

やっとグラボ安くなるん?w


0106 名無しさん 2024/02/28(水) 21:37:11.35 ID:YHNdojGx0

元々データセンター向けにAIに特化したNPUを作ってたんだからますますNvidiaが強くなるに決まってるだろ


0113 名無しさん 2024/02/28(水) 21:39:55.56 ID:q73vLYO/0


>>106
まぁせやな
これ使うと理論値で9倍速くなるらしいけど
GPUは並列処理に特化してる演算性能があるわけで
最先端プロセスのGPUでこのソフト使う流れになるだけだわな


0107 名無しさん 2024/02/28(水) 21:37:37.68 ID:qjdAtkeh0

中国が一気に復活やん
わざわざ制裁されてるグラボを買う必要なくなり既存のCPU大量のせでAIに行かせるww


0111 名無しさん 2024/02/28(水) 21:38:45.47 ID:weJ0pdd/r

NVIDIAは以前高値で掴んで滅茶苦茶下がったから怖かった
今回やっとブラスになった


0114 名無しさん 2024/02/28(水) 21:40:06.85 ID:iSdlRGuJ0

結局
CPU+GPU演算にいきつきそうなんだがw


0127 名無しさん 2024/02/28(水) 21:44:49.32 ID:zcnSYerV0


>>114
なんでGPUかってとグラフィックスは積和の行列ばっかりだからだ
だからCUDAコアは積和の演算器でそれをクラスタ化したのがGPUだ
1.58bは行列を加算だけに平たくできるから
従来で言うGPUはいらないしむしろ邪魔だよ


0115 名無しさん 2024/02/28(水) 21:40:21.37 ID:s6hBa30VH

さっそくメタの株買ったわ
上がるかな?


0118 名無しさん 2024/02/28(水) 21:42:07.51 ID:o8ufUzIh0

本物?


0120 名無しさん 2024/02/28(水) 21:42:26.33 ID:27t8J5rI0

MS株に乗り換えるわ
NVIDIA靴磨きじゃあな


0121 名無しさん 2024/02/28(水) 21:42:54.58 ID:MRP8tmWy0

アムドに対抗してアルテラ買収して金なくなってンビディア買う金ねンだわってなったのがインテル


0122 名無しさん 2024/02/28(水) 21:43:13.93 ID:ky9DsKfe0

それも並列化してGPU使ったほうが速いんだろ?


0123 名無しさん 2024/02/28(水) 21:43:28.81 ID:GZHrjifN0

NPUは別なの?
あれはCPUの付属品?


0124 名無しさん 2024/02/28(水) 21:44:08.26 ID:fb5UcWWV0

つまりintelとAMDがやっぱりトップになるのか


0126 名無しさん 2024/02/28(水) 21:44:35.80 ID:gZn6lptv0

全米株かオルカン買っておけばこういうとき狼狽えなくていいんだろ?


0128 名無しさん 2024/02/28(水) 21:45:03.96 ID:wT0BDFxD0

靴もうピッカピカやん……


0130 名無しさん 2024/02/28(水) 21:45:09.73 ID:0crEAX1n0

これ用の専用のハードを作ったら更に速くなるって言っている人がいるな面白い


0132 名無しさん 2024/02/28(水) 21:45:41.70 ID:qR+aVY0W0

マジで技術革新じゃん


0133 名無しさん 2024/02/28(水) 21:45:57.75 ID:yLTdEoOcd

マイクロソフト以外にどこの株を買えば良いんだ?


0134 名無しさん 2024/02/28(水) 21:46:04.00 ID:Vvr8E5fY0

NNの2値化/3値化なんてBinaryNetとか何年も前から研究されとんねん
それでも結局エッジの推論でしか使えないつってんだからNvidiaの優位は揺るがん


0137 名無しさん 2024/02/28(水) 21:46:45.00 ID:Zaw+j0jq0

AMDがグズグズ言ってきてるのも効いてるのか


0139 名無しさん 2024/02/28(水) 21:47:04.19 ID:qjdAtkeh0

中国の勝ち組が決定したか
マイクロソフトの中国部門は半分国営企業なので当然中国政府がすべて研究成果いただくことになるからな


0142 名無しさん 2024/02/28(水) 21:47:53.67 ID:q73vLYO/0

CUDAプログラミングの独占は崩れそうだから
AMDもワンチャンある感じはするな
今AMD株買える奴だけが億り人になれる
・・・・かもしれん


0146 名無しさん 2024/02/28(水) 21:49:23.51 ID:MRP8tmWy0


>>142
独占してるから儲かるんであって、技術的に追いついても儲からねンだわ


0143 名無しさん 2024/02/28(水) 21:49:17.25 ID:B7foGuaD0

重要なのはコスパとか性能なわけで
単純にこっちのほうが性能が上なら
GPU使うAIは誰も使う理由がなくなる


0144 名無しさん 2024/02/28(水) 21:49:20.23 ID:62l6X4HDd

どんどん技術進化してるけど
一切ついていけてないわ


0149 名無しさん 2024/02/28(水) 21:50:16.42 ID:syI6IZzt0


>>144
寝て起きたら進化してるから最高すぎる


0145 名無しさん 2024/02/28(水) 21:49:22.42 ID:mLAuHMEI0

一つ一つのNNのノードの精度をもたせるよりも
ノードの数自体を増やすほうが有利ってことかいなぁ


0147 名無しさん 2024/02/28(水) 21:49:27.37 ID:7/mZdEkJ0

AIの行列演算てfloatでも64bitや32bitではなく16bit(16FP)だと思ってたわ
8bit整数でやってる所もあるが、4bitで良くね?って話はあったにしろ1bitはさすがにどうなの…


0154 名無しさん 2024/02/28(水) 21:53:15.96 ID:MRP8tmWy0


>>147
量子化はそんな数いらないんだわ実は


0148 名無しさん 2024/02/28(水) 21:50:00.51 ID:J/hRLBLn0

そもそもGPUはAI用ではないたまたまAIに応用できただけ
純粋にAI用に再構築された理論に基づいて
もっと単純化したハードウェアが覇権を取るという予言だ


0150 名無しさん 2024/02/28(水) 21:50:20.54 ID:l78BDUhs0

アチアチの半導体になりそう
南極の氷に埋めないと使い物にならない


0159 名無しさん 2024/02/28(水) 21:55:32.88 ID:nP6K9bqC0


>>150
むしろめちゃ冷え冷えになるんちゃうの
無茶苦茶シンプルで面積利用効率の高いハードウェアが出来そう

やれデータセンターの電力消費だの冷却水消費だの二酸化炭素排出量だのでギャーギャー言われてたのがだいぶ解決しそうに思う


0151 名無しさん 2024/02/28(水) 21:51:10.04 ID:pxsiJenN0

NVIDIAを超えるというよりもCUDA依存を減らしたいんじゃないの


0152 名無しさん 2024/02/28(水) 21:51:49.14 ID:x/M5Drw00

メモリセントリックとかデータセントリックになるのかな?
ノイマン型コンピュータから卒業もあるだろこれ


0174 名無しさん 2024/02/28(水) 22:01:05.87 ID:DbGZ6DZY0


>>152
HPが研究してたイマイチぱっとしない謎コンピュータが脚光浴びたりしてな
HP、世界初のメモリドリブン型コンピュータの実証実験に成功
~メインメモリとストレージが融合する新アーキテクチャ
https://pc.watch.impress.co.jp/docs/news/1032912.html


0153 名無しさん 2024/02/28(水) 21:52:31.60 ID:7/mZdEkJ0

まあ現行のGPUでは1bitの行列をアクセラレートできない(1bit行列を想定した演算器を持っていない)としても
じゃあ今後作って載せればいいじゃんて話で、NVもビハインドは一切ないんだよな…

NVオワタにしたい奴らには不都合な話かもしれんが


0165 名無しさん 2024/02/28(水) 21:56:59.56 ID:zcnSYerV0


>>153
そうなるとGPUではもはやないが
グラフィックスには使えないからな


0155 名無しさん 2024/02/28(水) 21:53:52.92 ID:/0P2mQJc0

1ビット脳の勝利


0156 名無しさん 2024/02/28(水) 21:54:29.92 ID:MAa04AIc0

メモリだけで演算するシステムになるなこれ


0157 名無しさん 2024/02/28(水) 21:54:29.99 ID:WC3F8EH+M

MSFTプレマよわよわなんやが
ホルダーぼく幸せになれるんかこれ🥺


0158 名無しさん 2024/02/28(水) 21:54:33.54 ID:Lwoljwuq0

グラボ値下げに繋がるなら嬉しい


0160 名無しさん 2024/02/28(水) 21:55:50.33 ID:U1UNo/eM0

ぶっちゃけ単純に1ビットを
32ビットの領域に割り振ってそのまま浮動小数点の積で計算して
最後に結果を1ビットずつ取り出して元に戻す
とかのハードウェアレベルでの高速化普通に出来そうだし…

これ本当にNVIDIAの牙城崩せるって話なん?


0161 名無しさん 2024/02/28(水) 21:55:52.17 ID:zAwV9m9e0

こういうスレが立つっていうことはあと一年はnvidia相場続くんだな


0168 名無しさん 2024/02/28(水) 21:58:14.35 ID:nP6K9bqC0


>>161
素晴らしい洞察
MSがこないだやっと市場投入にこぎ着けたAI専用半導体もほぼ1年かかってるはずだしね


0163 名無しさん 2024/02/28(水) 21:56:34.00 ID:J/hRLBLn0

NVIDIAの優位性が1度リセットされ
再び横一線でAIプロセッサの競争が始まると


0164 名無しさん 2024/02/28(水) 21:56:40.26 ID:IHGkRlAZ0

こうやってハイテクが進歩していく遅れをとったほうも巻き返そうとするだろ?
ハイテク株全体にとってはいい傾向
ハイテクが上がらないと株なんかもう上がらないぞw
新興国の政治体制や教育が変化すれば別だが、先進国で一人勝ちしてきたアマゾンは途上国でやっていけると歩もう?パレスチナで商売できますか?w
平和な社会すらないのにビジネスどころじゃないですw大丈夫だと思って中国に投資したら後悔する羽目になるしw


0166 名無しさん 2024/02/28(水) 21:57:03.04 ID:LN4Kj5iD0

Nvidia気配下がってるけどmsも少し下がってるじゃん


0167 名無しさん 2024/02/28(水) 21:57:45.24 ID:H32Sa4+U0

Edge AIではONXXとか使ってモデルサイズ下げて使用してる
NvidiaのGPUでトレーニングしてビット数をさらに下げてエッジに乗せるという方法
大規模にやらないとLLMにはならないから大規模にやるんだろうけど専用の推論ハードウェアが今後流行る
ところでこの低ビットのハードだと学習時の誤差伝播とかちゃんとできるんだろうか?(推論専用?)


0169 名無しさん 2024/02/28(水) 21:58:16.94 ID:7/mZdEkJ0

いやアンカー飛ばされてもなに言ってんのか理解できないし、おれの話を理解しているようにも見えない
控えめに言って、俺にアンカー飛ばすなキ○ガイ、という感想にしかならない

8bit整数(0~256、もしくは符号付き-127~127)でも過剰じゃね?行列1ノード4bit(0~15)でも良くね?いや2bit(0~3)でも行けね?って話はあったが、1bitとはなあ…

まさに1bit脳


0173 名無しさん 2024/02/28(水) 22:00:37.72 ID:UsC/4FRC0


>>169
何故1すら読まないのか


0179 名無しさん 2024/02/28(水) 22:04:08.81 ID:wT0BDFxD0


>>169
わからないならソース読んで勉強しようよ……😰


0170 名無しさん 2024/02/28(水) 21:58:23.19 ID:hBntEZRQ0

🥺…?


0171 名無しさん 2024/02/28(水) 21:58:39.02 ID:q73vLYO/0

Pythonがこのコードで書かれるようになったら起こしてくれ


0172 名無しさん 2024/02/28(水) 21:58:42.79 ID:zAwV9m9e0

次の決算まではそこまで買われないんかな


0175 名無しさん 2024/02/28(水) 22:01:43.67 ID:iX+gTemUd

エヌヴィディアwwwwwwwww


0176 名無しさん 2024/02/28(水) 22:03:03.04 ID:BFAI+HMv0

例えばINT4の積和演算器があればそれが流用はできるんだけれども
加算器だけで組んだチップは速度が平気でその100倍とか行く

AIの学習には相変わらずGPUが必要だが
今みたいに客に使わせるためにガバガバGPU買ってる時代は終わるかもしれない


0177 名無しさん 2024/02/28(水) 22:03:14.56 ID:Snbs95st0

vramだけ別売りしてくれないかな


0180 名無しさん 2024/02/28(水) 22:04:55.19 ID:fFj69eYP0

QQQ2000万民ワイ高みの見物


0184 名無しさん 2024/02/28(水) 22:06:48.93 ID:UsC/4FRC0


>>180
低みだろ


0182 名無しさん 2024/02/28(水) 22:06:18.56 ID:pQvZ7nkF0

めっちゃ集積回路の簡素化低電力出来そう

グラボなんていらんかったw


0186 名無しさん 2024/02/28(水) 22:07:40.81 ID:H32Sa4+U0

画像分類では1bitはめっちゃ論文あったよ


0201 名無しさん 2024/02/28(水) 22:13:59.72 ID:FGCZ3ErV0


>>186
そういや画像検索するときはまず32×32のグレースケールにするとかよく見るね
知らんけど


0187 名無しさん 2024/02/28(水) 22:08:09.57 ID:7/mZdEkJ0

単体の演算ロジックを単純化できることでむしろ逆になにも考えず実装すると演算密度が上がってしまい、集積化が困難になる未来すら見える


0188 名無しさん 2024/02/28(水) 22:08:33.91 ID:WxlNwOPf0

80株保有のワイ高見の見物


0190 名無しさん 2024/02/28(水) 22:09:06.05 ID:ey/I3Nx20

これならモバイルでもLLM動かせるかもな
この差はでかいよ
確実にパラダイムは変わるね


0195 名無しさん 2024/02/28(水) 22:11:08.58 ID:lKYQUH2z0

消費電力も激減しそうやん。
これもしかして仮想通貨マイニングの計算にも使えるんかな?


0197 名無しさん 2024/02/28(水) 22:11:56.78 ID:wT0BDFxD0

ところでソースなに言ってるかわかんねえんだけどなんで計算機が困惑するんだよ怖


0198 名無しさん 2024/02/28(水) 22:12:26.85 ID:V/PPLWdT0

何がいいってハイスペックGPUでバク熱になった消費電力がかなり抑えられてエコになることだな


0199 名無しさん 2024/02/28(水) 22:13:02.26 ID:J/hRLBLn0

新たな理論に最適化した設計競争の中で
まったく無名の会社が台頭してくる可能性


0200 名無しさん 2024/02/28(水) 22:13:43.65 ID:7/mZdEkJ0

現状で行列演算向けのバスと演算器の塊を実用化できているのはグラフィック処理用のプロセッサで、
グラフィック処理専用でなくても汎用の行列演算クラスタとしても結局性能を出せる製品はこれくらいしかないので
FP16やめて整数にします、整数でも多値やめて1bitマトリクスに特化しますでも、結局行列演算クラスタとして満足な規模と性能のものを作って売れる所はNVIDIAくらいしか無い

計算機だけあってもライブラリ整備がまるでダメで、数世代で互換性すら保証できなくなります…なんてのは、競合製品ですらないし


0205 名無しさん 2024/02/28(水) 22:17:37.07 ID:q73vLYO/0


>>200
Cライク系の強さやな
結局CUDAにコンパイルするのがさいつよだから
NIVIDIAが至高でした


0215 名無しさん 2024/02/28(水) 22:21:51.84 ID:pQvZ7nkF0


>>200
メーカーのハードルは下がるし

低電力化やGPUの奪い合いみたいのは

解消されるんじゃね?


0202 名無しさん 2024/02/28(水) 22:15:32.36 ID:SoYz/lhj0

インテルのときもンビディア倒す方法みたいな記事あったけど
結局ダメだったじゃん
もういい加減にしてくれ憶測記事は


0203 名無しさん 2024/02/28(水) 22:16:32.99 ID:dgf5fTQvH

マイクラの回路でAI実装するやつが出そう


0204 名無しさん 2024/02/28(水) 22:17:04.99 ID:uZRVhUIu0

結局ETFや投資信託を買うのが間違いないという


新着記事一覧
TKをフォローする
プログラミング速報

コメント