「CUDA」を含む日記 RSS

はてなキーワード: CUDAとは

2025-03-04

anond:20250304173546

Vulkan is getting really close! Now let's ditch CUDA and godforsaken ROCm!

cuda不要時代来る?

Vulkanの開発進んで、LLM動かす時、cudaの9割と同等の性能出せるようになったらしい

2025-03-01

anond:20250301002942

python覚えても10年後にはcuda環境まるごとオワコンになるかもという不安から逃れることはできない

2025-02-23

Sakana AIでX検索すると未だにCUDAを100倍スピードアップ!というポストがヒットする

DeepResearch系AI情報信頼性を外部情報から重みづけしない印象

基本的懐疑的に見ない

2025-02-16

AI PC とか AI スマホって優良誤認じゃね?

そりゃ深層学習計算を一部CPUにたよらず計算できる機能ちょっとついてるかもしれないよ。

でもそれが動く瞬間っていつさ?いったいどのアプリがそんな機能実際に使ってるのさ?

スマホならまだ写真撮影後とかに動くかもしれんけど特にPCの方な。

本当にCopilotがローカル演算機つかってんのかー?ちゃんと確かめたかー?

現状だとサーバにお願いだけして結果受け取ってるだけなんじゃねえの。

サーバ側の進歩が落ち着くまでプログラムが変わり続けててローカルの側で計算するところまでできてなくね?

AIPCお金払うぐらいならゲーミングノート買ってCUDA動くようにした方が良いし、それよりもPC買い替えないでそのお金ChatGPTとかに払った方が幸せになれるんじゃね?

2025-02-12

anond:20250210161058

中国で人気の」とこちらが指定してるけどね。

1.58bit版はかろうじて動いてる感じだね。GPUメモリしか使ってない。GPU使用率が上がらないのはCPUSSDボトルネックなのかllama-cppやCUDAカーネル最適化不足の可能性がありそう。

色々調整してやっと 0.6tok/sec程度だから使い物にならない。上記問題解決したら1.58bit版でも普通ゲームPCで5tok/secぐらいは出そう。

32B版はサクサク動作(25tok/sec程度)するけど常用したいと思えるような知能ではない。コーディングも任せられない感じ。ざっくりと使うなら問題ない感じだし、違法な事でも何でも答えるので面白いのは面白い

2025-02-06

NvidiaGeforceが高いからってRadeon勧めるのはリスク高すぎない?

なんかRTX50代が発売する前から謎にRadeon勧める勢力が多くて辟易してるんだよね。

Radeon信者の主張は

ハイエンド同士を比べたらRadeonの方が安いのでコスパが高い(RTX4090 vs 7900XTX)

・同じVRAM同士を比べたらRadeonの方が圧倒的に安い

・ベンチも同価格帯と比べたらRadeonのほうが安くて性能が良い

AI用途でもRadeon全然いけるからAIするやつもVRAM多い奴買え!

って感じ

んで主観ではあるが自身の両社のなんとなくの印象を書いておくね

 

Nvidia(Geforce)

基本的PCゲーム側の最適化Geforceが主になっている

・RTX40シリーズ比較的電力効率がいい(いわゆるワッパ)

レイトレーシングもDLSSも安定

CUDAのおかげでGPU演算要素として使うコストが低く、AI等の対応が早いし情報が早い

ドライバ側でたまに変なバグ出すので安定版で止める必要がある

 

AMD(Radeon)

RadeonハイエンドGeforceドルくらいの性能。つまりRadeonのグレードはGeforceのグレード1段落ちくらいの性能

・同じグレードを同じ価格帯で出すと絶対売れないので安くせざるを得ないので安さはある

レイトレーシングやDLSS等は搭載していないと思った方がいい。fsrはそこそこあり。

ドライバ側の対応が壊滅的で最適化不足やゲーム相性で微妙になること多々あり

自分ゲームの最適設定をドライバから弄る必要がある

CUDAみたいなのがないのでAI対応が遅れている。Geforceより険しい道のり。完成すればGeforceより高い性能っぽいが眉唾

 

なのでコスパ高いって金ない知識ない学生を煽ってRadeon買わせるよりかはGeforce買わせた方がよいよってことで

Radeon信者は買い煽りはするけどサポート絶対してくれないもんね

2025-01-28

anond:20250128103218

NVIDIA推しているレイヤCUDA)より下の言語(PTX)で最適化したらしいので、恥も外聞も捨てて「いやーすみません今までのCUDAはクソでした!新しくしときましたよ!」とか言って売り込めばいい気がする

結局NVIDIAハードウェアには依存することになるので

2025-01-14

anond:20250114161049

AMDintelが頑張ろうとしてるが、そのすきにNvidiaappleに対抗するため、digits(主にAI用途を想定)とかいmac studioみたいなやつを安めの値段で出そうとしてる。Nvidia製ということでcuda使えるからめっちゃ期待されてる。

2025-01-13

anond:20250113092502

真のIT教育は、低リソースで最大限のことをやる

まずはアルゴリズム教育、それを中古PCレベルリソースでやる

まさかCUDAを駆使したプログラミング教育を小中高でやることもないだろう

ゲームをやるぐらいなら、そのハードを駆使したプログラミングを学ぶべきである

2025-01-08

anond:20250108195821

FHDあればプレイに支障ないよね。

タルコフは、グラボよりCPU3Dキャッシュ?の方が大事と聞いた。Ryzen3D付きがないと話にならんらしい。AI勢とVRC勢は、金なら出すからVRAMとCudaコアをケチんなもっと積めってキレてる。

Xだとみんな喜んでる、RTX50シリーズは本当にそんなにいいものなのか…?

2024-09-10

anond:20240910143816

ゆうてSwitchの主要部品アメリカ企業製造から

ドルベースなんだろう

SoC: Nvidia Tegra X1

CPU: ARM 4 Cortex-A57 cores 1.02 GHz

Memory: Micron 4 4 GB 1,331/1,600 MHz

Storage ?

Graphics NVIDIA Maxwell-based CUDA cores

2024-06-27

anond:20240626103929

機械学習出身者は恐ろしいよ

あいつら数百GBモデルファイルを平気な顔して配布物にぶち込むし

CUDA SDKを丸ごと配布物にぶち込む馬鹿もいた

Python以外触らせたら何しでかすかわからん

2024-03-22

anond:20240321185747

ハードウェアソフトウェアの合わせ技だよ

HPC用途のためにCUDAを早い段階で整備していて、

PyTorchやTensorFlowからの利用で2010年代中盤からCNN需要一人勝ち

ニューラルネットワーク学習GPUは切っても切り離せない関係になった

その時点で勝負あり

2024-03-04

CUDAは、AI向けでエコシステムというほど資産あるのか?

ゲームゲームエンジンがあるからわかる。

DirectXなどとも密接だろう。

AIはどうなのか?

まだアーキテクチャコロコロ変わっている印象があるのだが。

2024-02-23

NVIDIAAIの小史

未だに「謎の半導体メーカー」程度の認識の方になぜNVIDIA時価総額世界4位なのかをあれこれ説明する必要があるので短めにメモ半導体業界すみっこ人間なので機械学習まわりの説明適当です

・~1993年 AI冬の時代エージェントシステムがさほど成果を挙げられなかったり。まだ半導体メモリの性能は現代とくらべてはるかに劣り、現代のような大規模データを用いた統計的処理など考えられなかった。2006年ディープラーニング発明まで実質的な停滞は続く。

1993年 NVIDIA設立

1995年 NVIDIA最初グラフィックアクセラレータ製品NV1を発売。

1999年 NVIDIAGeForce 256発売。GPUという名が初めて使われる。以降、NVIDIAGPU業界1位の座を守り続ける。

2006年 GPGPU向け開発基盤CUDAを発表。以降、その並列計算に特化した性能を大規模コンピューティング活用しようという動きが続く。

2006年 ディープラーニング発明。のちのビッグデータブームに乗り、これまでよりはるかに高性能なAI模索する動きが始まる(第3次AIブームのおこり)

2006年 CPU業界2位のAMDGPU業界2位のATIを買収、チップセットGPU統合することで事実上自社製品NVIDIAと切り離す戦略に出る。CPU業界1位のインテルも、同じく自社CPUに自社製GPU統合する動きを強める。NVIDIAはこれまでの主力だったGPUチップセット製品販売を終了し、データセンター向けGPGPUのTeslaシリーズゲーム用外付けGPUGeForceシリーズARMCPUと自社GPU統合したTegraシリーズの3製品に整理する。このうちTeslaシリーズが性能向上やマイクロアーキテクチャ変更を経て現代AIサーバ製品に直接つながる。GeForceシリーズゲーマー向け需要暗号通貨マイニング向け需要も取り込み成長。Tegraシリーズは後継品がNintendoSwitchに採用される。

2012年 ディープラーニング画像認識コンテストで圧倒的な成績を収め、実質的な第3次AIブームが始まる。

2015年 AlphaGoイ・セドル勝利

2016年 NVIDIA自動運転向けシステムを発表。

2017年 Transformerモデル発表。これまでのNN・DLと異なり並列化で性能を上げるのが容易=デカ計算機を使えばAIの性能が上がる時代突入

2018年 IBMNVIDIAと開発した「Summit」がスパコン世界ランキング1位の座を5年ぶりに中国から奪還。全計算のうち96%がGPUによって処理され、HPCハイパフォーマンスコンピューティング)におけるGPU地位は決定的になる。NVIDIAの開発したCPU-GPU間の高速リンク「NVLink」が大規模に活用される。「Summit」は2020年に「富岳」にトップを奪われるまで1位を維持。

・2018~2021年 BERTやXLNet、GPT2など大規模言語モデルの幕開け。まだ研究者が使うレベル

2019年 NVIDIA CEOジェスン・ファン(革ジャンおぢ)が「ムーアの法則は終わった」と見解を表明。半導体シングルスレッド性能の向上は限界に達し、チップレットを始めとした並列化・集積化アーキテクチャ勝負時代に入る。

2022年 NVIDIAがH100発表。Transformerモデル学習・推論機能を大幅に強化したサーバ向けGPUで、もはや単体でもスパコンと呼べる性能を発揮する。H100はコアチップGH100をTSMC N4プロセス製造SK HynixHBMとともにTSMC CoWoSパッケージング技術で集積したパッケージ。※N4プロセスは最新のiPhone向けSoC採用されたN3プロセスの1つ前の世代だが、サーバ/デスクトップ製品向けプロセスモバイル製品向けプロセスクロック電流量が異なり、HPC向けはN4が最新と言ってよい。

2022年 画像生成AIブーム。DALL-E2、Midjourney、Stable Diffusionなどが相次いで発表。

2022年 ChatGPT発表。アクティブユーザ1億人達成に2カ月は史上最速。

2023年 ChatGPT有料版公開。Microsoft Copilot、Google Bard(Gemini)など商用化への動きが相次ぐ。各企業NVIDIA H100の大量調達に動く。

2024年 NVIDIA時価総額世界4位に到達。半導体メーカー売上ランキング世界1位達成(予定)。

こうして見るとNVIDIAにとっての転換点は「ディープラーニング発明」「GPGPU向けプログラミング環境CUDAの発表」「チップセット販売からコンピューティングユニット販売に転換」という3つが同時に起こった2006年であると言えそう。以降、NVIDIAゲーマー向け製品モバイル向け製品販売する裏で、CUDAによってGPGPUの独占を続け、仮装通貨マイニングスパコンでの活躍と言ったホップステップを経て今回の大きな飛躍を成し遂げた、と綺麗にまとめられるだろう。

2024-02-19

タスクマネージャーGPU箇所、CUDAに切り替え出来ること、パソコン詳しい人でも知らない

3Dとか、Copyとかになっている箇所をクリックすると、メニューが出てきてCUDA選択出来る。

2023-08-02

詐欺AI開発者を見破る方法

または「私はWeb3を直接書いてます」というタイプ場合


実行環境について聞く。


さいごに

2023-07-21

anond:20230721192652

CUDAGPGPU流行り始めたころにNVDAを買ったワイを褒めて欲しい

それは普通にすごい。

信じてガチホすることが本当に難しいんだよな。

俺も上に書いた通りで今から量子コンピュータ銘柄10ガチホできるかっていったらかなり難しいもん。(今はちょっと持ってる)

持たない方がいい理屈無限に作れるんだよな。

anond:20230720203225

CUDAGPGPU流行り始めたころにNVDAを買ったワイを褒めて欲しい

2023-07-13

anond:20230710101330

フツーに3でしょ。Cuda かけるやつはPythonなんてすぐできるだろうけど、逆はない。

2023-07-10

機械学習NVIDIA一強になってしまっているのは何故?

仮説1) ハード性能として、演算器とメモリ間のデータのやり取りの隠蔽が上手く、性能が出ている

単体の演算器の性能なんてクロック周波数が速くなっている現代だと数クロックの差なんてわからないだろう。

メモリーは社外の汎用品GDDRを使う以上、帯域やレイテンシは変わらない。

違いが出てくるとすると、どうやってメモリ間を隠蔽しているかというのが想像出来る。

データ待っている期間を出来るだけ少なくする、といった感じだ。


仮説2) ハード性能として、多数の演算器を動かしても問題ないように電源を工夫している

演算器を並列に多数動かすと配線抵抗などで電源がドロップする。

電源配線のノウハウNVIDIAが持っていて一日の長がある


仮説3) ソフトとして、CUDA、PyTorch のチューニングが出来ている。ドライバの出来がいい。

チューニングで性能上がっているのなら何処がボトルネックになりそうな所をあげているのか。

PyTorchだけで見ると、コード量は少ないので、移植しようと思えば出来るように見える。

ログイン ユーザー登録
ようこそ ゲスト さん