Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 184件

新着順 人気順

cudaの検索結果1 - 40 件 / 184件

cudaに関するエントリは184件あります。 GPUAINVIDIA などが関連タグです。 人気エントリには 『Mac やめて Linux PC を自作した - IT戦記』などがあります。
  • Mac やめて Linux PC を自作した - IT戦記

    みなさまお元気ですか 暑さも少し落ち着いてきて、ようやく外に出てもいいかなという気になってきました。季節の変わり目体調には気をつけていきたいですね。 実は、一ヶ月くらい前に Linux PC を自作して Mac から移行しました。そのときの考え、その後の感想を残しておきます。 また、学んだことや作業のログを細かく残しておきたいと思います。(どこかの誰かが不安に思ったときに同じ失敗や疑問を経験した人がいて安心してもらえたら嬉しい) Ubuntu のインストール画面 (ベストオープンソースと開発しよう!) 目次 Mac をやめるきっかけ、経緯 Ubuntu に移行して一ヶ月の感想 おまけ1: どのような PC になったか おまけ2: 事前に学んだこと おまけ3: PC の組み立て おまけ4: Ubuntu のセットアップ 加筆/修正 指摘のあった誤字を修正 NVEnc について誤った内容があっ

      Mac やめて Linux PC を自作した - IT戦記
    • CPUとGPUのマルチスレッディングの違いについて - arutema47's blog

      "Locality is efficiency, Efficiency is power, Power is performance, Performance is King", Bill Dally マルチスレッディングとは? CPUとGPUのマルチスレッディングの違いをブログにまとめていたけど例によって誰も興味なさそう— arutema47 (@arutema47) 2021年8月16日 つぶやいたら読みたい方が多そうだったので完成させました。 マルチスレッディングとはメモリ遅延を隠蔽しスループットを上げるハードウェアのテクニックです。 ただCPUとGPUで使われ方がかなり異なるため、その違いについて考えてみる記事です。 (SIMDについて並列プログラミングの観点から触れるべきでしたが、時間無いマルチスレッディングに注目するため初版では省きました。) 本記事について 本記事はCPUとG

        CPUとGPUのマルチスレッディングの違いについて - arutema47's blog
      • ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能

        OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開していないためChatGPTを効果的に複製することは難しくなっています。AIのディープラーニングトレーニングを最適化するオープンソースプラットフォームのColossal-AIが、ChatGPTトレーニングプロセスをわずか1.6ギガバイトのGPUメモリで7.73倍高速なトレーニングに再現したと告知し、オープンソースで公開しています。 Open-source replication of ChatGPT implementation process!

          ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能
        • NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能

          大手半導体メーカーでありAI研究にも力を入れているNVIDIAが、新たな画像生成AIである「eDiffi」を発表しました。NVIDIAはeDiffiについて、世界中で話題となっている「Stable Diffusion」やOpenAIの「DALL・E2」といった従来の画像生成AIより入力テキストに忠実な画像を生成できると主張しています。 [2211.01324] eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert Denoisers https://arxiv.org/abs/2211.01324 eDiff-I: Text-to-Image Diffusion Models with Ensemble of Expert Denoisers https://deepimagination.cc/eDiffi/

            NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能
          • Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応

              Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応
            • 自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!【イニシャルB】

                自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!【イニシャルB】
              • NVIDIAが日本語対応の対話型AI「Jarvis」を提供開始 基調講演でリアルタイム日本語翻訳のデモも公開「反応は瞬きするより速い」 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                NVIDIAが開発している対話型AIシステムが「Jarvis」(ジャービス)だ。以前から開発についてはアナウンスされていたが、ついに正式にリリースされた。しかも日本語対応で。 「GTC 2021」のオンライン基調講演でNVIDIAのCEO、ジェンスン フアン氏(Jensen Huang)がこのニュースを紹介するとともに、聞き取り、発話、翻訳などのデモを行った。「Jarvis」はHuang氏が話した言葉を瞬時にテキスト化し、更にはHuang氏が話した英語を日本語にリアルタイム翻訳して見せた。 対話型AIフレームワーク「NVIDIA Jarvis」 NVIDIAは現地時間の4月12日、「NVIDIA Jarvis フレームワーク」の提供を開始したことを発表した。これは最先端のAIトレーニング済みディープラーニング モデルとソフトウェア ツールを活用して、さまざまな業界と分野向けに、対話型AIサ

                  NVIDIAが日本語対応の対話型AI「Jarvis」を提供開始 基調講演でリアルタイム日本語翻訳のデモも公開「反応は瞬きするより速い」 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                • 6年ぶりに最大の素数が見つかる。NVIDIA元社員が発見

                    6年ぶりに最大の素数が見つかる。NVIDIA元社員が発見
                  • 【やじうまPC Watch】 「仮想通貨は社会の何の役にも立たない」NVIDIAのCTOが発言

                      【やじうまPC Watch】 「仮想通貨は社会の何の役にも立たない」NVIDIAのCTOが発言
                    • 女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"

                      M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7

                        女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"
                      • DeepSeek R1をほぼ準備なしからローカルGPUで動かす|しぴちゃん

                        しぴぴぴ! Vtuberのしぴちゃん (https://www.youtube.com/@CP-chan)です。普段はゲーム配信しかしてませんが、たまにAIについて発信することがあります。今日はAIの記事の方。 現在はローカルAIモデルに関する連載をしています。 第一弾 本記事(DeepSeek R1をほぼ準備なしからローカルGPUで動かす) 第二弾 Cline+ローカル版DeepSeek R1でAIコーディングを使い放題にする(高スペックマシン向け) 最近話題のローカルで動くLLM、DeepSeek R1 をローカルGPU環境(NVIDIA)で動かしてみましょう。 多少のコマンドラインの操作ができれば、事前にローカルLLMを触ったことがなくてもインストールできるように書くつもりです。 サムネはDeepSeek R1くんに画像を生成してもらおうとしたところです(そんな機能はありません)。

                          DeepSeek R1をほぼ準備なしからローカルGPUで動かす|しぴちゃん
                        • 【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境

                          はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール

                            【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境
                          • DirectX ❤ Linux - DirectX Developer Blog

                            DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

                              DirectX ❤ Linux - DirectX Developer Blog
                            • 【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?

                                【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?
                              • Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載

                                Nintendo Switch 2についてはGamescom2023にて関係者内でデモ機が披露され、そこでUnreal Engine 5などが動作しているデモが行われたという噂が出るなど、発売に向けて着々と開発が進められているためかここ最近はリーク情報が多く出始めています。 今回はこの中でも今まで明らかにされていたAmpereアーキテクチャーのGPUを搭載すると言う情報に加えて、このGPUに内蔵されるCUDAコア数やCPUのアーキテクチャーとコア数、そして製造プロセスに関する情報が登場しました。 Samsung Foundry 7LPH(8-nanometer improved version) — Revegnus (@Tech_Reve) September 16, 2023 まず、Nintendo Switch 2のGPUとCPUを内蔵したSoCを作るメーカーですが、これはGPUのベ

                                  Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載
                                • 【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」

                                    【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」
                                  • いまどきのVulkan

                                    3DグラフィクスAPI Vulkanの基本と最近のVulkanで使えるようになった機能について解説します これは2021年11月20日に行われた カーネル/VM探検隊 online part4での発表資料です 動画: https://youtu.be/CIfezfwbA3g ソースコード: h…

                                      いまどきのVulkan
                                    • 世界一安いGPUを求めて2024冬 - Qiita

                                      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 結論 スポットで使うならColab、Runpodが最強 ゲーミングPCでいいならどこかで買うかBREAJONでサブスクしよう だいたいRunpodさんがなんとかしてくれる 今回の記事について こんにちは!逆瀬川 ( https://x.com/gyakuse ) です!今日は最強のGPUプロバイダー決定戦をします。世は大GPU時代となりました。Valorantをやるにも、APEXをやるにも、ある程度高性能なGPUが必要です。League of Legends はノートパソコンでも遊べるのでおすすめです。 その他の利用として機械学習のモデ

                                        世界一安いGPUを求めて2024冬 - Qiita
                                      • DockerでのディープラーニングGPU学習環境構築方法 - Qiita

                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? DockerでGPU学習環境構築 背景 ディープラーニングでローカルPCのGPUを使った学習環境を構築した経験のある人は、一度はNVIDIAのドライバやCUDA周りでハマった経験があるのではないでしょうか?そんなバッドノウハウ(怪文章?)をまとめたQiita記事(TensorFlowでGPU学習させるためにCUDA周りではまったときの対処法)に、なんとNVIDIAの中の人(@ksasaki さん)から「Dockerを使えば…人類は幸せになれる(超意訳)」とのコメントをいただきました! 喜び勇んで、NVIDIAのドライバをアップデートした

                                          DockerでのディープラーニングGPU学習環境構築方法 - Qiita
                                        • NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に

                                            NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に
                                          • 国会図書館が古典籍資料からテキスト抽出する軽量OCRツールを公開 ~GPUなしでも動作/「NDL古典籍OCR-Lite」のソースコードとバイナリが「GitHub」で公開

                                              国会図書館が古典籍資料からテキスト抽出する軽量OCRツールを公開 ~GPUなしでも動作/「NDL古典籍OCR-Lite」のソースコードとバイナリが「GitHub」で公開
                                            • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(6)。AI技術の進化にGPGPUがもてはやされる背景

                                                【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(6)。AI技術の進化にGPGPUがもてはやされる背景
                                              • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(5)。DirectX 11から12へ。GPGPU概念の誕生

                                                  【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(5)。DirectX 11から12へ。GPGPU概念の誕生
                                                • CUDA on WSL 2のすすめ - Qiita

                                                  前置き 個人マシンで3090 Tiが使えるようになり、ウキウキでEfficientNetV2を回してみると…共有マシンの3090よりも遅い。 どうやらWindowsではパフォーマンスが出ないというウワサは本当だったらしい。(他の要素も検証しろ! 「Windowsが許されるのは小学生までだよねー」などとイジられながらも頑なにWindowsで粘ってきたが そろそろ潮時だろうかと考えていると、CUDA on WSL 2がnear-nativeなパフォーマンスで動くと聞こえてきた。 結果、WSL 2+Docker環境で学習を回すと、Windowsネイティブ環境と比べて実行時間が16%短縮された。 導入方法 以下のページで丁寧に解説されています。 補足: CUDAをDockerから使う場合は「3. CUDA Support for WSL 2」の手順は不要です。 罠1 systemctlが使えないと

                                                    CUDA on WSL 2のすすめ - Qiita
                                                  • 待ってました CUDA on WSL 2 - Qiita

                                                    最新情報 (2022-06-15 時点) エヌビディアの佐々木です。 2020 年 6 月にこの記事を書いて以来、Windows Insider Preview や NVIDIA ドライバの新しいビルドが出たタイミングなどで記事を更新してきましたが、あちこちに注釈が増えて読みづらくなってきたので、今後はこの「最新情報」セクションに新しい情報を集約しようと思います。あと、更新履歴は記事末尾へ送りました。 私が動作を確認したバージョン Windows のビルド: 22621.1 (Windows 11 バージョン 22H2) NVIDIA ドライバ: 512.95 nvidia-smi コマンドの GPU-Util 欄が "N/A" になってしまう問題は解決! 実行した NGC コンテナイメージ nvcr.io/nvidia/tensorflow:22.05-tf2-py3 Docker De

                                                      待ってました CUDA on WSL 2 - Qiita
                                                    • ビデオ会議のノイズをAIがカット! GPUによる配信支援アプリ「NVIDIA Broadcast 1.2」が公開/部屋の反響音やペット・虫の鳴き声、ビデオノイズも除去。ビデオ会議の品質もアップ

                                                        ビデオ会議のノイズをAIがカット! GPUによる配信支援アプリ「NVIDIA Broadcast 1.2」が公開/部屋の反響音やペット・虫の鳴き声、ビデオノイズも除去。ビデオ会議の品質もアップ
                                                      • 大規模モデルを支える分散並列学習のしくみ Part1

                                                        はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 自然言語処理分野における大規模深層学習の重要性は日に日に高まっていますが、GPT-3, GPT-4 などのモデルの学習には膨大な計算コストがかかり、容易に学習できなくなっています。実際、モデルサイズが近年急速に大きくなっていることにより、学習に必要な計算量(FLOPs)は以下のように年々膨大になっています。近年の大規模モデルでは、NVIDIA H100 80GB であっても 1 つの GPU では、モデルをのせることすらできません。 Compute Trends Across Three Eras of Machine Learning より またScaling Laws によると、大規模なモデルは小さいモデルと比較してより優れた性能を発揮するため、自動

                                                          大規模モデルを支える分散並列学習のしくみ Part1
                                                        • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

                                                          AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

                                                            Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
                                                          • AIの力でキレイに ~NVIDIAの超解像ビデオ技術に対応した「VLC media player」が登場/「GeForce RTX 30/40」シリーズでのみ利用可能

                                                              AIの力でキレイに ~NVIDIAの超解像ビデオ技術に対応した「VLC media player」が登場/「GeForce RTX 30/40」シリーズでのみ利用可能
                                                            • “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」

                                                                “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」
                                                              • AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中

                                                                NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera

                                                                  AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
                                                                • AIを“AIで”改善 Sakana AIが新技術「AI CUDA Engineer」発表 目指すは100万倍の効率化

                                                                  AIモデルの開発や利用を“AIによって”効率化する──Sakana AIは2月20日、新たな技術「AI CUDA Engineer」を発表した。AIモデルの開発や利用時にかかる計算処理を10~100倍高速化できるエージェントシステム。同社は「AI技術は必ず100万倍は効率化される」と展望を示しており、この技術はそのための重要なステップだという。 米NVIDIA製のGPUハードウェアには、その並立計算を制御するためのプラットフォーム「CUDA」が用意されている。そこで肝となっているのは、ハードウェアに直接指示を行う「CUDAカーネル」という関数だ。この関数のレベルで、直接命令を記述できれば、AIアルゴリズムのパフォーマンスを向上させることが可能という。 そこで同社は、CUDAカーネルの生成を自動化する技術として、AI CUDA Engineerを開発。最新の大規模言語モデル(LLM)を活用し

                                                                    AIを“AIで”改善 Sakana AIが新技術「AI CUDA Engineer」発表 目指すは100万倍の効率化
                                                                  • PyTorchでの学習・推論を高速化するコツ集 - Qiita

                                                                    本記事では、NVIDIAから発表されているPyTorchでのディープラーニングを高速化するコツ集を紹介します。 【※NEW】22年6月新記事:スクラム関連の研修・資格のまとめ & おすすめの研修受講方法 本記事について 本記事は、NVIDIAのArun Mallyaさんの発表、 「PyTorch Performance Tuning Guide - Szymon Migacz, NVIDIA」 に、説明やプログラムを追加して、解説します。 本記事のポイントは、Andrej KarpathyがTwitterで呟いている通りとなります。 good quick tutorial on optimizing your PyTorch code ⏲️: https://t.co/7CIDWfrI0J quick summary: pic.twitter.com/6J1SJcWJsl — Andrej

                                                                      PyTorchでの学習・推論を高速化するコツ集 - Qiita
                                                                    • NVIDIAがCUDAを他のハードウェア上で実行することを禁止

                                                                      NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi

                                                                        NVIDIAがCUDAを他のハードウェア上で実行することを禁止
                                                                      • DeepSeekがGPUの制限を突破するのに使われたPTX。その制約が突破の原動力になった - 中華IT最新事情

                                                                        DeepSeekはトレーニングコストが従来の1/10。それには冗長計算の8割をカットするという努力が必要だった。米国政府は中国に対してGPUの制限をかけ、それをDeepSeekチームは突破をしたと量子位が報じた。 冗長計算を8割カットしたDeepSeek DeepSeekがなぜ1/10のトレーニングコストでGPTと肩を並べる大規模言語モデル(LLM)を開発できたのか。その答えはひとつではない。その技術詳細を開設した「DeepSeek-V3 Technical Report」(https://arxiv.org/abs/2412.19437)は、最適化技術のカタログのようになっている。開発チームはありとあらゆる最適化を試みて、最終的に冗長計算の80%を削減することに成功したと主張している。 GPUをハックしたDeepSeek その中でもハイライトとも言えるのが、CUDAから下りてPTXによる

                                                                          DeepSeekがGPUの制限を突破するのに使われたPTX。その制約が突破の原動力になった - 中華IT最新事情
                                                                        • 海外「だから親日家なのか!」NVIDIA創業者が日本で学んだ人生で最も重要な教えが話題に

                                                                          先日時価総額が3兆3350億ドルに達し(約526兆円)、 マイクロソフトを抜いて世界首位となった、 アメリカの半導体大手「NVIDIA」の創業者、 ジェンスン・フアン氏が14日、 カリフォルニア工科大学の卒業式でスピーチを行い、 京都・銀閣寺での日本人庭師との出会いが、 人生で最も重要な教訓になったと話し、話題になっています。 フアン氏は子どもたちが10代だった頃、 毎年夏にNVIDIAの海外オフィスに1ヶ月間赴き、 プライベートでは家族と旅行をしていたそうなのですが、 日本滞在中、京都の銀閣寺に行った際、 見事な手入れが施されている庭園で、 1人の日本人庭師の姿に目を惹かれたそうです。 その庭師さんは「京都特有の」炎天下の中、 竹製のピンセットを使い慎重に枯れた苔を摘み取り、 それを竹かごに入れていたのですが、 その姿に興味を惹かれたフアンさんが、 「この広大な庭でなぜピンセットで作業を

                                                                            海外「だから親日家なのか!」NVIDIA創業者が日本で学んだ人生で最も重要な教えが話題に
                                                                          • アキバのパソコン工房の高価格グラボの抽選販売が地獄絵図で中止に「保育園の柵に登る人まで」「令和の物売るってレベルじゃねぇぞ」

                                                                            立山登 @sarasteam0151 パソコン工房パーツ館でRTX5090の抽選の呼びかけが始まりましたが、現場は大混乱しております。 怒号が飛び交い、あろうことか隣の幼稚園の柵に登る人まで出る始末。 #RTX5090 pic.x.com/BIPOLdXays 2025-01-30 15:04:34 リンク 4Gamer.net GeForce RTX 5090/5080搭載グラフィックスカードをASUSが1月30日に発売 2025年1月29日,ASUSは,NVIDIAのデスクトップPC向け最新GPU「GeForce RTX 5090」や「GeForce RTX 5080」を搭載したグラフィックスカードを1月30日23:00に国内発売すると発表した。いずれも独自クーラーを搭載したクロックアップモデルとなる。 2 users 28

                                                                              アキバのパソコン工房の高価格グラボの抽選販売が地獄絵図で中止に「保育園の柵に登る人まで」「令和の物売るってレベルじゃねぇぞ」
                                                                            • NVIDIA Docker って今どうなってるの? (20.09 版)

                                                                              ※ この記事は以前私が Qiita に書いたものを、現状に合わせて更新したものです。(内容、結構変わりました) ※ 2021/01/08 CUDA Toolkit 11.2 のリリースに伴い、「NVIDIA ドライバのインストール」節を更新しました。 ※ 2020/09/24 CUDA Toolkit 11.1 のリリースに伴い、「NVIDIA ドライバのインストール」節を更新しました。 エヌビディアの佐々木です。 この記事では、Docker 等のコンテナで GPU を利用するための「NVIDIA Docker」の現状を紹介します。 「Docker で GPU を使うためにあちこち調べてみたけれど、nvidia-docker コマンドを使えばよいとか、--rutime=nvidiaオプションが必要とか、はたまた Docker が標準で GPU をサポートしたとか、色々な情報があってよくわか

                                                                                NVIDIA Docker って今どうなってるの? (20.09 版)
                                                                              • Google Colab で はじめる Waifu Diffusion v1.2|npaka

                                                                                「Waifu Diffusion v1.2」が二次元キャラの画像生成が得意らしいということで試してみました。 ・Diffusers v0.3.0 ・Waifu Diffusion v1.2 【最新版の情報は以下で紹介】 1. Waifu Diffusion v1.2「Waifu Diffusion v1.2」は、「Stable Diffusion」を二次元イラストのデータセットでファインチューニングして作られた画像生成AIです。Danbooruの画像で学習しています。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) 新規のColabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install diffusers==0.3.0 transformers

                                                                                  Google Colab で はじめる Waifu Diffusion v1.2|npaka
                                                                                • NVIDIAが基調講演に使った「キッチンでしゃべるCEOの映像」が自社製ツールで作ったCGであることが明らかに

                                                                                  NVIDIAが2021年4月に行った基調講演について、ジェン・スン・ファンCEOが登壇するシーンの一部や撮影現場として用いられたキッチンなどが、3Dデザインコラボレーションプラットフォーム「NVIDIA Omniverse」で作成されたCGだったと明かしました。 NVIDIA Omniverse Changes the Way Industries Collaborate | NVIDIA Blog https://blogs.nvidia.com/blog/2021/08/11/omniverse-making-of-gtc/ Nvidia Reveals Its CEO Was Computer Generated in Keynote Speech https://www.vice.com/en/article/88nbpa/nvidia-reveals-its-ceo-was-co

                                                                                    NVIDIAが基調講演に使った「キッチンでしゃべるCEOの映像」が自社製ツールで作ったCGであることが明らかに

                                                                                  新着記事