Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

タグ

GPUとLLMに関するmohnoのブックマーク (1)

  • 中国発の高性能AI「DeepSeek」が示す衝撃 —— 制約が生んだ驚異的な効率性 | XenoSpectrum

    世界のAI開発競争に、激震が訪れている。中国AIスタートアップ「DeepSeek」が2024年12月、そして今月に相次いで発表した言語モデルが、OpenAIやAnthropicといった米国の巨人たちを震撼させているのだ。驚くべきことに、この革新は米国による半導体輸出規制という制約の中で生まれた。 驚異的な開発効率で実現した世界最高峰の性能 DeepSeekが1月に発表したDeepSeek-R1の登場は、AIの開発手法に関する既存の常識を根から覆すものとなった。同モデルは、複雑な推論を必要とするタスクにおいて「Chain-of-Thought(CoT:思考の連鎖)」と呼ばれる手法を採用。これにより、自身の論理を段階的に検証しながら、より正確な解答を導き出すことを可能にしている。 特筆すべきは、このモデルがOpenAIのo1と同等以上の性能を示したベンチマークテストの結果だ。問題解決能力、

    中国発の高性能AI「DeepSeek」が示す衝撃 —— 制約が生んだ驚異的な効率性 | XenoSpectrum
    mohno
    mohno 2025/01/27
    「半導体輸出規制という制約の中で生まれた」「DeepSeekは、わずか558万ドル(約8億円)という予算と2ヶ月という短期間」「ChatGPTが学習時に必要とした約1万基のNVIDIA GPUに対し、DeepSeekは約2,000基で同等の性能を達成」
  • 1