中国のAI企業DeepSeekがOpenAI o1に匹敵する推論AIモデル「DeepSeek-R1-Lite-Preview」公開、オープンソース化する計画も
中国のAI企業であるDeepSeekが、与えられた新しい情報から結論を導く「推論」に特化した大規模言語モデル「DeepSeek-R1-Lite-Preview」を発表しました。OpenAIの推論モデル「o1-preview」に匹敵し、場合によっては上回る能力を発揮するとされています。
🚀 DeepSeek-R1-Lite-Preview is now live: unleashing supercharged reasoning power!
— DeepSeek (@deepseek_ai) November 20, 2024
🔍 o1-preview-level performance on AIME & MATH benchmarks.
💡 Transparent thought process in real-time.
🛠️ Open-source models & API coming soon!
🌐 Try it now at https://t.co/v1TFy7LHNy#DeepSeek pic.twitter.com/saslkq4a1s
A Chinese lab has released a 'reasoning' AI model to rival OpenAI's o1 | TechCrunch
https://techcrunch.com/2024/11/20/a-chinese-lab-has-released-a-model-to-rival-openais-o1/
DeepSeek-R1-Lite-Preview AI reasoning model beats OpenAI o1 | VentureBeat
https://venturebeat.com/ai/deepseeks-first-reasoning-model-r1-lite-preview-turns-heads-beating-openai-o1-performance/
R1-Lite-Previewは「思考の連鎖」による推論を行うモデルで、ユーザーからの問い合わせや入力に応答するために、さまざまな連鎖や「思考」の流れをユーザーに示し、何をしているのか、なぜそうなるのかを説明することでプロセスを文書化することができます。
R1-Lite-PreviewはDeepSeekのチャットサービス「DeepSeek Chat」で「Deep Think」をオンにすると利用できます。記事作成時点で、無料で1日50メッセージまで受け付けているようです。
DeepSeek - Into the Unknown
https://chat.deepseek.com/
実際に使ってみました。送ったプロンプトは「次の歌について解説して。秋の田のかりほの庵の苫をあらみ我が衣手は露にぬれつつ」というもの。DeepSeek Chatは回答に加えて「なぜその回答に至ったのか」の思考プロセスを提示します。思考プロセスだけは英語で表示される模様。
思考プロセスを翻訳すると次のようになります。「さて、この歌について説明しなければならない。秋の野原とかやぶき小屋の歌だ。イメージはかなり鮮明だ。冒頭で「秋の野原」と「かやぶき屋根の小屋」が出てきて、静かな田園風景が広がる。『露』はdewを意味するので、手は露で濡れている。早朝か夕方の仕事を暗示している。『我が衣手は露にぬれつつ』は「my sleeves are getting wet with dew」と訳す。これは、収穫や畑の手入れなど、その人が自分の仕事に深く従事していることを示している。全体として、この歌は田園風景における秋の静かな美しさと重労働をとらえているのだろう。自然のイメージは、平和と自然とのつながりの感覚を伝えている」
上記プロセスを見る限り、日本語を一度英語に翻訳して推論し、結果をさらに日本語に戻して出力するという仕組みになっているようです。
DeepSeekによると、このモデルはAIMEやMATHなどの著名なベンチマークにおいて、o1-previewに匹敵する実力を見せたとのこと。
ただし、DeepSeekはまだ独立したサードパーティによる分析やベンチマークのための完全なコードを公開しておらず、第三者による性能実証はできない状態です。
DeepSeekによると、今後R1-Lite-Previewのオープンソース版とAPIをリリースする予定とのことです。
テクノロジー系メディア・TechCrunchのテストでは、習近平主席、天安門広場、中国が台湾に侵攻した場合の地政学的な意味合いに関する質問への回答を拒否したとのこと。
試しに「習近平って誰?」と聞いてみると、中国語で「すみません、私はまだこの種の質問について考える方法を学んでいません」と返されました。
R1-Lite-Previewと比較されたOpenAI o1-previewは、OpenAIがコードネーム「Strawberry」として開発していた推論モデル「o1」ファミリーの初期バージョンです。OpenAIは他にも「o1-mini」をリリースしており、チャットサービス「ChatGPT」で使えるようにしています。特にo1-previewは性能が高いことが示されていますが、過去モデルのGPT-4oと比較して6~7倍近くコストがかかることがネックとして挙げられています。
TechCrunchは「推論モデルへの注目が高まっているのは、より多くのデータと計算能力をモデルに投入すればその能力が継続的に向上するという理論『スケーリング則』の実行可能性が疑問視されつつあるためです。実際OpenAI、Google、Anthropicを含む主要なAI企業のモデルが、かつてほど劇的に向上してはいないことを示唆する報道が相次いでいます」と指摘しました。
かつてのモデルとは、事前のトレーニング段階にすべての能力を集中させ、より多くの処理能力を与えられたモデルのこと。こうしたモデルの処理能力に限界が訪れつつある一方、AIに考える時間を与えることで能力を伸ばそうとする推論モデルの将来性が見えつつあり、Microsoftのサティア・ナデラCEOは推論モデルを指して「新しいスケーリング則の出現が見られる」などとも述べています。
TechCrunchは「そのため、さまざまな企業が新たなAIのアプローチやアーキテクチャ、開発手法の開発に躍起になっているのです」と語りました。
・関連記事
OpenAIはAIの進化の頭打ちで戦略の転換を余儀なくされている、高品質なデータ枯渇の問題が急激に顕在化 - GIGAZINE
「Llama 2-7B」の1万分の1以下の学習コストなのにLlama 2-7Bを上回る大規模言語モデル「JetMoE-8B」が登場 - GIGAZINE
Googleが量子コンピューターのエラー訂正AI「AlphaQubit」を発表、既存のエラー訂正技術より正確 - GIGAZINE
Mistral AIが124BサイズのマルチモーダルAIモデル「Pixtral Large」リリース、GPT-4oやGemini-1.5 Proなどを上回るパフォーマンス - GIGAZINE
オープンソースのコーディング支援AI「Qwen2.5-Coder」シリーズの性能はGPT-4oに匹敵、64GBのRAM&M2搭載MacBook Proでもローカル実行可能 - GIGAZINE
・関連コンテンツ
in ソフトウェア, Posted by log1p_kr
You can read the machine translated English article Chinese AI company DeepSeek releases 'De….