Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

最新イベントはこちら!

Enterprise IT Women's Forum

2025年1月31日(金)17:00~20:30 ホテル雅叙園東京にて開催

Security Online Day 2025 春の陣(開催予定)

2025年3月18日(火)オンライン開催

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けの講座「EnterpriseZine Academy」や、すべてのITパーソンに向けた「新エバンジェリスト養成講座」などの講座を企画しています。EnterpriseZine編集部ならではの切り口・企画・講師セレクトで、明日を担うIT人材の育成をミッションに展開しております。

お申し込み受付中!

EnterpriseZine(エンタープライズジン)

EnterpriseZine編集部が最旬ITトピックの深層に迫る。ここでしか読めない、エンタープライズITの最新トピックをお届けします。

『EnterpriseZine Press』

2024年秋号(EnterpriseZine Press 2024 Autumn)特集「生成AI時代に考える“真のDX人材育成”──『スキル策定』『実践』2つの観点で紐解く」

EnterpriseZineニュース

楽天が日本語LLM/SLMを新たに開発 LLMは8倍規模の高密度モデルに匹敵する性能、来春公開へ

 2024年12月18日、楽天グループ(以下、楽天)は、Mixture of Experts(MoE)アーキテクチャを採用した、新しい日本語大規模言語モデル(LLM)「Rakuten AI 2.0」と、楽天初の小規模言語モデル(SLM)「Rakuten AI 2.0 mini」を発表した。両モデルは、AIアプリケーションを開発する企業や技術者などの専門家を支援することを目指しており、来春を目途にオープンソースコミュニティに向けて公開予定だという。

 Rakuten AI 2.0は、2024年3月に公開している日本語に最適化したLLMの基盤モデル「Rakuten AI 7B」を基に開発した、8x7BのMoE基盤モデル。同LLMは、8つの70億パラメータで構築した「エキスパート」と呼ばれるサブモデルで構成されているとのことだ。トークンは、ルーターによって選定された2つのエキスパートに処理されるという。各エキスパートとルーターは、ともに日本語と英語の言語データを用いた継続的な学習を行っているとしている。

 また、Rakuten AI 2.0 miniは、15億パラメータの基盤モデル。同SLMは、内製の多段階データフィルタリング、アノテーションプロセスを通じて、キュレーションおよびクリーンアップされた日本語と英語のデータセットで学習されており、テキスト生成において高性能かつ高精度な処理を実現しているとのことだ。

 両サービスの特徴は以下のとおり。

Rakuten AI 2.0:高効率な先進モデル構築

 入力トークンに対して、最も関連性の高いエキスパートを動的に選択するMoEアーキテクチャを採用しており、計算効率と性能を最適化。同LLMは、8倍規模の高密度モデルに匹敵する性能を発揮するが、消費計算量においては4分の1程度に抑えることができるという。

 また、同社は「LM-Harness」を使用して、日本語と英語の能力測定を行うモデル評価を実施。リーダーボードは、対象言語の特性を反映した広範な自然言語処理および理解タスクに基づき、言語モデルを評価しているという。Rakuten AI 2.0の平均日本語性能は、Rakuten AI 7Bと比較して、8つのタスクで62.93から72.29に向上したとのことだ。

クリックすると拡大します

Rakuten AI 2.0 mini:実用的なアプリケーション向けモデル

 同SLMは、コンパクトなモデルのためモバイル端末に導入でき、データをリモートサーバーに送信することなく自社運用できるようになるという。汎用アプリケーションに使用される大規模モデルと比べ、SLMはプライバシーの保護、低遅延、コスト効率が求められる特定のアプリケーションに適した形で活用できるとのことだ。

 Rakuten AI 7Bの事前学習では、同社が設計した内製のマルチノードGPUクラスターを拡張し、大規模で複雑なデータを使用した事前学習プロセスを高速で実現できたという。同社は今後、LLMモデルの開発を継続することで知見やノウハウなどを蓄積し、「楽天エコシステム(経済圏)」の拡大に取り組むとしている。

【関連記事】
楽天とAmpere、データセンターの消費電力削減を目的に連携を強化
楽天、OpenAIとの協業で通信業界向けAIツールを共同開発・提供へ
楽天証券、NVIDIAのAIサービスを活用した「投資相談AIアバター」開発 デロイト トーマツが支援

この記事は参考になりましたか?

  • Facebook
  • X
  • Pocket
  • note
関連リンク
この記事の著者

EnterpriseZine編集部(エンタープライズジン ヘンシュウブ)

「EnterpriseZine」(エンタープライズジン)は、翔泳社が運営する企業のIT活用とビジネス成長を支援するITリーダー向け専門メディアです。データテクノロジー/情報セキュリティの最新動向を中心に、企業ITに関する多様な情報をお届けしています。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

EnterpriseZine(エンタープライズジン)
https://enterprisezine.jp/news/detail/21079 2024/12/18 12:00

Job Board

AD

おすすめ

アクセスランキング

アクセスランキング

イベント

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング