タグ

2023年8月30日のブックマーク (3件)

  • 【ローカルLLM】llama.cppの量子化バリエーションを整理する|Baku

    【追記】 この記事の内容はかなり古くなっているのでご注意ください。ブログに新しい記事(https://sc-bakushu.hatenablog.com/entry/2024/02/26/062547)も上げてます。 「llama.cpp」はMacBookなどでLlamaベースの大規模言語モデルを動かすことを目標とするアプリケーション。一応CPUのみでも実行でき、GPUの非力な環境でも動かしやすい。 llama.cppの量子化モデルllama.cpp(GGML)では量子化によるモデルサイズ縮小が進んでいる。例えば、下記のHuggingFaceのRepoを見ると、GGML量子化モデルは「q4_0, q4_1, q5_0, q5_1, q8_0, q2_K, q3_K_S, q3_K_M, q3_K_L, q4_K_S, q4_K_M, q5_K_S, q5_K_M, q6_K」と多岐にわたる

    【ローカルLLM】llama.cppの量子化バリエーションを整理する|Baku
    stealthinu
    stealthinu 2023/08/30
    llama.cppにおける量子化の手法とbit数での品質低下度合い。この辺の技術を音声のほうに持って行けるだけの知識がない。
  • Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました|ELYZA, Inc.

    Metaの「Llama 2」をベースとした商用利用可能な日語LLM「ELYZA-japanese-Llama-2-7b」を公開しました 記事のサマリーELYZAが「Llama 2」ベースの商用利用可能な日語LLM「ELYZA-japanese-Llama-2-7b」を一般公開 性能は「GPT-3.5 (text-davinci-003)」に匹敵、日語の公開モデルのなかでは最高水準 Chat形式のデモや評価用データセットも合わせて公開 既に社内では、130億、700億パラメータのモデルの開発も進行中 はじめにこんにちは。ELYZAの研究開発チームの佐々木、中村、平川、堀江です。 この度ELYZAは、Metaの「Llama 2」をベースに、日語による追加事前学習を行なった日語言語モデル「ELYZA-japanese-Llama-2-7b」と、そこにELYZA独自の事後学習を施した「

    Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました|ELYZA, Inc.
    stealthinu
    stealthinu 2023/08/30
    Llama2ベースで商用利用可能な日本語追加学習モデル。text-davinci-003相当の性能。これはだいぶ上がってきた。13Bとか70B!も学習させてるらしいのでChatGPT-3.5相当も夢ではなさそう。
  • ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog

    こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。世間では ChatGPT などの大規模言語モデル(LLM)による対話型 AI が盛り上がってますね。クオリティーも凄いし AI 業界以外でも盛り上がってると嬉しいですよね。この数年で一段と AI の社会実装が業界以外の人にも目に見える形で進んできたなあと実感しております。 自分は普段業務では ABEJA Platform という AI プロダクトやその周辺プロダクトのバックエンド開発とフロントエンド開発をやっているのですが、AI 業界所属していながら ChatGPT などの LLM 全然追いかけれていない状態になっちゃてて自責の念にかられているので、このブログ執筆という良い機会に ChatGPT の仕組みについて調べてみました。 記事の対象読者としては、以下のようになりま

    ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog
    stealthinu
    stealthinu 2023/08/30
    ChatGPTなどLLMの仕組みについてTransformerの仕組みなどから説明。すごく細かく丁寧に説明されてるがある程度はDLわかってる人向け。