Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

2024年2月12日のブックマーク (3件)

  • 大規模画像テキストデータのフィルタリング手法の紹介

    基盤モデルのための事前学習用のデータは「量」にフォーカスされがちですが、昨今では「質」の部分にも注目が集まっています。特に昨年開催されたDataCompは、データの質にフォーカスしたData-centricなコンペ設計となっており、データフィルタリングのノウハウが多数共有されました。発表ではDataC…

    大規模画像テキストデータのフィルタリング手法の紹介
    macro1597
    macro1597 2024/02/12
  • 「AI先進国」になれるチャンスが日本にも到来

    コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕

    「AI先進国」になれるチャンスが日本にも到来
    macro1597
    macro1597 2024/02/12
    外国からAI研究者を引き抜くというのなら、昨年末あたりにOpenAIのイリヤ・サツケヴァー氏が例の解任劇のあと社内で居場所をなくしていたらしいので、ストックオプションが無ければ引き抜くチャンスではなかろうか。
  • v1.1 チューニング済みモデル・データ公開

    目次 はじめに LLM-jp-13B とは インストラクションチューニング データセット 入力プロンプト 比較実験の設定 ハイパーパラメータ 学習 評価 DPO データセット 入力プロンプト ハイパーパラメータ 学習 評価 おわりに はじめに 京都大学 言語メディア研究室の児玉(個人ページ,X アカウント)です. LLM-jp では 2023年10月20日に LLM-jp-13B v1.0 を公開しました. 当時事前学習済みモデルとチューニング済みモデルの両方を公開しましたが,チューニング済みモデルについては時間上の制約もあり,十分に性能を高めることができていませんでした. 今回はインストラクションチューニングの設定の見直しや DPO (Direct Preference Optimization) の追加によって,性能を改善したチューニング済みモデル v1.1 とその際に使用したデータと

    macro1597
    macro1597 2024/02/12