Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

タグ

LLMに関するebibibiのブックマーク (47)

  • 「AIの利用・開発に関する契約チェックリスト」を取りまとめました (METI/経済産業省)

    経済産業省は、生成AIの普及を始めとする近年の市場環境の変化を踏まえ、当事者間の適切な利益及びリスクの分配、ひいてはAIの利活用を促すことを目的として、我が国の事業者が使いやすい形式の「AIの利用・開発に関する契約チェックリスト」を取りまとめました。 1.背景・目的 2022年頃より、基盤モデルに代表される生成AI技術を用いたサービスが急速に普及し始め、AIモデルの開発だけでなく、その利活用の局面における契約の重要性も高まっています。 特に事業活動においてAI技術を用いたサービスの利活用を検討する事業者の増加が顕著である一方で、AI技術や法務に必ずしも習熟していない事業者が導入を検討するケースも増えています。 このような状況下で、AI技術を用いたサービスの利活用を行う際の契約実務に関し、以下のような懸念が挙げられています。 AIの利活用に関する契約に伴う法的なリスクを十分に検討できていな

  • OpenAI Platform

    Explore resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's developer platform.

    OpenAI Platform
    ebibibi
    ebibibi 2025/02/14
    適当なビュー稼ぎのなんちゃってインフルエンサーの話を鵜呑みにする前にきちんとOpenAI本家のBEST PRACTICESを読んでおくべきですねー。私もきちんと読まなくちゃ。
  • J-Moshi

    語Full-duplex音声対話システムの試作 Paper (To appear) | Model | Code 大橋 厚元,飯塚 慎也,姜 菁菁,東中 竜一郎 名古屋大学 大学院情報学研究科 概要: 人間同士の対話における発話のオーバーラップや相槌など,同時双方向的な特徴をモデル化できるfull-duplex音声対話システムは,近年注目を集めている.しかし日語においては,full-duplex音声対話システムはほとんど見られず,full-duplex音声対話システムの開発に関する知見は不足している.研究では,英語における主要なfull-duplex音声対話システムであるMoshi[1] をベースとすることで,日語で利用可能な最初のfull-duplex音声対話システム J-Moshi[2] を試作し,公開する.

    ebibibi
    ebibibi 2025/02/02
    ものすごく自然。凄い。
  • 「DeepSeekの利用は危険か」詳しくない人や詳しい人向けのレベル別の解説がわかりやすい→「次元構造的解説にしてるのが面白い」

    安野貴博 @ 新刊『1%の革命』が2/6発売予定です! @takahiroanno ソフトウェアエンジニア起業家。SF作家。34歳・と二人暮らし。 開成→東大工学部/松尾研→外資コンサルBCG→スタートアップを2社起業SF作家/著サーキット・スイッチャー他 安野たかひろ事務所公式X→@annotakahiro24 (連絡はtakahiroanno2024あっとgmailまで) takahiroanno.com 安野貴博 @ 新刊『1%の革命』が2/6発売予定です! @takahiroanno 【DeepSeekの利用は危険か】 LV.1 あんまり詳しくない人向けの答え: 利用規約的に入力したデータが裏でどう使われるかわからないので入力内容には注意してね。ぶっちゃけ精度はChat GPTのo1とそんな変わらないからそっち使った方が無難だと思うよ。出力にも政治的なバイアスがあると言われて

    「DeepSeekの利用は危険か」詳しくない人や詳しい人向けのレベル別の解説がわかりやすい→「次元構造的解説にしてるのが面白い」
  • DeepSeek-R1がNPU上で動作できるようMicrosoftが移植

    DeepSeek-R1がNPU上で動作できるようMicrosoftが移植
    ebibibi
    ebibibi 2025/01/30
    おお。流石の動きの速さ。
  • ChatGPT超えの中国AI「DeepSeek-R1」の衝撃

    中国AIスタートアップ「DeepSeek」は2025年1月20日、数学的推論やコーディング能力でOpenAIの最新モデル「o1」と同等性能を持つ大規模言語モデル「DeepSeek-R1」を公開した。 使用・複製・改変・再配布を自由に許可する寛容なMITライセンス下でのオープンソース提供および従来比95〜97%のコスト減となるAPI価格が特徴で、AI業界に激震が起きている。 強化学習を重視、コールドスタート問題にも対応 論文によると、DeepSeek-R1の特筆すべき点は、強化学習(RL:Reinforcement Learning)を駆使し、従来の教師あり学習(SFT:Supervised Fine-Tuning)に頼らず、自律的に思考連鎖(CoT:Chain-of-Thought)を学習する点だ。このアプローチにより、モデルは複雑な問題を解決するための思考の連鎖を探索し、自己検証や振り

    ChatGPT超えの中国AI「DeepSeek-R1」の衝撃
  • DeepSeek-R1の論文読んだ?【勉強になるよ】

    記事は、DeepSeek-R1の論文とDeepSeekMathの論文を読んだ私の理解をもとに記載しています。 論文で使われている技術に関しては、ある程度の知識を持っているので、大きくは外していないとは思いますが、私の主観も入っている部分もありますので、ご了承ください。 また、DeepSeek-R1の論文が公開される前に、小型モデルに対して同様の実験(強化学習)をしていたグループがあるようです。 そちらのレポートは下記になります。 意図せず、DeepSeek-R1-Zeroの再現実験のようなレポートになっていますが、レポートの著者はDeepSeek-R1論文の公開前から実験していると主張しています。 こちらも非常に興味深かったため紹介です。 論文の興味深いところ 論文は、大きく分けて3つの構成でできています 強化学習による思考能力の強化 LLM(DeepSeek-V3-Base)に対

    DeepSeek-R1の論文読んだ?【勉強になるよ】
    ebibibi
    ebibibi 2025/01/27
    面白い。 人間にも数学が大事なんだろうなあ…。
  • ClineとAIコーディングツールの現状 - laiso

    はじめに 近年、AIを活用したコーディングツールが急速に発展し、プログラマーの生産性向上や開発プロセスの効率化に大きな影響を与えつつあります。これらのツールは、コード補完、チャットアシスタント、コーディングエージェントなど、様々な形態で提供されており、プログラマーの作業をサポートしています。 その中でも、オープンソースのコーディングエージェントである「Cline」は、独特のポジションと活発なコミュニティによって注目を集めています。 記事では、Clineを中心に、現在のAIコーディングツールの動向を探ります。Clineの特徴や利点、そして他のツールとの比較を通じて、AIコーディングツールの現状について考察します。また、Clineのアーキテクチャや実用面、コミュニティの動向についても解説します。 AIコーディングツールは、特に個人のプログラミングの世界に大きな変革をもたらしつつあります。

    ClineとAIコーディングツールの現状 - laiso
  • GPT-4やClaudeなどの大規模言語モデルが抱える「ストロベリー問題」とは?

    大規模言語モデル(LLM)をベースにしたAIは高い能力を発揮できる一方で、ウソにダマされやすいといった特徴があったり、算数の文章題への推論能力が小学生未満という研究結果があったりと、脆弱(ぜいじゃく)さについてもしばしば指摘されます。AIの能力の限界を示す「ストロベリー問題」という脆弱性について、機械学習エンジニアのチンメイ・ジョグ氏が解説しています。 The 'strawberrry' problem: How to overcome AI's limitations | VentureBeat https://venturebeat.com/ai/the-strawberrry-problem-how-to-overcome-ais-limitations/ ChatGPTやStable DiffusionなどのジェネレーティブAIは、高度な文章やコードを書けたり、イラストやリアルな画

    GPT-4やClaudeなどの大規模言語モデルが抱える「ストロベリー問題」とは?
    ebibibi
    ebibibi 2024/10/20
    確かにGPT-4oでは再現した。そしてGPT-o1-previewは正解した。
  • [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜

    この記事は "What We’ve Learned From A Year of Building with LLMs" という記事を著者の一人である Eugene Yan さんから許可を得て翻訳したものです。 https://applied-llms.org/ Thank you for giving me a permission to translate this wonderful article! 著者の方々 Eugene Yan Bryan Bischof Charles Frye Hamel Husain Jason Liu Shreya Shankar 原文の公開日 2024/6/8 今は大規模言語モデル(LLM)を使った開発がとってもエキサイティングな時期です。この1年間で、LLMは実世界のアプリケーションに対して「十分に良い」ものになりました。そして、年々良くなり、安く

    [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜
  • 最近ローカルLLMがアツいらしい

    最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAI命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

    ebibibi
    ebibibi 2024/05/21
  • GitHub - jina-ai/reader: Convert any URL to an LLM-friendly input with a simple prefix https://r.jina.ai/

    Your LLMs deserve better input. Reader does two things: Read: It converts any URL to an LLM-friendly input with https://r.jina.ai/https://your.url. Get improved output for your agent and RAG systems at no cost. Search: It searches the web for a given query with https://s.jina.ai/your+query. This allows your LLMs to access the latest world knowledge from the web. Check out the live demo Or just vis

    GitHub - jina-ai/reader: Convert any URL to an LLM-friendly input with a simple prefix https://r.jina.ai/
    ebibibi
    ebibibi 2024/04/30
    なるほど、サイトをLLMで利用しやすい形に整形してくれるサービスって感じですか。
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    ebibibi
    ebibibi 2024/04/25
    なるほどー。欲しくなってきた。すぐに買えるは買えるなあ…。
  • ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について

    Online-Dokumentation, die hilft: Strukturen, Prozesse, Tools

    ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について
  • 高木浩光@自宅の日記 - 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない

    ■ 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない 分野による話かもしれないが、研究が論述によってのみ成り立つ分野では、理解されてナンボであるため、その普及広報活動に悩まされることになる。ここの日記でも何度か自分の成果を紹介するエントリを書いた*1が、反応が薄くて徒労感がある。先月も書いたように、解説というものは、読み手の理解状況に合わせてカスタマイズする必要があるのだが、人が解説しようとすると、どうしても全部を説明しようとしてしまって、結局原文を読むのと違わなくなってしまうので、第三者からの「一部を切り取った解説」が求められるのである。 そこで対話型LLMである。究極的には、自分が書いてきた文章の全てをLLMに「理解」させて、あらゆる質問に答えるbotを提供することを目指すことになる。「自分の能力をそんなbotに安売りさせてどうすんだ」という声もあるかもしれ

    ebibibi
    ebibibi 2024/04/09
    Claude3のコンテキストサイズは流石ですね。
  • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信している筆者は忙殺されていた。 春節中にはOpenAIがSoraを、GoogleがGemini1.5を発表したのは、その合間を縫ってのことだった。もはやAI最前線の戦いは研究が行われる場所の文化や風土に影響を受けるところまで来ている。 そして春節もあけた今週、さっそくAlibabaがとんでもないトーキングヘッドモデルを引っ提げて登場したかと思えば、Microsoft中国チームがとてつもないLLMをリリース

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
    ebibibi
    ebibibi 2024/02/29
    期待!
  • AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】

    TOPコラム海外最新IT事情AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 2024年1月23日 米Metaと米ニューヨーク大学に所属する研究者らが発表した論文「Self-Rewarding Language Models」は、大規模言語モデル(LLM)が自分自身に報酬を与えることで繰り返し学習する「自己報酬型言語モデル」を提案した研究報告である。このモデルは、自身が生成した問題に対する応答に報酬を割り当て、その結果をトレーニングデータとして使用。自己を反復して訓練することで、精度を向上させられる。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容

    AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】
    ebibibi
    ebibibi 2024/01/23
    ここまでしてしまったらあとはもうぐるぐる回すだけなのでは…
  • LLM 大規模言語モデル講座 2023コンテンツ - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab

    2023年度のLLM大規模言語モデル講座のコンテンツ公開は終了しました。 現在2024年度の受講生を募集しておりますので、LLM講座の受講をご検討下さい。 最終更新: 2024年8月7日 LLM 大規模言語モデル講座 2024 開講のお知らせ 昨年2,000名が受講した松尾研LLM講座を今年も開講します! [講座詳細]https://weblab.t.u-tokyo.ac.jp/education/large-language-model/ 松尾研究室からのお知らせ 2024年度 大規模言語モデル講座 詳細はこちらをご覧ください。 メンバー募集のお知らせ 松尾研究室では複数のLLMに関する開発プロジェクトを推進しており、一緒に働いてくれる仲間を募集しています!! LLM研究者(特任研究員・特任助教・特任講師) [1] 効率的なLLMの学習方法に関する研究 [2] LLMの動作原理の理解 [

    LLM 大規模言語モデル講座 2023コンテンツ - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
  • 大規模言語モデル「Phind」がコーディングにおいてGPT-4を上回る

    生成AIを用いた開発者向けの検索エンジン「Phind」が、コーディング能力でOpenAIのGPT-4を上回ったことが明らかになりました。 Phind - AI Search Engine and Pair Programmer https://www.phind.com/blog/phind-model-beats-gpt4-fast Our GPT-4-beating coding model is now the default on https://t.co/epkoFW8Ozz. It's also 5x faster than GPT-4. Learn more in our blog post: https://t.co/PrOFETEbvd— Phind (@phindsearch) October 31, 2023 PhindはもともとHello Cognition(bet

    大規模言語モデル「Phind」がコーディングにおいてGPT-4を上回る
    ebibibi
    ebibibi 2023/11/02
    目的を特化させればより良いものがより軽く実現できるようになってきてるから、目的別に複数LLMを使い分ける時代がすぐきそう。そしてそれらを統合するLLMもきそう。
  • 社内情報検索システムで用いられるRAGの4つの実装方法

    Building Better People: How to give real-time feedback that sticks.

    社内情報検索システムで用いられるRAGの4つの実装方法
    ebibibi
    ebibibi 2023/11/01
    参考になりました。複雑にすればいいってわけじゃないところが難しいですね。