Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

タグ

LSTMとTransformerに関するmisshikiのブックマーク (3)

  • Transformerを性能で凌駕、AIの新たな可能性を拓く5月の注目論文

    生成AI人工知能)を含む最新のAI研究動向を知るため、世界中の研究者やエンジニアが参照しているのが、論文速報サイト「arXiv(アーカイブ)」である。米OpenAI(オープンAI)や米Googleグーグル)などAI開発を主導するIT企業の多くが、研究成果をarXivに競って投稿している。 そんなarXivの投稿論文から、2024年5月(1日~31日)にSNSのX(旧Twitter)で多く言及されたAI分野の注目論文を紹介する。調査には米Meltwater(メルトウォーター)のSNS分析ツールを利用した。対象はXの全世界のオリジナル投稿、コメント、再投稿、引用投稿である。調査は、日経BPが2024年1月に新設したAI・データラボの活動の一環として実施した。 Transformer並みの拡張性をLSTMで実現 5月に最も多く言及された論文は、オーストリアの研究チームが発表した「xLSTM:

    Transformerを性能で凌駕、AIの新たな可能性を拓く5月の注目論文
    misshiki
    misshiki 2024/06/10
    “「xLSTM: Extended Long Short-Term Memory」。深層学習ベースの言語モデルのアーキテクチャーであるLSTMを改良し、数十億パラメーターの言語モデルにおいてTransformer並みかそれ以上の拡張性を持たせたという。”
  • ChatGPTを探す旅に出させていただきます | DevelopersIO

    文書の数が多い場合、単語の種類(ボキャブラリ)も多くなり単語の次元が大幅に増えていきます。 一方、一つの文書に含まれる単語の数には限りがあるため、これは全体として疎行列になります。 また、単語が各次元として扱われますが、文書ごとの出現順序など、単語間での関連性を示す情報は抜け落ちたものとなります。 それに対して低次元(通常数百次元程度)の密な行列で単語の意味を定義する方法があります。 これは、「分散表現」や「埋め込み表現」と言われるものになっております。 この表現を獲得するため手法は様々なものがありますが、ここではWord2Vecを紹介します。 元論文 : Efficient Estimation of Word Representations in Vector Space 具体的な実装についての解説 : word2vec Parameter Learning Explained Wor

    ChatGPTを探す旅に出させていただきます | DevelopersIO
    misshiki
    misshiki 2023/04/10
    “ChatGPTの原点を探るために、Deep Learning以降の自然言語処理に関する手法を振り返って”
  • 【ディープラーニング自由研究】LSTM+Transformer モデルによるテキスト生成|tanikawa

    Abstract• Transformer モデルをテキスト生成タスクで使用する場合、計算コストに難がある • 計算コストを抑えつつ Transformer の予測性能を活かすために、Positional Encoding を LSTM に置き換えた LSTM+Transformer モデルを考案 • 生成にかかる時間を Transformer の約 1/3(CPU 実行時)に抑えることができた はじめにTransformer は現在の自然言語処理分野における代表的な深層学習モデルの1つです。さまざまなベンチマークを総なめにした Google の BERT とその派生系 (XLNet, ALBERT, etc.) や、OpenAI の GPT-2 など、最近の研究のベースにあるのが Transformer です。 Transformer の特徴として、LSTM などの従来の RNN にあっ

    【ディープラーニング自由研究】LSTM+Transformer モデルによるテキスト生成|tanikawa
    misshiki
    misshiki 2020/11/13
    “筆者は、上記の弱点に対処するため、Transformer の Positional Encoding を LSTM に置き換えた LSTM+Transformer モデルを考案しました。...モデルの実装と実験を行ってみました。”
  • 1