Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

タグ

言語に関するisrcのブックマーク (48)

  • 子供はどうやって大人より速く正確に言葉を覚えるのか : 池田信夫 blog

    2025年01月15日14:51 カテゴリ 子供はどうやって大人より速く正確に言葉を覚えるのか 幼児が言葉を覚える速さは驚異的である。家族の貧弱な言葉を聞くだけで、3歳児までにある程度しゃべれるようになる。大人になってから学校で外国語を習っても、子供の話す母国語にはとてもかなわない。 子供がどうやって限られたサンプルから豊かな言葉を創造するのか――この謎をチョムスキーは「プラトンの問題」と呼び、それに対する彼の答が普遍文法だった。世界中の子供は生まれながらに同じ普遍文法を脳にもっているというのだが、それは具体的にどんな文法なのか。チョムスキーの理論は二転三転し、50年以上たっても普遍文法は見つかっていない。 それに対してチャットGPTは、プラトンの問題を見事に解決した。そこには文法も辞書もなく、経験主義で文脈からパターンを推測して言葉を創造する。これはウィトゲンシュタインの言語ゲームの理

    子供はどうやって大人より速く正確に言葉を覚えるのか : 池田信夫 blog
    isrc
    isrc 2025/01/16
    本書(原題は"The Language Game")は子供の言語習得の実験や観察で言語ゲームの理論を実証し、チョムスキーの理論を否定してチャットGPTに可能性を見出している。
  • あらゆる物理方程式が何らかの「裏ルール」に従っている可能性が示唆される - ナゾロジー

    ノーベル賞のメダルでオセロができる発見です。 イギリスのオックスフォード大学(University of Oxford)で行われた研究により、全く異なる物理法則について記された数式であっても、共通する神秘的なパターンに従っていることが示されました。 この結果は、一見して異なる物理現象について述べている数式でも、隠れた「裏ルール」に従っている可能性を示しています。 研究者たちは「私たちの発見は自然のメタ法則、つまり全ての物理法則が従う法則への扉を開くものである」と述べています。 つまり歴史上の物理学者は、自然法則という1つの巨大なゾウを異なる角度から見てさまざまな数式を描いていたものの、それら1つ1つをよく見ると、同じ「ゾウ」を描いたことを示す何らかの共通する特徴が残ってたというわけです。 もし人類がこの「自然なメタ法則」を完全に理解することができたのならば、あらゆる物理法則を統合する究極理

    あらゆる物理方程式が何らかの「裏ルール」に従っている可能性が示唆される - ナゾロジー
    isrc
    isrc 2024/11/26
    謎を解明する手段として研究者たちは「ジップの法則」を用いることにしました。研究者たちは、異なる数式集に使われている記号の頻度を分析しました。すると数式集は全てジップの法則に従っていることが明らかに
  • 自然言語処理を役立てるのはなぜ難しいのか

    PFNの海野裕也が2024/10/15に東大大学院「自然言語処理応用」にゲスト講師として登壇した際の講義資料です。

    自然言語処理を役立てるのはなぜ難しいのか
  • VALL-E-X : 再学習不要で声質を変更できる音声合成モデル

    再学習不要で声質を変更できる音声合成モデルであるVALL-E-Xのご紹介です。VALL-E-Xを使用することで数秒の音声から同じ声質の音声合成が可能になります。 VALLE-E-Xの概要VALL-E-XはMicrosoftが開発した音声合成モデルのOSS実装です。Microsoftのものは論文は公開されていますが、ソースコードと学習済みモデルはMicrosoftから公開されていないため、非公式の実装となっています。単一言語の音声合成モデルのVALL-Eを、多言語対応した音声合成モデルがVALL-E-Xとなります。

    VALL-E-X : 再学習不要で声質を変更できる音声合成モデル
  • 神学者Lloyd Geeringが考えていること|ガメ・オベールNOTE

    「言葉も進化してきたのだ」と言う。 「言葉が進化したことによって、神も進化してきたということができる」 「人間の言葉はつまり神の言葉だからね。言葉が進化すると、神も進化する」 と話していて、聴いていると、まるで大庭亀夫の茶飲み話を聴いているようです。 99歳になったLloyd Geeringは believe in という表現を例に挙げて、自分が子供の頃 は、I believe in the devilということは出来なかったが、昨今の英語では言いうるようになった、と述べて、その用例変化をもとに、巧妙な宗教論を展開している。 日では、神や悪魔について述べている人を発見すると、「まず神の存在を信じるような中二病をなおせよwww」と悪態をついて嘲笑するおじさんたちがイナゴのように湧いてくることになっていて、わしも何度も被害にあっている。 (英語世界が、この手の、日語人の世界を覆っている、程

    神学者Lloyd Geeringが考えていること|ガメ・オベールNOTE
    isrc
    isrc 2024/08/16
    中世人の思想には、現実は相対的な真実にしかすぎないという強い信念が感じられる。なぜ絶対を否定すると、言語自体が病んでゆくのかをGeeringほど明快に説明できる人はいない。
  • ほんやくコンニャクは人類を幸せにするのか|華村@中国

    突然かつ今更ですが、生成AIを含む機械翻訳の進化って目覚ましいですよね。 最近はよくChatGPTを使っていますが、ちょっとした翻訳なら「ビジネスメール風にしてください」とか「ニュース記事に~」とか少しの指定を入れて、あとは原文をそのまま貼り付ければ、ほとんど修正の必要がないほどの訳文が瞬時に出力されてきます。英語だけでなく、中国語でもほぼ同じです。 間違いをしれっと出してくることも少なくないのでチェックは必要ですが、作業量自体は以前と比べ物にならないほど減少しました。商用に耐えるほどの翻訳精度は無理にしても、個人でやり取りをするための翻訳くらいなら、ほとんど機械に任せられるようになっているかもしれません。 あとはこれが音声になれば、夢のリアルタイム自動翻訳機、あるいはドラえもんのほんやくコンニャクの完成です。分野に詳しいわけではないのであまりいい加減なことはいえませんが、一定以上の音声認

    ほんやくコンニャクは人類を幸せにするのか|華村@中国
    isrc
    isrc 2024/06/12
    ほんやくコンニャクは「言葉は通じるけど、話が通じない」という場面をあらゆる場所に発生させ、「やっぱりこいつとはわかりあえない」「どうやっても話が通じない」となってしまう集団や文化を余計に増やすことにも
  • 大規模言語モデルに追加学習で専門知識を教える試み (2023, arXiv:2312.03360) | ドクセル

    大規模言語モデルに 追加学習で専門知識を教える試み Teaching Specific Scientific Knowledge into Large Language Models through Additional Training Kan Hatakeyama • arXiv:2312.03360, 2023/12/7 • https://github.com/KanHatakeyama/Additional-training-Llama2 • https://huggingface.co/datasets/kanhatakeyama/nature-family-CCpapers 1 https://arxiv.org/abs/2312.03360 https://github.com/KanHatakeyama/Additional-training-Llama2 https:/

    大規模言語モデルに追加学習で専門知識を教える試み (2023, arXiv:2312.03360) | ドクセル
  • GPT-4の回答を向上させる「プロンプト26の原則」、220以上の生成タスクが実行可能なマルチモーダルモデル「Unified-IO 2」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

    2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。2024年初っ端の第27回目は、「礼儀は不要」「モデルに質問させる」「良い解答には報酬」など、大規模言語モデルの返答が向上する「プロンプト26の原則」をはじめとする5つの論文をお届けします。 生成AI論文ピックアップ複数の自律AIエージェントが過去の経験を共有して未知のタスクを処理するモデル「Experiential Co-Learning」> 画像から動く3Dシーンを生成する新モデル「DreamGaussian4D」 大規模言語モデルの返答が向上する「プロンプト26の原則」が公開。「礼儀は不要」「モデルに質問させる」「良い解答には報酬」など 220以上の生成タスクが

    GPT-4の回答を向上させる「プロンプト26の原則」、220以上の生成タスクが実行可能なマルチモーダルモデル「Unified-IO 2」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
    isrc
    isrc 2024/01/02
    大規模言語モデルの返答が向上する「プロンプト26の原則」が公開。「礼儀は不要」「モデルに質問させる」「良い解答には報酬」など
  • 【論文紹介】大規模言語モデルにおけるニューロンの挙動について|はまち

    大規模言語モデルにおける人工ニューロンの挙動をテーマにした以下論文が面白かったので、ざっくり目についたキーワードを抜き出してみました。 理解不足など多分にあると思いますので、興味を持たれた方は、ぜひ原文をご確認ください。 概要LLMの内部構造を理解するため、パラメータの異なる125Mから66BまでのMeta社のOPTファミリーのモデル内部の人工ニューロンの挙動を分析した キーワード活性化しないニューロン(Dead Neurons)ネットワークの入力部付近の層では、多くの活性化しない「デッドニューロン」が存在しており、特に66B(660億)モデルでは、一部の層で70%以上のニューロンが活性化していない。 ネットワークの前半はデッドニューロンの割合が高く、後半はほとんどのニューロンが「活性化」している。 著者らは、この層間での疎さの違いは、初期層では「概念と対応するニューロン」の比率が後半の層

    【論文紹介】大規模言語モデルにおけるニューロンの挙動について|はまち
    isrc
    isrc 2023/09/12
    小さいモデルが絶対位置をより正確にエンコードする一方で、大きなモデルは絶対位置よりも「意味のある何か」に依存している可能性が高いことを示唆
  • はじめての自然言語処理 DeepSpeed-Chat による RLHF の紹介 | オブジェクトの広場

    今回は DeepSpeed-Chat による RLHF のご紹介です。正直、データセットや計算資源の都合もあり、とりあえず動かしてみました!的な話にはなりますが、RLHF の効果が実際に確認できるか見てみたいと思います。 1. はじめに 今回は DeepSpeed-Chat1 を使って RLHF を試してみたいと思います。RLHF は Reinforcement Learning from Human Feedback の略で文字通り「人からのフィードバックを用いた強化学習」ということですね。OpenAI が InstructGPT(ChatGPT の元になったモデル)2 で使ったことで注目された手法になります。 LLM がらみで何か記事にしたいと思いつつ、日々新たな LLM が発表されている昨今に、隔月&内容が実時間から月単位で遅れ気味wの連載です。 「どうしたもんかな。。。」と悩みに

    はじめての自然言語処理 DeepSpeed-Chat による RLHF の紹介 | オブジェクトの広場
  • 言葉という支配者

    Home › 記事 › 言葉という支配者 言葉という支配者 By James_f on 22nd June 2023 • ( 0 ) ウインストン・チャーチルが日の真珠湾奇襲の直後、初めてホワイトハウスを訪れたとき、 酒やべ物の趣味や、チャーチルの毎日の日課についての報告と一緒に、 情報部が持って来た資料の1ページに目をとめたフランクリン・ルーズベルトは、 これは1ヶ月の酒量の間違いではないか? と何度か確かめたそうでした。 そこに書かれていたのは、毎日欠かさない、一日に飲む酒の量として、ボトル3のワインと4、5杯から一のブランディ、そのうえ旅行中は、ウイスキー1を空にする、という「お酒を飲むことは悪い事」というピューリタンの認識からは、ほんとうには離れられないアメリカの大統領には、到底、信じられない量で、若い時には、決まって12のシャンパンを最低限飲むことを日課にしていた、こ

    言葉という支配者
    isrc
    isrc 2023/06/22
    普通、「世界を語り尽くす」ことが出来る自然言語の集合を、まるごと人為的につくるなんて無謀なことはやらないが、西欧語と日本語くらい、長いあいだ別々に発達し懸け離れた言語であると、似た状況が生まれる。
  • ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ

    2022年11月にChatGPTが公開され、たった1週間で100万ユーザーを超えたのをきっかけに、GoogleBardMicrosoftのBing AI Chatなど、大規模言語モデルを利用したチャットAIが続々とリリースされています。チャットAIを研究しているセバスティアン・ラシュカさんが、チャットAIが実用化されるまでの研究の軌跡を重要な論文24個に絞って要約しています。 Understanding Large Language Models - by Sebastian Raschka https://magazine.sebastianraschka.com/p/understanding-large-language-models ◆目次 ・主要なアーキテクチャとタスク ・スケーリングと効率性の向上 ・言語モデルを意図した方向へ誘導する ・人間のフィードバックによる強化学習(

    ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ
  • ChatGPTのコア技術「GPT」をざっくり理解する - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? ※記事はOracleの下記Meetup「Oracle Big Data Jam Session」で実施予定の内容です。 ※セミナー実施済の動画に関しては以下をご参照ください。 記事の対象者 これから機械学習を利用した開発をしていきたい方 機械学習のトレンド技術を知りたい方 なるべく初歩的な内容から学習したい方 はじめに Transformerの登場以降、著しい技術革新が続くここ数年、特にOpenAI社のChatGPTのサービス開始以降、おびただしい数の技術ブログや記事がインターネット上に存在する中、記事に目を留めていただいてありが

    ChatGPTのコア技術「GPT」をざっくり理解する - Qiita
    isrc
    isrc 2023/06/01
    Transformerの論文を見ると、まず目を引くのが下図。この図を読み解くことは、Transformerを理解するうえで避けて通れません。 非常に難解な図ですが、ここでは、ざっくりと理解する
  • Metaの大規模言語モデル「LLaMA」がChatGPTを再現できる可能性があるとさまざまなチャットAI用言語モデルのベンチマーク測定で判明

    近年は機械学習分野の研究がめまぐるしい勢いで進んでおり、数十億を超えるパラメーターを持つ大規模言語モデルが相次いで発表されています。イギリス・エディンバラ大学の大規模言語モデル研究者であるヤオ・フー氏らの研究チームが、独自のベンチマークに基づいて複数の大規模言語モデルのパフォーマンスを比較した結果をGitHubで公開しています。 GitHub - FranxYao/chain-of-thought-hub: Benchmarking large language models' complex reasoning ability with chain-of-thought prompting https://github.com/FranxYao/chain-of-thought-hub 研究チームによると、「パラメーターが10B未満の言語モデルでも、OpenAIGPT-3.5と同等のパ

    Metaの大規模言語モデル「LLaMA」がChatGPTを再現できる可能性があるとさまざまなチャットAI用言語モデルのベンチマーク測定で判明
    isrc
    isrc 2023/05/31
    大規模言語モデルが対応する分野でトレーニングされたかどうかや、プロンプトが最適化されたかどうかなどの要因により、大規模言語モデルのパフォーマンスを厳密に比較することは非常に困難。結果はおおよその参考値
  • FY2022 AIPシンポジウム 特別講演

    AIPシンポジウム成果報告会のURL: https://aip.riken.jp/sympo/sympo202303/

    FY2022 AIPシンポジウム 特別講演
    isrc
    isrc 2023/04/22
    特別講演「大規模言語モデルの驚異と脅威」岡崎 直観 東京工業大学情報理工学院 教授
  • ChatGPTで騒いでる場合じゃない。 AI研究者が「FlexGen」をゲームチェンジャーと呼ぶ理由

    ChatGPTに世間が沸いている。 長年この分野を見てきた者としては「ちょっと沸きすぎ」のようにも見える。深層学習を使った会話ロボットは、何もChatGPTが初めてというわけではない。 ところが、世界中が驚かざるを得ないゲームチェンジャーが現れた。 その名も「FlexGen」と言う。2月15日に公開された。 特筆すべきは、FlexGenが、ChatGPTなどの大規模言語モデルを「従来の100倍高速に動かせる」上に、NVIDIA Tesla T4という、わずか16GBのメモリーしかないGPUでその性能を使えるということだ。 つまり、大規模言語モデルを秋葉原で売っているパソコン程度で動かせる新しいフレームワークが登場したことになる。 このインパクトがどれほどすごいのかを解説してみよう。 目次: 「Google翻訳」と「大規模言語モデル」は技術的にかなり近い 会話AIの正体とは何か ChatGP

    ChatGPTで騒いでる場合じゃない。 AI研究者が「FlexGen」をゲームチェンジャーと呼ぶ理由
  • How language shapes the way we think | Lera Boroditsky | TED

    There are about 7,000 languages spoken around the world -- and they all have different sounds, vocabularies and structures. But do they shape the way we think? Cognitive scientist Lera Boroditsky shares examples of language -- from an Aboriginal community in Australia that uses cardinal directions instead of left and right to the multiple words for blue in Russian -- that suggest the answer is a r

    How language shapes the way we think | Lera Boroditsky | TED
    isrc
    isrc 2022/07/31
  • 弥生時代の日本語で会話 [from Pre-Proto-Japonic to Modern Japanese] -YouTube-

    各時代の特徴を強調するために不自然な箇所が多々あります。動画では「飛鳥時代」「奈良時代」を目安として書いておきましたが、奈良時代の日常的な木簡では既に上代特殊仮名遣いが失われているので、雅語は既に言文不一致の状態にあったと見るべきでしょうから、実際には少し前の時代に対応しています。アクセントなど所々良く分からないので誤魔化しています。また最近の研究ではアクセント2.4類と2.5類の区別が意味に基づいた二次的な群化である可能性が再浮上しているようなので弥生時代後期の時点でどこまで弁別されていたかは不詳ですし、古くから指摘されているように語末 -m に由来するものも混在しているのでしょう。いわゆる母音連続のうち上昇二重母音をここでは一律で *Vr にしておきましたが、実際には流音に限らず様々な子音を挟んで *VCV からの縮約が起きているかと思われ、例えば用言語幹において **uma > *o

    弥生時代の日本語で会話 [from Pre-Proto-Japonic to Modern Japanese] -YouTube-
  • テレビ番組のなかの日本

    isrc
    isrc 2022/06/11
    日本語の社会では、知識人は現実をもたず、生活人は声をもたない。日本語という言語の美しさは、そして、もちろん、現実から剥離した言葉からではなくて、声を持たない現実から来ています。
  • 「子供を1歳くらいから英語漬けにした結果、小学校中学年になっても全然勉強についていけない子を作り出した親がいる」から始まるさまざまな議論

    やとー@💉💉💉💉🇯🇵🇹🇼🎷 @810jam ほんとに子供を1歳くらいから英語漬けにした結果、小学校中学年になっても全然勉強についていけない子を作り出した親がいる

    「子供を1歳くらいから英語漬けにした結果、小学校中学年になっても全然勉強についていけない子を作り出した親がいる」から始まるさまざまな議論