Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
BLOGTIMES
2023/02/16

研究に ChatGPT を使うことの危険性

  ai  paper 
このエントリーをはてなブックマークに追加

Nature に掲載された「ChatGPT: five priorities for research」という記事がニュースになっていたのでメモ。

ChatGPT は会話という意味では自然な回答を生成してくれますが、専門的なことやツッコんだことを聞くとイマイチだったりします。例えば僕のことについて聞いてみると「主にディープラーニングやニューラルネットワークについての研究をしている」みたいな根も葉もないことを平気で言ってきたりするので、研究とか調べ物についてはまだ信用できるレベルではないという感じです。そんな状況を感じ取っている人が世の中に自分だけではなかったということでちょっとホッとしました。

「ChatGPT」の課題とオープンソースAIの必要性を訴える論考、Natureに掲載 - CNET Japan

研究者らは「専門的な研究に会話型AIを利用すれば、誤り、偏見、盗用が持ち込まれる可能性が高まる」点をきわめて広範な危険として挙げ、「ChatGPTを利用する研究者は、誤りや偏りのある情報によって誤った方向に導かれ、そこから得た結論を自身の思考や論文に取り込んでしまう危険がある」と指摘した。


    トラックバックについて
    Trackback URL:
    お気軽にどうぞ。トラックバック前にポリシーをお読みください。[policy]
    このエントリへのTrackbackにはこのURLが必要です→https://blog.cles.jp/item/13801
    Trackbacks
    このエントリにトラックバックはありません
    Comments
    愛のあるツッコミをお気軽にどうぞ。[policy]
    古いエントリについてはコメント制御しているため、即時に反映されないことがあります。
    コメントはありません
    Comments Form

    コメントは承認後の表示となります。
    OpenIDでログインすると、即時に公開されます。

    OpenID を使ってログインすることができます。

    Identity URL: Yahoo! JAPAN IDでログイン