- blogs:
- cles::blog
2023/02/16

研究に ChatGPT を使うことの危険性


Nature に掲載された「ChatGPT: five priorities for research」という記事がニュースになっていたのでメモ。
ChatGPT は会話という意味では自然な回答を生成してくれますが、専門的なことやツッコんだことを聞くとイマイチだったりします。例えば僕のことについて聞いてみると「主にディープラーニングやニューラルネットワークについての研究をしている」みたいな根も葉もないことを平気で言ってきたりするので、研究とか調べ物についてはまだ信用できるレベルではないという感じです。そんな状況を感じ取っている人が世の中に自分だけではなかったということでちょっとホッとしました。
「ChatGPT」の課題とオープンソースAIの必要性を訴える論考、Natureに掲載 - CNET Japan
研究者らは「専門的な研究に会話型AIを利用すれば、誤り、偏見、盗用が持ち込まれる可能性が高まる」点をきわめて広範な危険として挙げ、「ChatGPTを利用する研究者は、誤りや偏りのある情報によって誤った方向に導かれ、そこから得た結論を自身の思考や論文に取り込んでしまう危険がある」と指摘した。
トラックバックについて
Trackback URL:
お気軽にどうぞ。トラックバック前にポリシーをお読みください。[policy]
このエントリへのTrackbackにはこのURLが必要です→https://blog.cles.jp/item/13801
Trackbacks
このエントリにトラックバックはありません
Comments
愛のあるツッコミをお気軽にどうぞ。[policy]
古いエントリについてはコメント制御しているため、即時に反映されないことがあります。
古いエントリについてはコメント制御しているため、即時に反映されないことがあります。
コメントはありません
Comments Form
コメントは承認後の表示となります。
OpenIDでログインすると、即時に公開されます。
OpenID を使ってログインすることができます。
サイト内検索
検索ワードランキング
へぇが多いエントリ
閲覧数が多いエントリ
1 . アーロンチェアのポスチャーフィットを修理(95245)
2 . 年次の人間ドックへ(94857)
3 . 福岡銀がデマの投稿者への刑事告訴を検討中(94773)
4 . 三菱鉛筆がラミーを買収(94465)
5 . 2023 年分の確定申告完了!(1つめ)(94440)
2 . 年次の人間ドックへ(94857)
3 . 福岡銀がデマの投稿者への刑事告訴を検討中(94773)
4 . 三菱鉛筆がラミーを買収(94465)
5 . 2023 年分の確定申告完了!(1つめ)(94440)
cles::blogについて
Referrers