Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

カリフォルニア州「あなたAI? だったらちゃんとそう伝えなさい」

  • author AJ Dellinger - Gizmodo US
  • [原文]
  • Kenji P. Miyajima
  • X
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
カリフォルニア州「あなたAI? だったらちゃんとそう伝えなさい」
Image: Tada Images / Shutterstock

自分が子どもの頃は、学校から帰ると友だちと原っぱで三角ベースしてたっけ…。

たとえチャットボットがチューリングテスト(コンピュータが人間のように振る舞えるかどうかを評価するテスト)に合格できるほど高性能になったとしても、カリフォルニア州で運用される場合、子どもと対話するチャットボットは、自分が実は機械で本物の人間ではないことを時折ユーザーに知らせるよう義務付けられるという新法案が、Steve Padilla州上院議員によって提出されました。

「話し相手がAI」だと教える義務

カリフォルニア州上院法案SB243は、チャットボットを運営する企業が子どもを保護するために設けるべき安全対策を規制する取り組みの一環として提出されました。

この法案で定められる要件には、企業による利用促進を目的としたユーザーへの「報酬提供の禁止未成年者が自殺念慮を示す頻度を州保健医療サービス局に報告する義務、そしてチャットボットがAIによって生成されたものであり、人間ではないことを定期的に通知する義務が盛り込まれているとのこと。

最後の要件(生成AIであることを定期的に通知する義務)は、こういったシステムに対して子どもたちが非常に脆弱である現状を踏まえると、特に重要な意味を持ちそう。

実は2024年、ある14歳の少年が、さまざまなポップカルチャーのキャラクターをモデルにしたチャットボットを作成できるサービス「Character.AI」を通じて提供されたチャットボットと感情的なつながりを持った結果、悲劇的に自ら命を絶ってしまいました

これを受け、少年の両親は、子ども向けにマーケティングされているにもかかわらず十分な安全対策が講じられていないことを理由に、Character.AIを「不合理なほど危険」だと非難し、訴訟を起こしています

子どもが信頼しても大丈夫な保護策が急務

ケンブリッジ大学の研究者は、子どもは大人よりもAIチャットボットを信頼しやすく、場合によっては人間に近い存在とみなす可能性が高いことを突き止めたそうです。

なので、十分な保護策が講じられていない状態でチャットボットが子どもの問いかけに応じると、子どもが重大な危険にさらされる可能性があるとのことです。

子どもたちが安全な場所で自分の気持ちを自由に表現できるなら、チャットボットに気持ちを打ち明けることには潜在的な利点があるでしょう。しかし、孤立のリスクはリアルなのでチャットボットの需要は減らないと思われるので、会話の相手が人間ではないという小さな注意喚起は役立つかもしれません。

また、テクノロジープラットフォーム(ビジネスアプリケーションの構築や実行を支える基盤)が繰り返しドーパミンを放出させ子どもたちを中毒のサイクルに陥れている現状に介入することは、良い出発点になるんじゃないでしょうか。でも、こうなった原因のひとつは、ソーシャルメディアが普及し始めた当初にそういった介入を怠ったことだそうです。

AIチャットボットの話し相手がいらない社会に

それでもこれらの保護策は、子どもがチャットボットに助けを求める根本的な問題、つまり子どもがリアルな人間関係を築くためのリソースが著しく不足しているという問題に対処するものではありません。

教室は過密状態で資金が不足し、放課後プログラムは衰退、「サードプレイス(学校でも家庭でもない、子どもにとって心地よい居場所)」は次々と閉鎖され、子どもたちが抱える問題に対処する児童心理学者も不足しているのが現状です。

チャットボットが本物の人間ではないと子どもに注意喚起するのは良い取り組みですが、そもそも子どもをチャットボットと話さなくてもすむような環境に置いてあげることの方が、より望ましいのではないでしょうか。