AIコンパニオンは子供にとって安全?

young boy speaking through voice notes with an AI companion bot

AIは急速に進化しており、そのスピードに私たちが追いつくのは難しい場合が多く、オンライン上のほとんどのものと同様に、新しいツールを見つけるのはたいてい私たち大人よりも子供たちのほうが先です。生成型AIが登場した当初は、子供たちが宿題でズルをしたり、AIを使って作文を書いたり、急な抜き打ちテストの答えを記入させたりと、さまざまな方法でそれを利用するかもしれないと大騒動が巻き起こりました。しかし、子供たちのAIの使い方は、単純な検索と発見から、どこにいてもポケットに自分専用のデジタルペンパル・親友・バーチャルセラピストを持ち歩くことへと進化しました。 

AIコンパニオンボットが存在感を増し、子供や若者の日常生活に浸透しつつあります。本当の意味での「本物」ではないものの、見知らぬ人という存在であるAIチャットボットは、保護者が慎重に検討し、理解し、疑問を投げかける必要のある、また別のタイプの関係性を生み出しています。自分の子供たちはどんなボットを使っているのでしょうか。AIボットは人間関係、学習、そしてウェルビーイングにどのような影響を与えるのでしょうか。そして何よりも、子どもたちが安全に探索できるようにするには、保護者は何を知っておくべきなのでしょうか。

AIチャットボットとAIコンパニオンの違いは何ですか?

チャットボットとコンパニオンの違いは微妙ですが、重要です。その違いは主に設計と目的にあります。

  • ChatGPT(チャットジーピーティー)、Gemini(ジェミニ)、Claude(クロード)などのチャットボットは、私たちが必要だとは思ってもみなかったアシスタントとして機能するように構築されています。正しく責任を持って使用すれば、チャットボットは質問に答え、概念を分かりやすく説明し、生産性の向上に役立ちます。もちろん、間違えることもありますが、これらの「従来の」チャットボットは継続的に厳格なテストを受けており、より安全な指針が導入されています。 
  • Replika(レプリカ)やCharacter.aiなどのコンパニオンボットは、異なる方法で構築されています。これらは、より感情的に深い繋がりを提供するために設計された、デジタルペルソナ(架空の人物モデル)です。Replikaのキャッチフレーズは、同社の存在意義を簡潔にまとめています。「The AI companion who cares: Always here to listen and talk. Always on your side.(気にかけてくれるAIコンパニオン:いつでも耳を傾け、話しかけてくれます。いつもあなたの味方です。)」 これらは、人に親しみやすく親近感を与え、人間のユーザーとの絆を形成するように特別に設計されています。人がコンパニオンボットを使用する理由は、アドバイスを求める、ロールプレイをする、つながりを求めるなど、さまざまです。

コンパニオンボットに関する重大な安全上の問題の一つは、Character.aiなどのプラットフォームで利用できるキャラクターの多くが、臨床心理学者や心理療法士などの資格を持った専門家であると主張していることです。ChatGPTのようなツールはこのようなことはしませんが(中には、悪用を防ぐために新しい安全策を追加したり、既存の安全策を更新したりするツールもあります)、これらのボットは気楽で人間らしく「聞こえる」ように構築されており、多くの人が個人的な相談相手として使っています。

子供たちは実際にAIボットやコンパニオンをどの程度利用していますか?

答えは想像以上です。Common Sense Media(子供たちがメディアを健全に使用できるよう支援する米国の非営利団体)などの組織による最近の調査では、これらのツールが短期間でいかに普及したかが示されています。現時点では、検索エンジン、宿題サポート、あるいは愛用しているアプリなどを通じて、ほとんどの若者が、自分たちの周りに人工知能(AI)が存在するという理由だけで、何らかの形でAIと関わったことがあります。コンパニオンボットも例外ではありません。10代の若者の10人中7人がコンパニオンボットを使用したことがあり、2人に1人はより頻繁にコンパニオンボットを使用しています。 

保護者の多くはまだこれらのツール、特に感情に訴えかけるコンパニオンボットを試用していませんが、子どもたちは時代を先取りしています。AIは既に、何らかの形で子どもたちのデジタル体験の一部になっていると考えて間違いないでしょう。

子供たちはどこでコンパニオンボットを見つけるのですか?

コンパニオンボットの最も魅力的な要素の一つは、Replikaのような専用アプリやウェブサイトだけでなく、より一般的なソーシャルメディアプラットフォームからも、誰でも簡単にアクセスできることです。 

 

コンパニオンボットは現在、次のような様々な場所に登場しています: 

  • Instagram、Snapchat、Xのようなソーシャルメディアプラットフォーム。Instagram、Facebook、WhatsAppに統合されているMetaのAIは、子供と「ロマンチック」なチャットをしているとして非難を浴びていますが、一方で、XのAIツールであるGrokでは、Aniという魅惑的な相手とチャットして、「Spicyモード」を解除することができます。 
  • YouTube、Instagram、TikTokなどの動画プラットフォームや、ソーシャルメディア、ゲームを通じて配信される広告。
  • Replikaのような専用アプリやウェブサイト。こうしたプラットフォームは数百とあるため、どれが最もリスクが高いかを判断するのは困難ですが、学校や家庭からの報告によると、Poly AI、WeMate、Privee AI、TalkTo.AI、Dream Companionなどが特に問題があるとして名前が挙がっています。

子供たちはどのようにAIコンパニオンを使用していますか?

子供たちはスマートフォンに限らず、幅広い種類のデバイスでこれらのツールを使用しています。ウェブサイト、アプリ、内蔵メッセージングサービスを通じて、子どもたちは学校でも自宅でも、個人用デバイスでも学校支給のデバイスでもこれらのツールを使用しています。子供たちがAIの相手に頼るもっとも一般的な方法は次の3つです: 

1. アドバイスをもらうため

友人関係を築くことから恋愛関係にある人との口論まで、重要な決定を下したり、精神的な健康問題について話し合うことさえ行います。

2. 交友のため

子供たちは退屈しのぎに、あるいは孤独に対処するために、そして場合によっては恋愛関係を探るために、これらのボットの中に「友達」を見つけることができます。10代の若者の8%が、恋愛や軽い気持ちでコンパニオンを利用したことがあると報告しています。

3. 学ぶため

AIコンパニオンは、子供たちが取り組んでいる課題についての説明や個別指導、簡単な修正などを提供できます。  

子供たちにとってのボットの魅力の一つは、それがどうやり取りするように設計されているかです。ボットはいつでも利用可能で、無料または低価格、非常に忍耐強く、共感をもって素早く反応します。最大の魅力の一つはおそらく、いつでも耳を傾け、批判しないという「快く受け入れる姿勢」でしょう。子供にとってこれらのボットは、友達や家族と話しているときよりも安全で支えになる空間のように感じられるのです。 

young girl chatting on phone with AI companion bot

コンパニオンボットについて保護者が知っておくべきことは何ですか?また、それは安全ですか?

コンパニオンボットにおける残念な事実としては、子供に与える影響がまだ十分に分かっていないということです。コンパニオンボットは私たちにとって比較的新しいものであり、頻繁に使用した場合の心理的影響を評価するだけの豊富な研究がまだ存在しないからです。

安全性試験を困難にしているのは、与えられたプロンプト(指示や質問)に対する正確な反応を予測できないことです。例えば、面白くなるように作られている、または役立ったり支援的になったりするように作られているなど、ボットの一般的な特徴は分かっているかもしれませんが、特定のシナリオでどのような反応をするのかは正確には分かりません

潜在的な悪影響は、2つの異なる原因から生じると考えるとわかりやすくなります。1つ目は、ツールがそもそもどのように設計されたか、2つ目は、実際にどのように使用されているかです。しかし、初期の研究と実際の事例は、保護者が知っておくべきいくつかのリスクを指摘しています

  • 間違った情報と偏見:ボットは「幻覚」を起こしたり、「事実」として作り話をします。
  • 偽りの親しみ:子供たちは、本質的には単なるコードでしかない相手とやりとりしていることをすぐに忘れてしまい、強い絆を通じて感情的な依存に陥ることがあります。
  • 有害なコンテンツ:まれではありますが、ボットが自傷行為や暴力などの有害な行動を促す事例があります。 
  • 批判的思考力(クリティカル・シンキング)の低下:学業や意思決定をボットに頼ると、子供たち(そして大人自身!)の問題解決能力が弱まる可能性があります。あまりにも多くの作業をツールやボットに任せると、記憶の想起に悪影響を与えかねません。

また、これらのボットは、これまでに出会った中で一番親切で、助けになり、また協力的な、本当の人間と同じように聞こえ、感じられるように設計されているという問題もあります。子供も大人も同様に、テクノロジーとやりとりしていることをすぐに忘れてしまいがちで、そのため、テクノロジーに愛着を持ってしまうことになります。私たちの感情的依存は驚くほど速く進行し、ある研究では、一部のユーザーはAIボットを人間よりも共感的だと認識することもあると示唆しています。これは、私たちが将来、人間よりもボットとの友情や関係を好むようになるかもしれないことを意味するのでしょうか。断言するにはまだ早すぎますが、確かにその可能性はあります。

保護者が注意すべき兆候にはどのようなものがありますか?

子供はそれぞれに違いますが、AIコンパニオンに関する潜在的な危険信号には次のようなものがあります: 

  • 友達や家族と過ごす以上に、ボットやAIツールとのチャットに費やす時間が増えている。 
  • 特定のアプリ、会話、または「友達」について秘密にする。 
  • 困難な状況のときに、信頼できる大人に頼る代わりにボットに感情的なサポートを頼る。 
  • ネットで時間を過ごした後、急に機嫌が変わる。
  • ボットをまるで実在の人物、スピリチュアルガイド、権威的存在のように話す。

コンパニオンボットについて子供とどう話せばよいですか?

お子様の AIツールとの関わり方をある程度コントロールする優れた方法は、家族でテクノロジーに関する同意書を作成し、健全な境界線を築くためのテクノロジーのカテゴリーの1つとしてAIを含めることです。そのほかのよく知られたカテゴリーには、例えばソーシャルメディアやゲーム、ストリーミングプラットフォームなどがあります。 

まずは興味を持つところから始めましょう。お子様に、これまでどのAIツールを使用したことがあるか、また気に入った点や驚いた点について質問します。役立つ使い方は何か、またそれに対してリスクを感じる使い方は何かなど、プラス面とマイナス面を一緒に検討します。お子様の学校に問い合わせて、AIに関するポリシーや生徒への指導方法を理解し、家庭で使える助言があるかどうかを確認するのも良いでしょう。

AIツールに関する会話のきっかけ

「AIがしたことですごいと思ったことは何?」

「宿題にAIを使う方法では、どんなものが公平または不公平だと思う?」

「AIが友達になるとしたらどう感じる?現実社会の友達と比べて何が違うんだろう?」

「AIにアドバイスを求めるのは、どんな時が良いかな?実際の人に聞いたほうがいいのはどんな時だろう?」

このテクノロジーはまだ非常に新しいため、お子様と検討できる様々な質問が数多くあります。そして、AI搭載ツールの使用スキルが間違いなく必要となる将来にお子様を本当に備えさせるために、プラス面とマイナス面の両方について話し合うことが重要になります。 

 

これらのツールは時には支えてくれたり、力を与えてくれるように感じるかもしれませんが、実際の人間関係の代わりになるものではなく、家族が見守る必要があるリスクを伴います。興味を持ち続け、 自由に回答できる質問を投げかけ、家族みんなで一緒に健全な境界線を設定することで、AIを有害なものでなく、役立つものとして使用するようにお子様を導くことができます。

Qustodio dashboard | kids screen time

Qustodioは、家族を保護するのにどう役立ちますか?

Qustodioは、お子様をオンラインで安全に保ち、健康的なデジタルの習慣を身につけるのに役立つ最良の方法です。弊社のペアレンタルコントロールツールでは、お子様たちが不適切なコンテンツにアクセスしたり、画面の前で長時間過ごしたりしないようにします。

無料で開始 無料で開始