¿Son seguros para los niños los bots de compañía con IA?

young boy speaking through voice notes with an AI companion bot

La inteligencia artificial avanza a toda velocidad, con frecuencia a un ritmo imposible de asimilar. Y, al igual que suele suceder con el resto de las novedades de Internet, a menudo nuestros hijos nos toman la delantera a la hora de probar estas nuevas herramientas. Cuando la IA generativa aterrizó en nuestras vidas, hubo muchas voces que nos alertaron de las diferentes formas en las que los más pequeños podían usarla para copiar las respuestas de los deberes, escribir redacciones sin mover un solo dedo o hacer trampa en los exámenes sorpresa. Sin embargo, la relación de nuestros hijos con estas herramientas no ha dejado de evolucionar, y actualmente ya no las usan simplemente para encontrar las respuestas que buscan, sino como una especie de híbrido entre amigo virtual, confidente y psicólogo digital que les acompaña en el bolsillo allá donde van.

La aparición de los bots de compañía ha provocado que esta tecnología termine permeando todos los aspectos del día a día de niños y adolescentes. Aunque no sean «reales» en el sentido literal de la palabra, estas aplicaciones no dejan de ser una suerte de desconocido cuya relación con nuestros hijos debemos analizar detenidamente, comprender y cuestionar. ¿Qué tipo de bots de IA utilizan los más pequeños? ¿Cómo contribuyen a moldear sus relaciones sociales, el modo en el que aprenden y su propio bienestar? Y lo que es más importante: ¿qué debemos tener en cuenta para protegerles mientras descubren todo su potencial?

¿Qué diferencia hay entre un bot de chat y un bot de compañía?

Las diferencias entre los bots de chat y los bots de compañía son sutiles, pero significativas, y radican principalmente en el modo en el que han sido diseñados y el objetivo que aspiran a satisfacer.

  • Los bots de chat como Chat GPT, Gemini y Claude están diseñados para convertirse en el asistente que ni siquiera sabíamos que necesitábamos: son capaces de responder a preguntas, desglosar conceptos y ayudarnos a ser más productivos, siempre que los utilicemos correctamente y de forma responsable. Evidentemente, pueden cometer errores, pero estos bots «clásicos» son sometidos periódicamente a una rigurosa serie de pruebas y cada vez cuentan con medidas de seguridad más robustas para proteger a los usuarios. 
  • Los bots de compañía como Replika y Character.ai han sido desarrollados con un objetivo muy diferente. Se trata de personajes digitales diseñados para establecer una intensa conexión emocional con los usuarios. Esta es la frase publicitaria que utiliza Replika para resumir en pocas palabras la razón de su existencia: «El bot de IA que te cuida. Replika siempre está dispuesto a escucharte y a hablar, y puede acompañarte allí donde vas». Estas aplicaciones están específicamente diseñadas para que los usuarios podamos personalizarlas, nos ofrecen una ilusión de intimidad y nos permiten mantener una relación personal con ellas. La gente usa estos bots de compañía por diferentes razones, como buscar consejo, disfrutar de un juego de rol o simplemente aliviar su soledad.

Uno de los principales problemas que conllevan estas aplicaciones en términos de seguridad es que muchos de los personajes disponibles en plataformas como Character.ai aseguran ser profesionales titulados, como psicólogos y psicoterapeutas. Aunque las herramientas como ChatGPT no pueden realizar este tipo de afirmaciones —y en algunos casos los desarrolladores han añadido nuevas medidas de seguridad o actualizado las existentes para evitar que los usuarios hagan un mal uso de ellas—, hay que recordar que estos bots también están diseñados para ser capaces de interactuar de forma natural como si fueran humanos, y mucha gente los utiliza como su confidente personal.

¿Cuánto tiempo dedican los niños a los bots de compañía y otras plataformas de IA?

La respuesta es que más de lo que pensamos. Varios estudios llevados a cabo recientemente por organizaciones como Common Sense Media demuestran que estas herramientas han pasado a formar parte de nuestra vida cotidiana en un espacio de tiempo relativamente corto. A estas alturas, la mayoría de los jóvenes ya han tenido ocasión de interactuar con algún tipo de inteligencia artificial por la sencilla razón de que están prácticamente en todas partes, bien sea a través de los motores de búsqueda, los asistentes para hacer los deberes e incluso sus aplicaciones preferidas. Y los bots de compañía no son una excepción: siete de cada diez adolescentes ha recurrido alguna vez a este tipo de aplicaciones, y uno de cada dos tienden a utilizarlas de forma habitual. 

Aunque muchos padres aún se muestran reticentes a probar este tipo de herramientas, especialmente en el caso de los bots pensados para establecer una relación más emocional, hace tiempo que los niños van un paso por delante en este sentido. No es descabellado pensar que esta tecnología ya está integrada en la vida digital de tus hijos en mayor o menor medida. 

¿Cómo acceden los niños a estos bots de compañía?

Uno de los aspectos más atractivos de este tipo de bots es lo fácil que resulta acceder a ellos, no solo a través de aplicaciones y sitios web especializados como Replika, sino también desde redes sociales más tradicionales. 

Los bots de compañía han encontrado un hueco en infinidad de sitios web, entre ellos: 

  • Redes sociales como Instagram, Snapchat y X. La IA de Meta, que en la actualidad ya está totalmente integrada en Instagram, Facebook y WhatsApp, ha recibido numerosas críticas por mantener chats de carácter romántico con los menores. Por su parte, Grok, la herramienta de inteligencia artificial de X, ofrece la posibilidad de chatear con Ani, un bot de compañía que permite a los usuarios flirtear con “ella” y desbloquear el denominado «modo sexy».
  • Los anuncios que aparecen en los juegos, las redes sociales y las plataformas de vídeo como YouTube, Instagram o TikTok.
  • Las aplicaciones y los sitios web específicamente dedicados a la creación de estos compañeros, como Replika. Hoy en día existen cientos de plataformas capaces de generar este tipo de bots, por lo que resulta difícil determinar cuáles entrañan más riesgo. Sin embargo, hay algunas como Poly AI, WeMate, PriveeAI, Talkto.AI y MyDreamCompanion que se perfilan como especialmente perjudiciales según el testimonio de los colegios y de las propias familias. 

A menudo, los más pequeños terminan accediendo a algunos de estos bots potencialmente peligrosos —o a las herramientas de IA con menos «filtros»— con tan solo un par de clics, bien porque se los ha recomendado un amigo, porque han descubierto su existencia mientras navegaban de forma accidental o simplemente porque sienten curiosidad por probarlos. Es en este aspecto donde las herramientas de control parental pueden resultar especialmente útiles, ya que ofrecen la posibilidad de bloquear o filtrar sitios web y aplicaciones específicas, incluidas las plataformas que permiten generar bots de chat peligrosos.

¿Cómo utilizan los niños los bots de compañía?

Los más pequeños usan estas herramientas en una amplia variedad de dispositivos, no solo desde sus smartphones. A través de los sitios web, las aplicaciones y los servicios de mensajería integrados, nuestros hijos pueden acceder a estas herramientas tanto en casa como en el colegio, ya sea a través de un dispositivo personal o uno escolar. Estos son los tres usos más habituales que suelen darles:

1. Como consejeros y confidentes

Los más jóvenes realizan todo tipo de consultas en estas aplicaciones, desde cómo iniciar una amistad o resolver una discusión con su pareja a buscar ayuda para tomar decisiones importantes e incluso plantear alguna duda relacionada con su salud mental.

2. Para hacerles compañía 

Muchos niños encuentran un «amigo» en este tipo de bots, ya sea simplemente para escapar del aburrimiento o porque se sienten solos y, en algunos casos, para experimentar qué se siente al mantener una relación amorosa con otra persona. El 8% de los adolescentes asegura haber utilizado algún bot de compañía con fines románticos o para flirtear

3. Como herramienta educativa 

Este tipo de compañeros son capaces de explicar conceptos, actuar como una especie de tutor personal o ayudar a nuestros hijos a resolver sus dudas mientras hacen los deberes.  

Una de las razones por las que estos bots han logrado cautivar la atención de los más pequeños es el modo en el que han sido diseñados para interactuar con los usuarios: están permanentemente disponibles, ya sea de forma gratuita o sin apenas coste; tienen una paciencia infinita y responden inmediatamente con empatía. Puede que uno de sus mayores atractivos sea su capacidad para actuar como el confidente perfecto que siempre está ahí para ellos sin juzgarles.  Desde el punto de vista de un niño, estas aplicaciones pueden parecer un espacio seguro en el que encontrar apoyo, incluso más que cuando acuden a sus amigos o familiares.

young girl chatting on phone with AI companion bot

¿Qué aspectos debemos tener en cuenta los padres respecto a los bots de compañía? ¿Son seguros?

Desgraciadamente, la realidad sobre los bots de compañía es que aún no sabemos con seguridad qué impacto pueden tener en los niños, dado que son una tecnología relativamente nueva y aún no disponemos de estudios suficientes para evaluar las consecuencias psicológicas que puede tener su uso a lo largo del día a día.

Lo que hace que resulte tan difícil evaluar su seguridad es nuestra incapacidad para predecir la respuesta exacta que van a dar a una pregunta concreta. Podemos hacernos una idea de cuáles son sus características generales (por ejemplo, si un bot ha sido diseñado para divertir a los usuarios, para actuar como un asistente personal o para ofrecerles apoyo), pero eso no nos garantiza cómo van a responder en un determinado escenario.

En este sentido, hay dos aspectos fundamentales a los que debemos prestar atención a la hora de identificar los peligros que pueden conllevar estas herramientas: uno es el modo en el que han sido desarrolladas, y el otro el uso que nuestros hijos terminan haciendo de ellas en la vida real. Sin embargo, los pocos estudios de los que disponemos sobre el tema y los casos que se han producido hasta ahora apuntan a que hay algunos riesgos concretos a los que los padres debemos estar atentos

  • La presencia de información falsa o parcial: los bots pueden «alucinar» o llegar a inventarse «datos».
  • La falsa sensación de intimidad que contribuyen a crear: los niños tienden a olvidar que el personaje con el que están interactuando es básicamente un código informático, lo que puede provocar que desarrollen cierto grado de dependencia emocional hacia estas aplicaciones debido a la relación que establecen con ellas. 
  • La posibilidad de que nuestros hijos acaben expuestos a contenidos perjudiciales: no es lo habitual, pero ha habido casos de bots que animaban a los usuarios a adoptar comportamientos peligrosos, como autolesionarse o actuar de forma violenta. 
  • Los efectos negativos que pueden ejercer sobre el pensamiento crítico: recurrir constantemente a bots para hacer los deberes o tomar decisiones puede debilitar la capacidad de resolución de problemas de nuestros hijos (y la nuestra propia). Delegar demasiadas tareas en herramientas o bots también puede afectar de forma negativa a nuestra capacidad de memorización.

Otro de los problemas de estas plataformas es el hecho de que están diseñadas para imitar la forma de comunicarse de los seres humanos; en concreto, para parecer la persona más amable y solícita que hayamos conocido. Tanto niños como adultos tendemos a olvidar rápidamente que estamos interactuando con una aplicación tecnológica y, como consecuencia, muchas veces terminamos desarrollando un vínculo con ellas.

Los seres humanos tenemos una enorme facilidad para entablar relaciones de dependencia emocional, y hay estudios que indican que algunos usuarios pueden incluso llegar a considerar que estos bots muestran más empatía que los propios seres humanos. ¿Significa eso que podría llegar un día en el que prefiramos mantener amistades y relaciones con estas plataformas en lugar de con otras personas? Aún es pronto para decirlo, pero es evidente que se trata de una posibilidad muy real.

¿Hay alguna señal de alarma a la que los padres debamos estar atentos?

Cada niño es un mundo, pero hay algunos signos relacionados con los bots de compañía ante los que debemos permanecer alerta, entre ellos: 

  • el hecho que nuestros hijos dediquen cada vez más tiempo a chatear con los bots o las herramientas de IA, especialmente si empiezan a anteponerlos a sus amigos y familiares;
  • que se muestren inusualmente reservados respecto a determinadas aplicaciones, conversaciones o «amistades»; 
  • que utilicen estos bots como apoyo emocional cuando están pasando una mala época, en lugar de acudir a un adulto de confianza;
  • que experimenten cambios de humor repentinos después de utilizar la tecnología;
  • que empiecen a hablar de los bots como si fueran personas reales, guías espirituales o figuras de autoridad.

¿Cómo puedo hablar con mis hijos de los bots de compañía?

Una buena forma de obtener cierto grado de control sobre el modo en el que tus hijos interactúan con la IA es que elaboréis juntos un acuerdo digital familiar e incluyáis estas plataformas como una de las categorías tecnológicas respecto a las que vais establecer unos límites saludables. El acuerdo también debería abarcar el resto de aplicaciones que utilizan con frecuencia, como las redes sociales, los juegos y las plataformas de streaming, por ejemplo. 

El primer paso es adaptar una actitud curiosa: pregúntales qué aplicaciones han utilizado, qué es lo que les gusta y qué les ha sorprendido de ellas. Discutid juntos sus ventajas y sus inconvenientes, como en qué sentido pueden ser útiles versus qué aspectos consideran que podrían ser potencialmente peligrosos. También es recomendable que contactes con su colegio para informarte de cuál es su política en cuanto al uso de esta tecnología y qué papel ocupa en el currículo para ver si hay alguna pauta que puedas adoptar en casa. 

Posibles puntos de partida para empezar a hablar con tus hijos de las herramientas de IA

«¿Qué es lo más impactante que le has visto hacer a la IA?».

«¿Qué usos es razonable darle a estas herramientas a la hora de hacer los deberes y cuáles podrían considerarse “hacer trampa”?».

«¿Qué te parecería el hecho de que alguien se hiciera amigo de una IA? ¿Qué diferencia crees que habría con un amigo de verdad?».

«¿Sobre qué temas crees que podemos pedirle consejo a estas plataformas y en qué ocasiones crees que sería mejor acudir a una persona real?».

Dado que la IA está prácticamente en pañales, hay muchos aspectos que puedes comentar con tus hijos, y abordar juntos sus ventajas y sus inconvenientes es fundamental si quieres prepararles para un futuro en el que indudablemente tendrán que aprender a utilizar las herramientas basadas en esta tecnología

 

Aunque en ocasiones los bots de compañía parezcan una voz amiga que nos ofrece apoyo y compañía, no pueden sustituir a las relaciones humanas que desarrollamos en el mundo real, y llevan aparejada una serie de riesgos que las familias no podemos olvidar. Adoptar una actitud curiosa, preguntarles abiertamente a nuestros hijos por el tema y establecer juntos unos límites saludables es la mejor forma de enseñarles a sacar el máximo partido de la IA y al mismo tiempo protegerles de sus posibles consecuencias negativas.

Qustodio dashboard | kids screen time

¿Cómo puede Qustodio ayudarte a proteger a tu familia?

Qustodio es la mejor forma de proteger a tus hijos en Internet y ayudarles a desarrollar unos hábitos digitales saludables. Nuestras herramientas de control parental te permitirán asegurarte de que no acceden a contenido inapropiado ni pasan demasiado tiempo delante de la pantalla.

Empieza gratis Empieza gratis