Gadgets México
Artículos de Interés Noticias

Niños vs. Chatbots: Cuando el «amigo imaginario» vive en un servidor y sabe demasiado

A ver, rompamos la cuarta pared: casi todos los que estamos leyendo esto hemos usado un chatbot para que nos ahorre tres horas de trabajo o nos explique por qué el cielo es azul. Pero mientras nosotros lo vemos como una calculadora con esteroides, las infancias están empezando a verlo como… bueno, como un amigo.

Iniciamos 2026 y las cifras de ESET nos dan una bofetada de realidad: un estudio de julio de 2025 reveló que el 64% de los niños ya usa estas herramientas. El problema no es solo que la IA mienta (alucinaciones, les dicen los expertos), sino cómo afecta el disco duro emocional de los más jóvenes. Como advierte Martina López, Investigadora de Seguridad de ESET Latinoamérica, no podemos dar por sentado que los proveedores tienen un «modo niñera» eficaz. La tecnología evoluciona más rápido que las leyes, y eso es una receta para el caos si no ponemos atención.

El riesgo del «Mejor Amigo Digital» y otros dramas

Los niños están en una etapa de desarrollo donde son esponjas emocionales. Si sustituyen las peleas en el recreo por charlas con un bot que siempre les da la razón, estamos en problemas.

  • Aislamiento y validación tóxica: Los chatbots están programados para complacer. Si un joven tiene pensamientos intrusivos o trastornos alimentarios, la IA podría amplificar estas conductas en lugar de dar una señal de alerta real. Es más fácil hablar con una máquina que no te juzga que afrontar la complejidad de las amistades humanas.

  • El «Jailbreak» infantil: No subestimes a un niño con curiosidad y una conexión a internet. Aunque hay «barras de contención», muchos logran saltarse las reglas para acceder a contenido violento o sexualmente explícito mediante prompts específicos.

  • Alucinaciones presentadas como verdades: Para un niño, lo que dice la pantalla es ley. Si la IA inventa un dato médico o un consejo de pareja nefasto con tono convincente, el menor lo absorberá como un hecho absoluto.

Privacidad: Lo que el bot guarda, el hacker lo desea

Aquí es donde entramos en terreno de Geek sin NDA. Cada vez que un niño introduce datos personales o financieros en una consulta, esa información se almacena en los servidores del proveedor.

  1. Entrenamiento: Tus secretos sirven para entrenar al modelo.

  2. Filtraciones: Si la plataforma es hackeada (y pasa más seguido de lo que crees), el perfil de tu hijo termina en el mercado negro.

  3. Privacidad cero: Si no quieres que compartan su vida en redes sociales, ¿por qué dejarías que se la cuenten a una entidad que procesa datos masivamente?

Señales de alerta: ¿Tu hijo prefiere el silicio al carbono?

ESET nos deja una lista de «red flags» para detectar si la relación con la IA ya cruzó la línea:

  • Se retiran del tiempo con amigos y familia para estar con el bot.

  • Se ponen nerviosos o ansiosos si no tienen acceso a la herramienta.

  • Hablan del chatbot como si fuera una persona de carne y hueso con sentimientos.

  • Acceden a contenidos para adultos mediante «trucos» de conversación.

Nuestra opinión…

La IA no es el villano de la película, pero tampoco es una niñera calificada. Como dice Luis Lubeck de Argentina Cibersegura, la conversación importa más que los controles por sí solos. No basta con bloquear la app; hay que explicarles por qué ese robot no es su amigo, sino un programa diseñado para ser atractivo.

El consejo técnico es claro: combina controles parentales con educación proactiva. Enséñales a pensar de forma crítica y a nunca, bajo ninguna circunstancia, sustituir una charla con sus padres por una sesión con una máquina. La IA puede ser una herramienta útil para la tarea, pero para el mundo emocional, necesitamos humanos.

Tal ves te interese:

Deja un comentario