Estudio británico reveló que casi 64% de los niños utilizan çhatbots' de IA
febrero 19, 2026 | 09:01 PM

Estudio británico reveló que casi 64% de los niños utilizan çhatbots' de IA

El uso de chatbots de inteligencia artificial se ha extendido con rapidez en los últimos años, incluyendo entre población infantil y adolescente. Plataformas como ChatGPT reportan cientos de millones de usuarios activos semanales, mientras que estudios recientes en el Reino Unido indican que una proporción significativa de niños utiliza este tipo de herramientas. En paralelo, crece la preocupación de padres y cuidadores ante la posibilidad de que los menores perciban a estos sistemas como personas reales.

Expertos en ciberseguridad advierten que el uso frecuente de esta tecnología por parte de niños y adolescentes plantea retos en materia de seguridad, privacidad y bienestar emocional. “Están surgiendo preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes. Como adultos responsables, no se puede dar por sentado que todos los proveedores de plataformas cuentan con medidas eficaces de seguridad y privacidad adecuadas para los infantes. Incluso cuando existen protecciones, su aplicación no es necesariamente coherente, y la propia tecnología evoluciona más rápido que las políticas”, señala Martina López, investigadora en seguridad informática.

Entre los principales riesgos identificados figura el impacto psicológico y social. Algunos menores pueden recurrir a la inteligencia artificial como compañía digital, lo que podría afectar la construcción de relaciones interpersonales. También existe la posibilidad de que los chatbots, diseñados para interactuar de manera complaciente, refuercen pensamientos problemáticos o proporcionen información inexacta presentada de forma convincente, lo que podría influir en decisiones relacionadas con salud o relaciones personales. A ello se suman riesgos de exposición a contenidos inapropiados y la posibilidad de que menores con mayores conocimientos técnicos eludan restricciones de seguridad.

En cuanto a la privacidad, se advierte que cualquier información personal o financiera ingresada en estas plataformas puede ser almacenada por el proveedor del servicio y, en determinados escenarios, quedar expuesta ante terceros o vulneraciones de seguridad. Además, dependiendo del país o del chatbot utilizado, puede existir escasa verificación de edad o moderación de contenidos, lo que incrementa la responsabilidad de los adultos en la supervisión.

Entre las señales de una posible relación poco saludable con la inteligencia artificial se mencionan:

  • Se retiran del tiempo extraescolar que pasan con amigos y familiares
  • Se ponen nerviosos cuando no pueden acceder a su chatbot e intentan ocultar los signos de uso excesivo
  • Hablan del chatbot como si fuera una persona real
  • Repiten como «hechos» información errónea obvia
  • Preguntan a su IA sobre enfermedades graves, como problemas de salud mental (que puedes averiguar accediendo al historial de conversaciones)
  • Acceden a contenidos para adultos o inapropiados ofrecidos por la IA

“En muchas jurisdicciones, los chatbots de IA están restringidos a usuarios mayores de 13 años. Sin embargo, dada la irregularidad o complejidad en su aplicación, es posible que se tenga que tomar cartas en el asunto. Las conversaciones importan más que los controles por sí solos. Para obtener los mejores resultados, consideremos la posibilidad de combinar los controles técnicos con la educación, el asesoramiento y sobre todo el acompañamiento, impartidos de forma abierta y sin confrontación”, comenta Luis Lubeck, vocero de Argentina Cibersegura. Asimismo, se recomienda fomentar el pensamiento crítico, limitar el tiempo de uso, activar controles parentales y recordar que estas herramientas no sustituyen el acompañamiento humano en el desarrollo emocional de los menores.

(La Tribuna)

  • Internacionales
  • Tecnología
  • Salud
  • Bebés/Niños
  • Educación

El uso de chatbots de inteligencia artificial se ha extendido con rapidez en los últimos años, incluyendo entre población infantil y adolescente. Plataformas como ChatGPT reportan cientos de millones de usuarios activos semanales, mientras que estudios recientes en el Reino Unido indican que una proporción significativa de niños utiliza este tipo de herramientas. En paralelo, crece la preocupación de padres y cuidadores ante la posibilidad de que los menores perciban a estos sistemas como personas reales.

Expertos en ciberseguridad advierten que el uso frecuente de esta tecnología por parte de niños y adolescentes plantea retos en materia de seguridad, privacidad y bienestar emocional. “Están surgiendo preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes. Como adultos responsables, no se puede dar por sentado que todos los proveedores de plataformas cuentan con medidas eficaces de seguridad y privacidad adecuadas para los infantes. Incluso cuando existen protecciones, su aplicación no es necesariamente coherente, y la propia tecnología evoluciona más rápido que las políticas”, señala Martina López, investigadora en seguridad informática.

Entre los principales riesgos identificados figura el impacto psicológico y social. Algunos menores pueden recurrir a la inteligencia artificial como compañía digital, lo que podría afectar la construcción de relaciones interpersonales. También existe la posibilidad de que los chatbots, diseñados para interactuar de manera complaciente, refuercen pensamientos problemáticos o proporcionen información inexacta presentada de forma convincente, lo que podría influir en decisiones relacionadas con salud o relaciones personales. A ello se suman riesgos de exposición a contenidos inapropiados y la posibilidad de que menores con mayores conocimientos técnicos eludan restricciones de seguridad.

En cuanto a la privacidad, se advierte que cualquier información personal o financiera ingresada en estas plataformas puede ser almacenada por el proveedor del servicio y, en determinados escenarios, quedar expuesta ante terceros o vulneraciones de seguridad. Además, dependiendo del país o del chatbot utilizado, puede existir escasa verificación de edad o moderación de contenidos, lo que incrementa la responsabilidad de los adultos en la supervisión.

Entre las señales de una posible relación poco saludable con la inteligencia artificial se mencionan:

  • Se retiran del tiempo extraescolar que pasan con amigos y familiares
  • Se ponen nerviosos cuando no pueden acceder a su chatbot e intentan ocultar los signos de uso excesivo
  • Hablan del chatbot como si fuera una persona real
  • Repiten como «hechos» información errónea obvia
  • Preguntan a su IA sobre enfermedades graves, como problemas de salud mental (que puedes averiguar accediendo al historial de conversaciones)
  • Acceden a contenidos para adultos o inapropiados ofrecidos por la IA

“En muchas jurisdicciones, los chatbots de IA están restringidos a usuarios mayores de 13 años. Sin embargo, dada la irregularidad o complejidad en su aplicación, es posible que se tenga que tomar cartas en el asunto. Las conversaciones importan más que los controles por sí solos. Para obtener los mejores resultados, consideremos la posibilidad de combinar los controles técnicos con la educación, el asesoramiento y sobre todo el acompañamiento, impartidos de forma abierta y sin confrontación”, comenta Luis Lubeck, vocero de Argentina Cibersegura. Asimismo, se recomienda fomentar el pensamiento crítico, limitar el tiempo de uso, activar controles parentales y recordar que estas herramientas no sustituyen el acompañamiento humano en el desarrollo emocional de los menores.

(La Tribuna)

Noticias recientes

Alta afluencia en el Centro Histórico por actividades de Viernes Santo, destaca alcalde capitalino
Alta afluencia en el Centro Histórico por actividades de Viernes Santo, destaca alcalde capitalino

Comayagua se consolida como epicentro del turismo religioso en Semana Santa
Comayagua se consolida como epicentro del turismo religioso en Semana Santa

Publican las primeras fotos de la Tierra logradas por la misión Artemis II rumbo a la Luna
Publican las primeras fotos de la Tierra logradas por la misión Artemis II rumbo a la Luna

El Gobierno de Cuba inicia la excarcelación de más de 2.000 presos tras anunciar su indulto
El Gobierno de Cuba inicia la excarcelación de más de 2.000 presos tras anunciar su indulto

Artemis II despliega con éxito cuatro microsatélites y confirma que los astronautas se encuentran bien de salud
Artemis II despliega con éxito cuatro microsatélites y confirma que los astronautas se encuentran bien de salud

  • advertisement
  • advertisement
  • advertisement
Publican las primeras fotos de la Tierra logradas por la misión Artemis II rumbo a la Luna

Publican las primeras fotos de la Tierra logradas por la misión Artemis II rumbo a la Luna

  • Internacionales
  • Tecnología
  • NASA
El Gobierno de Cuba inicia la excarcelación de más de 2.000 presos tras anunciar su indulto

El Gobierno de Cuba inicia la excarcelación de más de 2.000 presos tras anunciar su indulto

  • Internacionales
  • Judiciales
Artemis II despliega con éxito cuatro microsatélites y confirma que los astronautas se encuentran bien de salud

Artemis II despliega con éxito cuatro microsatélites y confirma que los astronautas se encuentran bien de salud

  • Internacionales
  • Tecnología
  • NASA
Trump impone nuevos aranceles a medicamentos

Trump impone nuevos aranceles a medicamentos

  • Economía
  • Internacionales
  • Salud
Vox Populi