Estudio británico reveló que casi 64% de los niños utilizan çhatbots' de IA
El uso de chatbots de inteligencia artificial se ha extendido con rapidez en los últimos años, incluyendo entre población infantil y adolescente. Plataformas como ChatGPT reportan cientos de millones de usuarios activos semanales, mientras que estudios recientes en el Reino Unido indican que una proporción significativa de niños utiliza este tipo de herramientas. En paralelo, crece la preocupación de padres y cuidadores ante la posibilidad de que los menores perciban a estos sistemas como personas reales.
Expertos en ciberseguridad advierten que el uso frecuente de esta tecnología por parte de niños y adolescentes plantea retos en materia de seguridad, privacidad y bienestar emocional. “Están surgiendo preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes. Como adultos responsables, no se puede dar por sentado que todos los proveedores de plataformas cuentan con medidas eficaces de seguridad y privacidad adecuadas para los infantes. Incluso cuando existen protecciones, su aplicación no es necesariamente coherente, y la propia tecnología evoluciona más rápido que las políticas”, señala Martina López, investigadora en seguridad informática.
Entre los principales riesgos identificados figura el impacto psicológico y social. Algunos menores pueden recurrir a la inteligencia artificial como compañía digital, lo que podría afectar la construcción de relaciones interpersonales. También existe la posibilidad de que los chatbots, diseñados para interactuar de manera complaciente, refuercen pensamientos problemáticos o proporcionen información inexacta presentada de forma convincente, lo que podría influir en decisiones relacionadas con salud o relaciones personales. A ello se suman riesgos de exposición a contenidos inapropiados y la posibilidad de que menores con mayores conocimientos técnicos eludan restricciones de seguridad.
En cuanto a la privacidad, se advierte que cualquier información personal o financiera ingresada en estas plataformas puede ser almacenada por el proveedor del servicio y, en determinados escenarios, quedar expuesta ante terceros o vulneraciones de seguridad. Además, dependiendo del país o del chatbot utilizado, puede existir escasa verificación de edad o moderación de contenidos, lo que incrementa la responsabilidad de los adultos en la supervisión.
Entre las señales de una posible relación poco saludable con la inteligencia artificial se mencionan:
“En muchas jurisdicciones, los chatbots de IA están restringidos a usuarios mayores de 13 años. Sin embargo, dada la irregularidad o complejidad en su aplicación, es posible que se tenga que tomar cartas en el asunto. Las conversaciones importan más que los controles por sí solos. Para obtener los mejores resultados, consideremos la posibilidad de combinar los controles técnicos con la educación, el asesoramiento y sobre todo el acompañamiento, impartidos de forma abierta y sin confrontación”, comenta Luis Lubeck, vocero de Argentina Cibersegura. Asimismo, se recomienda fomentar el pensamiento crítico, limitar el tiempo de uso, activar controles parentales y recordar que estas herramientas no sustituyen el acompañamiento humano en el desarrollo emocional de los menores.
El uso de chatbots de inteligencia artificial se ha extendido con rapidez en los últimos años, incluyendo entre población infantil y adolescente. Plataformas como ChatGPT reportan cientos de millones de usuarios activos semanales, mientras que estudios recientes en el Reino Unido indican que una proporción significativa de niños utiliza este tipo de herramientas. En paralelo, crece la preocupación de padres y cuidadores ante la posibilidad de que los menores perciban a estos sistemas como personas reales.
Expertos en ciberseguridad advierten que el uso frecuente de esta tecnología por parte de niños y adolescentes plantea retos en materia de seguridad, privacidad y bienestar emocional. “Están surgiendo preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes. Como adultos responsables, no se puede dar por sentado que todos los proveedores de plataformas cuentan con medidas eficaces de seguridad y privacidad adecuadas para los infantes. Incluso cuando existen protecciones, su aplicación no es necesariamente coherente, y la propia tecnología evoluciona más rápido que las políticas”, señala Martina López, investigadora en seguridad informática.
Entre los principales riesgos identificados figura el impacto psicológico y social. Algunos menores pueden recurrir a la inteligencia artificial como compañía digital, lo que podría afectar la construcción de relaciones interpersonales. También existe la posibilidad de que los chatbots, diseñados para interactuar de manera complaciente, refuercen pensamientos problemáticos o proporcionen información inexacta presentada de forma convincente, lo que podría influir en decisiones relacionadas con salud o relaciones personales. A ello se suman riesgos de exposición a contenidos inapropiados y la posibilidad de que menores con mayores conocimientos técnicos eludan restricciones de seguridad.
En cuanto a la privacidad, se advierte que cualquier información personal o financiera ingresada en estas plataformas puede ser almacenada por el proveedor del servicio y, en determinados escenarios, quedar expuesta ante terceros o vulneraciones de seguridad. Además, dependiendo del país o del chatbot utilizado, puede existir escasa verificación de edad o moderación de contenidos, lo que incrementa la responsabilidad de los adultos en la supervisión.
Entre las señales de una posible relación poco saludable con la inteligencia artificial se mencionan:
“En muchas jurisdicciones, los chatbots de IA están restringidos a usuarios mayores de 13 años. Sin embargo, dada la irregularidad o complejidad en su aplicación, es posible que se tenga que tomar cartas en el asunto. Las conversaciones importan más que los controles por sí solos. Para obtener los mejores resultados, consideremos la posibilidad de combinar los controles técnicos con la educación, el asesoramiento y sobre todo el acompañamiento, impartidos de forma abierta y sin confrontación”, comenta Luis Lubeck, vocero de Argentina Cibersegura. Asimismo, se recomienda fomentar el pensamiento crítico, limitar el tiempo de uso, activar controles parentales y recordar que estas herramientas no sustituyen el acompañamiento humano en el desarrollo emocional de los menores.