
Alerta por la IA: advierten que confiar demasiado en los chatbots puede afectar el pensamiento crítico
TECNOLOGÍA
Agencia 24 NoticiasUn estudio reciente encendió una señal de alerta sobre el uso cotidiano de la inteligencia artificial: confiar ciegamente en sus respuestas podría llevar a una pérdida progresiva de la capacidad de análisis propio. La investigación, realizada por la Universidad de Pensilvania, identificó este fenómeno como “rendición cognitiva”.

El concepto describe la tendencia de algunos usuarios a aceptar lo que dice un sistema de inteligencia artificial sin cuestionarlo ni verificar su validez. Según los investigadores, el problema no radica únicamente en los posibles errores de los chatbots, sino en la forma en que las personas interactúan con ellos.
El trabajo detectó que, frente a respuestas bien redactadas, con tono seguro y convincente, muchos usuarios optan por confiar automáticamente en el sistema, dejando de lado el análisis crítico. En ese contexto, la IA no solo responde: también influye en cómo se procesa la información.
Los datos son contundentes. En el 73,2% de los casos analizados, los participantes aceptaron razonamientos incorrectos generados por un chatbot. En contraste, solo el 19,7% logró identificar y corregir esos errores.
Para llegar a estas conclusiones, el estudio se basó en más de 9500 pruebas realizadas con 1372 personas, con el objetivo de medir cómo cambia la resolución de problemas simples cuando interviene una herramienta automatizada.
El hallazgo abre un debate más amplio sobre el impacto de la IA en la vida cotidiana. Si bien estas tecnologías ofrecen rapidez y acceso inmediato a la información, también plantean un desafío: mantener activo el pensamiento crítico en un entorno donde las respuestas llegan cada vez más elaboradas y persuasivas.
En definitiva, el riesgo no es solo que la inteligencia artificial se equivoque, sino que los usuarios dejen de cuestionarla.


Avanza la investigación por $LIBRA con nuevas pericias y foco en vínculos y comunicaciones clave
























