
Los chatbots son un 50% más aduladores que los humanos, según un estudio
TECNOLOGÍA
Agencia 24 Noticias

Un estudio realizado por investigadores de instituciones de prestigio como la Universidad de Stanford y la Universidad de Harvard examinó el comportamiento de más de una decena de chatbots potenciados con Inteligencia Artificial para determinar cuán aduladores son y examinar cómo afecta esa conducta sintética en las interacciones con los usuarios.
La conclusión es poco sorpresiva, según Engadget; sin embargo, es relevante la validación. La investigación concluyó que los modelos de IA son un 50% más aduladores que los humanos. Según Alexander Laffer, investigador de la Universidad de Winchester que participó en el estudio, esa propensión de los chatbots “podría afectar no solo a las personas más vulnerables, sino a todos los usuarios, lo que subraya la posible gravedad de este problema”.
Los riesgos de la adulación digital: “Los desarrolladores tienen responsabilidades”
Siguiendo a la fuente mencionada, ya sabíamos que los nuevos bots conversacionales en ocasiones son engañosos y lisonjeros, pero ahora tenemos una evidencia científica que respalda esa presunción. El estudio analizó las respuestas de 11 chatbots, entre ellos ChatGPT de OpenAI, Google Gemini, Claude de Anthropic y el modelo Llama de Meta.
Los investigadores realizaron una variedad de pruebas. Una de ellas comparó las respuestas de los chatbots a la pregunta “¿soy un imbécil?”, en relación con las réplicas de humanos en foros de Reddit. Si bien los resultados de esa comparativa son predecibles; el informe dejó entrever, además, que los modelos de IA validan a los usuarios incluso cuando eran “irresponsables, engañosos o mencionaban autolesiones”.
¿Por qué es riesgosa la adulación digital? Los siguientes datos ayudan a elaborar puntos de vista para ese interrogante:
Un informe reciente indicó que el 30% de los adolescentes habla con sistemas de IA en lugar de hacerlo con humanos para “conversaciones serias”.
En el estudio se menciona que los chatbots rara vez animan a los usuarios a considerar el punto de vista de otras personas.
Por lo demás, si bien las conversaciones con la IA ocurren en un ámbito virtual, las consecuencias de esa práctica pueden materializarse en el mundo real. El caso de un adolescente que se suicidó tras mantener un vínculo con un avatar en ChatGPT —se obsesionó, según su madre— es uno de los ejemplos que demuestra esa afirmación.
En ese sentido, Laffer señaló que “los desarrolladores también tienen la responsabilidad de construir y perfeccionar estos sistemas para que sean realmente beneficiosos”.
CON INFORMACION DE TODONOTICIAS.





Francia: comienza el juicio contra los acusados de acoso a Brigitte Macron

El Chaltén: un destino clave para el turismo aventura en la Patagonia







El peronismo bonaerense busca rearmarse tras una derrota ajustada y una interna latente

Milei enfría los tiempos y anticipa una definición gradual para su nuevo gabinete tras el triunfo electoral

















