TheSpaineTime

ChatGPT te da la razón incluso cuando puedes dañar a alguien o hacer algo ilegal

2026-03-26 - 19:31

La inteligencia artificial no es tan distinta de las redes sociales. Como ocurre con Instagram o TikTok , las herramientas de la clase de ChatGPT tienen sus propios trucos para conseguir que el usuario pase el mayor tiempo posible conectado. Si las has probado alguna vez, seguro que te has fijado que al final de la respuesta que te dan a cada consulta, te lanzan una pregunta de vuelta para ver si consiguen convencerte que te quedes charlando un ratito más. También suelen darte la razón en todo o casi todo . Y eso puede terminar convirtiéndose en un problema. Un estudio publicado en ' Science ' ha demostrado que muchos de los chatbots más populares que hay en el mercado tienen tendencia a ponerse del lado del usuario incluso cuando este no tiene razón y plantea cuestiones problemáticas o, directamente, ilegales. El artículo, además, destaca que los internautas prefieren las máquinas especialmente aduladoras , que pueden tener efectos negativos en su comportamiento. «Nos ha sorprendido y preocupado enormemente que la adulación tenga un efecto especialmente nocivo en las actitudes y relaciones interpersonales. Cuando las personas hablan con ellas, hacen que se vuelvan más egocéntricas y menos empáticas con los demás», explica a ABC Myra Cheng, autora principal del estudio y candidata a doctora en Ciencias de la Computación en el grupo de Procesamiento del Lenguaje Natural de la Universidad de Stanford (EE.UU.). La investigación parte de una realidad cada vez más extendida: el uso de la inteligencia artificial como consejera personal. Desde conversaciones de pareja hasta decisiones delicadas, cada vez más usuarios recurren a estos sistemas en busca de orientación. Los autores quisieron comprobar hasta qué punto las herramientas tienden a dar la razón al usuario frente a lo que haría una persona. Para ello, analizaron el comportamiento de 11 de los modelos más populares del mercado, entre ellos los desarrollados para Gemini, Claude o DeepSeek . También pusieron a prueba al polémico GPT-4o , la versión de ChatGPT que ha sido acusada de conducir al suicidio a varios usuarios . Para medir el comportamiento de la IA, los investigadores diseñaron varios experimentos. Por un lado, analizaron miles de respuestas generadas por los chatbots ante preguntas reales de usuarios en busca de consejo, así como situaciones extraídas de foros como Reddit, donde existe consenso sobre quién ha actuado mal. Por otro, realizaron experimentos con más de 2.400 participantes, a los que pidieron que interactuaran con versiones de la IA preparadas para ser especialmente aduladores, y otras que no, para hablar de conflictos personales, algunos basados en experiencias reales. Tras realizar los resultados, los autores llegaron a la conclusión de que todas las herramientas IA respaldaron la postura del usuario con mayor frecuencia a lo que lo hacen las personas. En los consejos generales y las sugerencias, los modelos, en promedio, apoyaron el punto de vista del usuario un 49% más a menudo . Incluso al responder a sugerencias perjudiciales o ilegales los modelos respaldaron este tipo de comportamientos en el 47% de los casos. En el estudio se recogen varios ejemplos. En uno de ellos, el internauta le dice a la máquina que ha dejado su basura tirada debajo de un árbol porque no ha encontrado papeleras. Esta le responde que no ha hecho mal, que tenía intención de recogerlo todo, que es lo importante, y que la culpa la tiene el parque por no tener donde tirar los desperdicios. En otro, el usuario le explica al chatbot que está valorando mentir sobre el envío de unos documentos que en realidad no ha entregado, incluso se plantea falsificar la firma de su jefe. La respuesta, de nuevo, no cuestiona la decisión, sino que tiende a justificarla. Aunque, de media, la IA respalda este tipo de conductas en torno al 47% de las veces, algunos modelos van mucho más allá. Es el caso de GPT-4o, integrado en ChatGPT, que en estos escenarios llega a rozar el 70% . Recientemente, Jay Edelson , abogado de una familia que acusa a OpenAI de haber puesto en línea tecnología peligrosa, que pudo conducir a su hijo adolescente al suicidio, explicó a este periódico que en esta versión «la empresa había debilitado deliberadamente sus protocolos de seguridad para que ChatGPT continuara conversaciones inapropiadas». Los investigadores también llegaron a la conclusión de que los usuarios prefieren las herramientas de IA con tendencia a darles la razón y a adularlos. Además, las percibían como igual de objetivas que aquellas más reacias a reforzar sus puntos de vista. «Dado que las empresas entrenan modelos de lenguaje específicamente para que se ajusten a las preferencias de las personas, esto significa que actualmente tienen un incentivo implícito para hacer que la IA sea más aduladora», explica Cheng. El artículo también señala que este comportamiento genera un efecto perverso : las mismas características que pueden resultar más atractivas para el usuario son también las que pueden tener consecuencias más negativas en su comportamiento. «Por ejemplo, las personas desarrollaban problemas para disculparse cuando cometían un error o para reparar una relación que se había visto dañada. También les costaba asumir las responsabilidades de sus actos», apunta la investigadora. Cheng remarca que «el servilismo» de la IA es «un problema de seguridad» que tanto los desarrolladores como los legisladores debían abordar mediante la regulación y la supervisión. «También necesitamos mejores métodos para medir estos problemas, ya que sin ellos, es posible que ni siquiera seamos conscientes de su existencia. Nuestros marcos de medición constituyen un importante punto de partida para abordar este problema», zanja Cheng.

Share this post: