TheSpaineTime

ChatGPT enfrenta una nueva polémica al usar como fuente Grokipedia, la enciclopedia de Musk

2026-01-27 - 08:49

OpenAI presentó GPT-5.2 a mediados del pasado diciembre para abordar tareas complejas con una mayor precisión, resolver paso a paso problemas de matemáticas y logística, obtener respuestas inteligentes y confiables, conseguir explicaciones más claras, mejorar la estructura de código, interpretar con mayor valor las imágenes y comprender contextos extensos, entre otras de sus capacidades. Sin embargo, lo que la compañía de Sam Altman destacó fue la capacidad de proporcionar contestaciones precisas y con menos alucinaciones, aunque, en los últimos días, la fiabilidad de GPT-5.2 se ha puesto en duda. El diario The Guardian ha dado a conocer que el modelo GPT-5.2 cita artículos de Grokipedia, la enciclopedia impulsada por la inteligencia artificial Grok que pretende plantar cara a Wikipedia. Y a consecuencia de ello, las mejoras que ofrece GPT-5.2 se han visto empañadas por la incertidumbre sobre una posible desinformación relacionada con las fuentes que emplea el modelo de OpenAI para proporcionar respuestas e información. Si bien es cierto que las citas a Grokipedia no se han registrado en preguntas relacionadas con temas en los que se ha criticado que promueve información errónea —como la insurrección, el sesgo mediático contra Donald Trump o la epidemia del VIH/SIDA—, sí aparece en temas menos comunes —como los conglomerados iraníes y negacionistas del Holocausto—. Además, como explica The Guardian, la cita de artículos de Grokipedia alerta sobre la fiabilidad de la información que ofrece ChatGPT. Esto se debe a que los artículos son generados por Grok y a que la propia enciclopedia está pensada para combatir el supuesto sesgo de Wikipedia, teniendo en cuenta que los artículos escritos por la IA de Elon Musk admite correcciones de usuarios que posteriormente revisa y aprueba o rechaza. ¿Qué dice OpenAI al respecto? Un portavoz de OpenAI afirma a The Guardian que la búsqueda web del modelo "tiene como objetivo aprovechar una amplia gama de fuentes y puntos de vista disponibles públicamente", añadiendo que aplican "filtros de seguridad para reducir el riesgo de que surjan vínculos asociados con daños de alta gravedad" porque "ChatGPT muestra claramente qué fuentes informaron una respuesta a través de citas". No obstante, pese a que OpenAI tenga programas en curso para filtrar información de baja credibilidad y campañas de influencia para filtrar la información de Grok, es cierto que se genera cierta preocupación por la desinformación porque la información errónea, una vez filtrada a un chatbot de IA, puede ser difícil de eliminar.

Share this post: