Los asistentes de Inteligencia Artificial, herramientas que cada vez más personas utilizan para mantenerse informadas, aún están lejos de alcanzar la precisión periodística que prometen. Una investigación internacional encabezada por la Unión Europea de Radiodifusión (UER) y la BBC reveló que los principales modelos de IA tergiversan o inventan información en casi la mitad de sus respuestas relacionadas con noticias recientes.
El estudio analizó 3.000 respuestas generadas por los asistentes ChatGPT, Copilot, Gemini y Perplexity en 14 idiomas. Los resultados muestran que el 45% de las respuestas presentaban errores importantes y que el 81% tenía algún tipo de problema de precisión, contexto o atribución. Los expertos advierten que estos fallos podrían poner en riesgo la confianza de los usuarios que utilizan estas plataformas para informarse sobre temas de actualidad.
Las compañías detrás de estos sistemas, como OpenAI, Microsoft y Google, han reconocido en diversas ocasiones que el fenómeno conocido como “alucinaciones” —cuando la IA genera información falsa o no verificada— sigue siendo un desafío técnico y ético por resolver.
Fuente: INFOBAE





Comentarios