Un análisis preocupante sobre los asistentes de IA
Un estudio conjunto de la European Broadcasting Union (EBU) y la British Broadcasting Corporation (BBC) ha revelado que aproximadamente el 45 % de las respuestas generadas por los principales asistentes de inteligencia artificial contienen errores significativos. Los investigadores analizaron cerca de 3.000 respuestas en 14 idiomas que provinieron de herramientas de IA como ChatGPT, Copilot, Gemini y Perplexity. Los resultados son llamativos:
- El 81 % de las respuestas presentaban al menos algún tipo de problema relevante.
- El 33 % contenía errores graves de fuente (por ejemplo, atribuciones incorrectas o sin respaldo).
- El 20 % incluía información desactualizada o directamente errónea (por ejemplo, datos legislativos que no correspondían).
El análisis destaca que herramientas como Gemini mostraron una tasa particularmente alta de problemas de atribución (72 %) respecto a algunas tareas relacionadas con fuentes.
Implicaciones para la confianza y la democracia
Con un porcentaje creciente de personas que usan asistentes de IA para informarse —en algunos segmentos hasta 15 % de los menores de 25 años— estas fallas podrían socavar la confianza pública en la información y, en un sentido más amplio, afectar la participación democrática.
El estudio advierte que, a medida que estas herramientas se convierten en intermediarias de noticias o fuentes de consulta, los fabricantes de IA necesitan mejorar la precisión, ofrecer transparencia sobre las fuentes y diferenciar claramente entre hechos y opiniones.
¿Qué podemos hacer como usuarios?
– Verificar siempre la información cuando la recibimos de un asistente de IA, especialmente si se usa para decisiones importantes.
– Consultar múltiples fuentes, preferiblemente humanas o de medios establecidos.
– Exigir mayor transparencia a las compañías de IA sobre cómo entrenan sus modelos, de dónde obtienen las fuentes y cuáles son sus mecanismos de corrección de errores.
– Como comunidad, mantener un debate activo sobre el rol de la IA en la comunicación, el periodismo y la difusión de información.
Conclusión
Este estudio nos recuerda que, aunque la inteligencia artificial aporta herramientas poderosas, no es infalible. La tecnología evoluciona rápido, pero también lo hacen los retos de confianza, credibilidad y ética. Aprovecharla de forma responsable significa mantener ojos críticos y fomentar buenas prácticas.
¿Te gustaría que escribiera otro artículo sobre cómo algunas empresas están respondiendo a este reto o sobre nuevos desarrollos en asistentes de IA? No dudes en decírmelo.
Si quieres estar al día en lo último de la inteligencia artificial, la innovación tecnológica y sus implicaciones, te invito a suscribirte al blog y seguir explorando con nosotros.
