La inteligencia artificial Grok de X desinforma sobre la guerra en Irán al confundir imágenes y vídeos actuales con eventos pasados, según expertos que advierten sobre su uso para verificación de hechos.

Compartir:

La inteligencia artificial Grok, desarrollada por X, ha sido objeto de críticas por su incapacidad para verificar hechos relacionados con la guerra en Oriente Medio. Usuarios de redes sociales han solicitado a Grok que confirme la veracidad de imágenes y vídeos, pero la IA ha proporcionado respuestas erróneas. Un caso notable ocurrió el 7 de marzo, cuando Grok identificó un vídeo de un misil impactando un edificio en Beirut como un evento de las Fallas de Valencia en 2026, a pesar de que el ataque tuvo lugar el 22 de noviembre de 2024, resultando en al menos 29 muertes en la capital libanesa.

El 9 de marzo, Grok también confundió un incendio en Escocia con un incidente en Tel Aviv, afirmando que el vídeo mostraba a bomberos combatiendo un incendio en la ciudad israelí. Sin embargo, la geolocalización del vídeo reveló que se trataba de un incendio en la estación de tren de Glasgow, que causó el derrumbe de su cúpula. Además, Grok desinformó al afirmar que un vídeo de incendios en Teherán era en realidad un clip antiguo del incendio de Skirball en Los Ángeles en 2017, cuando en realidad el vídeo era actual y se registraba en Teherán.

Expertos como Tal Hagin y el periodista de la BBC Shayan Sardarizadeh han advertido que Grok está desorientando a los usuarios y que su modelo actual es ineficaz para la verificación de hechos. La situación pone de relieve los riesgos de confiar en inteligencia artificial para la verificación de información en contextos críticos como el conflicto en Oriente Medio.

¿Qué implicaciones tiene la desinformación generada por la inteligencia artificial en la percepción pública de conflictos internacionales?

.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN RTVE EL 10 de marzo. Leer original

Otras entradas que te pueden interesar

Compartir:
← Volver a la portada