Equipo de verificación de hechos: ¿Qué es «AI slop» y cómo está impactando a los estadounidenses?

El contenido generado por inteligencia artificial (IA) es tan común en línea que ha recibido el apodo de "AI slop", que se refiere a contenido digital de baja calidad producido en grandes cantidades por IA, incluyendo imágenes falsas, videos sintéticos, artículos de bajo esfuerzo, memes políticos y publicaciones orientadas a la interacción.

Según Merriam-Webster, "slop" se define como "contenido digital de baja calidad que se produce generalmente en cantidad mediante inteligencia artificial". Merriam-Webster seleccionó "slop" como su Palabra del Año 2025, destacando el creciente uso del término a medida que el material generado por IA se difunde en internet. Los expertos advierten que la preocupación no es solo que el AI slop sea molesto o de baja calidad, sino que el problema radica en la escala. Las herramientas de IA permiten generar rápidamente artículos, imágenes, videos y publicaciones falsas que pueden parecer legítimas a primera vista. Según el Observatorio Europeo de Medios Digitales, el AI slop puede hacer que el entorno informativo sea menos confiable cuando el material generado por IA falso o engañoso se presenta como real. EDMO advirtió que esto puede afectar la comprensión de las personas sobre la política, las instituciones y las elecciones.

Esto es crucial porque la democracia depende de que los votantes puedan separar los hechos de la ficción. Cuando las redes sociales, los resultados de búsqueda y los sitios web de estilo noticioso están inundados de material generado por IA, se vuelve más difícil para los usuarios saber qué es real, qué es sátira, qué es propaganda y qué es simplemente un cebo de interacción. Ya hay ejemplos de contenido generado por IA utilizado en entornos políticamente cargados. Según el informe "Libertad en la Red" de Freedom House de 2025, la innovación en IA ha ayudado a automatizar operaciones de influencia al reducir sus costos y aumentar su eficiencia. Freedom House citó el ejemplo de India y Pakistán tras el aumento de tensiones después de un ataque terrorista en Cachemira en abril de 2025, diciendo que influenciadores y comentaristas vinculados al gobierno en ambos países publicaron oleadas de contenido inflamatorio generado por IA que ahogaron información confiable.

El gobierno de EE. UU. también ha vinculado las herramientas de IA a operaciones de influencia extranjera. Según el Departamento del Tesoro de EE. UU., se sancionaron entidades rusas e iraníes en diciembre de 2024 por supuestos esfuerzos para interferir en las elecciones estadounidenses de 2024. El Tesoro dijo que un grupo con sede en Moscú, el Centro para la Experiencia Geopolítica, utilizó herramientas de IA generativa para crear rápidamente desinformación y distribuirla a través de una red de sitios web diseñados para imitar medios de comunicación legítimos. El Tesoro también mencionó que el grupo manipuló un video que involucraba a un candidato a la vicepresidencia de 2024 en un intento de sembrar discordia entre los votantes estadounidenses.

No todo el AI slop es político; gran parte es comercial. Según NewsGuard, muchos sitios de granjas de contenido de IA están "hechos para publicidad", diseñados para producir contenido de baja calidad y atraer ingresos publicitarios programáticos. NewsGuard informó que su sistema había identificado 3,006 sitios de granjas de contenido de IA hasta marzo de 2026, y que el número se había más que duplicado en el año anterior.

El incentivo financiero es claro: la IA hace que sea barato producir grandes cantidades de contenido, y las plataformas en línea a menudo recompensan el material que genera clics, vistas, comentarios y compartidos. NewsGuard afirma que estos sitios web a menudo utilizan nombres genéricos, publican grandes volúmenes de contenido y pueden parecer a los lectores como sitios de noticias o información legítimos, incluso cuando gran parte del material es generado por IA y no se divulga claramente.

Las plataformas de video también están viendo esta tendencia. Según un estudio de Kapwing de 2025, los investigadores encontraron que entre el 21% y el 33% del feed de un nuevo usuario de YouTube podría consistir en videos de AI slop o videos de "brainrot". The Guardian, citando la investigación de Kapwing, informó que más del 20% de los videos recomendados a nuevos usuarios de YouTube eran de baja calidad y producidos en masa por IA. El mismo informe mencionó que Kapwing identificó cientos de canales completamente generados por IA con grandes audiencias y un ingreso estimado significativo.
¿Cómo puede la proliferación de contenido generado por IA afectar la percepción pública de la información y la verdad en la era digital?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN TNND EL 16 de mayo de 2026. Leer original

https://komonews.com/news/nation-world/fact-check-team-what-is-ai-slop-and-how-is-it-impacting-americans-technology-digital-media-artificial-intelligence?teaserSource=trending

Otras entradas que te pueden interesar