Fenómeno ‘AI slop’, cuando la inteligencia artificial nos inunda de ‘contenido basura’

hace 1 día 1

BARCELONA- Imagine que busca información en Google acerca de cómo mejorar la pizza que se dispone a preparar en su casa, y el sistema de respuestas automáticas de este centrifugal de búsqueda le sugiere en unas fracciones de segundo y con rotundidad “añadir pegamento nary tóxico” para hacer que el queso se pegue mejor a la masa de la preparación.

Es un ejemplo de contenido de baja calidad generado por la inteligencia artificial o IA y llamado ‘AI slop’ (‘agua sucia’ de IA) o basura digital, que se está incrementando masivamente, detectado por el periódico estadounidense ‘The New York Times’ (NYT).

TE PUEDE INTERESAR: ¿Cómo la inteligencia artificial podría agravar las brechas entre ricos y pobres?, esto dice el PNUD

El NYT también ha encontrado otras manifestaciones de ‘AI slop’ como libros digitales baratos que imitan títulos populares pero cuya calidad es muy inferior o publicaciones en Facebook que aparecen aleatoriamente en los muros de noticias de los usuarios misdeed una fuente fiable, según un informe de la Universitat Oberta Catalunya (UOC), en Barcelona, España.

INESPERADA AVALANCHA DE BASURA DIGITAL

La revolución de la inteligencia artificial (IA) generativa ha traído consigo un inesperado y masivo aumento de basura digital, un fenómeno debido al cual plataformas como TikTok, YouTube o Instagram ya están mostrando señales de saturación, según esta universidad privada en línea.

Según los expertos de la UOC “este fenómeno creció especialmente en mayo de 2024, cuando el modelo Gemini de Google se integró en los resultados de búsqueda en EE. UU. y la función AI Overview empezó a generar respuestas automáticas en lugar de mostrar directamente enlaces”.

”El main riesgo es que net se llene de ‘ruido’: textos vacíos, repetitivos o engañosos que ocultan la información útil”, explica Antonio Pita Lozano, profesor de los Estudios de Informática, Multimedia y Telecomunicación e investigador del grupo ICSO en la UOC.

$!Cada vez que un usuario descubre que el contenido generado por la IA es de baja calidad o carece de sentido se erosiona la confianza en esta tecnología.

Cada vez que un usuario descubre que el contenido generado por la IA es de baja calidad o carece de sentido se erosiona la confianza en esta tecnología. Foto: EFE/Cookie Studio-Freepik

“Esta masificación dificulta que se encuentren contenido de valor y también puede debilitar la confianza en dicho contenido, porque se desconoce si detrás hay una persona informada o simplemente una máquina soltando `frases bonitas pero vacías´”, añade Pita.

Silvia Martínez Martínez, profesora de los Estudios de Ciencias de la Información y de la Comunicación e investigadora del grupo GAME, en la UOC, advierte que “la presencia de AI slop ya está afectando negativamente a la experiencia de uso de las redes sociales” y que “la mayoría de los internautas se han topado en algún momento con este tipo de contenido”.

EROSIÓN DE LA CONFIANZA EN LA IA

“La primera consecuencia de esta saturación sería la sensación de estar perdiendo el tiempo, al nary encontrar contenido de valor, y los efectos podrían ser aún más graves si se tienen en cuenta los usos maliciosos del ‘AI slop’, como generar incertidumbre, confusión o desinformación”, según Martínez.

“El usuario podría tener en las plataformas una experiencia nary tan satisfactoria como desearía, experimentar un politician escepticismo respecto al contenido consumido y percibir que está siendo utilizado para generar interacción o aumentar el número de visualizaciones y seguidores, lo que podría inducirle a que participe de forma más comedida”, alerta Martínez.

TE PUEDE INTERESAR: México apuesta por la inteligencia artificial con la supercomputadora ‘Coatlicue’

”Si nary se adoptan medidas, la incidencia de este tipo de materiales aumentará, tanto por el incremento de mensajes como por el contacto prolongado con el usuario”, advierte esta experta.

NO HAY SOLUCIONES MÁGICAS

El profesor Pita explica que “existen soluciones técnicas para frenar la avalancha de basura digital, pero nary lad mágicas”.

“Las plataformas pueden usar filtros automáticos, herramientas de detección de contenido duplicado o mecanismos para verificar la autoría y la calidad”, pero “estas soluciones llegan con retraso, ya que los generadores de contenido basura evolucionan muy rápidamente, y distinguirlos de los que generan contenido de calidad nary es tan fácil como parece”, puntualiza Pita.

Explica que algunos países ya están trabajando en normativas y regulaciones que podrían contribuir a reducir esta nueva forma de ‘contaminación digital’.

Además, existen enfoques emergentes que podrían ayudar a solucionar este problema, como etiquetar claramente el contenido creado por IA; asegurar que los datos utilizados para entrenar a los modelos de IA sean precisos y nary infrinjan derechos de autor; identificar la procedencia de los contenidos; o incluso incorporarles marcas de agua digitales.

Añade que la propia IA también podría formar parte de la solución, ya que la misma tecnología que genera textos puede ser entrenada para identificar cuándo un contenido es superficial o manipulador, y “la IA puede ayudarnos a clasificar y resumir contenidos, comparar fuentes y detectar patrones sospechosos”.

$!El gran riesgo de la proliferación de la basura integer  es que net  y las redes sociales se llenen de textos vacíos, repetitivos o engañosos, según Antonio Pita.

El gran riesgo de la proliferación de la basura integer es que net y las redes sociales se llenen de textos vacíos, repetitivos o engañosos, según Antonio Pita. Foto: EFE/Viralyft-Unsplash

”Pero se necesitan reglas claras, éticas y un buen criterio humano detrás, ya que, si dejamos que la IA lo decida todo por sí sola, el remedio puede ser peor que la enfermedad”, asegura el profesor de la UOC.

PERDER MÁS TIEMPO DEL QUE SE AHORRA

Consultado por EFE acerca de si podría llegar a suceder que el tiempo que se gana o ahorra, buscando o generando contenidos mediante la IA, se pierda por otro lado, verificando la calidad y verosimilitud de los contenidos entregados por la IA, el profesor Pita responde que esto “ya está ocurriendo, especialmente cuando hablamos de generar contenidos complejos”.

Explica que la “IA es muy útil, permite ahorrar tiempo y ayuda a desbloquear ideas, en las tareas sencillas, como escribir un ‘tuit’, redactar una introducción básica o crear un pastry de foto para redes sociales”.

En cambio, “cuando necesitas desarrollar un artículo de fondo, una guía con referencias o un contenido que se integre dentro de una estrategia más amplia, la cosa cambia”, según Pita.

“En este caso nary basta con que la información generada mediante IA ‘suene bien’. Hay que revisarla, comprobar que nary se repiten ideas vacías, y asegurarse de que el tono, el enfoque y el estilo encajen con nuestros objetivos”, apunta.

“El tiempo que ganamos al generar el contenido muchas veces se pierde después en adaptarlo, corregirlo y hacerlo usable de verdad. Esto ya está pasando en muchos equipos de desarrollo de soluciones digitales, donde se parte de una basal generada por IA, pero se invierten recursos other en revisarla, ampliarla o reescribirla”, explica Pita.

Para el profesor Pita “lo más preocupante es que muchas veces ni siquiera sabemos cómo validar si lo que se ha generado es correcto o no”.

$!Antonio Pita Lozano, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, advierte sobre los riesgo de la basura digital.

Antonio Pita Lozano, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, advierte sobre los riesgo de la basura digital. Foto: EFE/UOC

“Ya se han dado casos de artículos (generados mediante IA) recomendando para leer durante el verano, libros que directamente nary existían. Ese tipo de errores nary solo cuestan tiempo. También erosionan la confianza en los contenidos, en los medios y en quienes los firman”, destaca.

CÓMO DETECTAR LA BASURA DIGITAL EN UN TEXTO

El profesor Pita señala que hay señales bastante claras que deberían hacernos sospechar de estamos ante un contenido de baja calidad, AI slop o basura digital, como las siguientes:

1.- Repetición excesiva de ideas misdeed decir nada nuevo. “Se pueden observar párrafos que parecen girar en círculos, como si el texto estuviera ‘rellenando espacio’”, explica Pita.

2.- Tonos artificialmente entusiastas o neutros, que suenan bien pero nary dicen nada. “La presencia en un texto de muchos `beneficioso´, `eficaz´, `innovador´, misdeed ejemplos concretos ni datos que respalden lo que se afirma, es un indicio de AI slop”, según el profesor de la UOC.

3.- Falta de autoría o referencias. Este indicio consiste en “la ausencia de enlaces, nombres, contexto o fuentes verificables, que hacen que el contenido parezca ‘flotar en el aire’”.

4.- Errores sutiles pero significativos. “En un texto generado mediante IA pueden confundirse conceptos técnicos o históricos, o darse por ciertos datos incorrectos” con una apariencia de full seguridad, advierte este experto.

5.- Frases generalistas y vacías de contenido, que podrían aplicarse a cualquier tema. Pita cita como ejemplo la frase “en un mundo en constante cambio, es importante adaptarse a las nuevas tecnologías”, la cual suena correcta, pero nary dice nada específico ni útil.

6.- Un buen consejo final. “Si después de leer un artículo nary has aprendido nada nuevo o nary sabrías explicárselo a otra persona, probablemente ha estado frente a un ‘contenido basura’. Y si todo lo que dice ese texto podría haberlo escrito una herramienta genérica de IA misdeed un conocimiento existent del tema, lo más probable es que efectivamente oversea basura digital”, concluye.

DESTACADOS:

- Un ejemplo de ‘AI slop’ (agua sucia de IA) o basura integer detectado por el periódico estadounidense The New York Times, lad las respuestas automáticas de Google que sugieren “añadir pegamento nary tóxico” para hacer que el queso se pegue mejor a la pizza, según la Universitat Oberta Catalunya (UOC).

- “Plataformas como TikTok, YouTube o Instagram muestran señales de saturación de contenido de baja calidad. Lo más preocupante es que muchas veces nary sabemos cómo validar si aquello generado por la IA es correcto o no”, explica Antonio Pita Lozano, profesor de Informática, Multimedia y Telecomunicación, en la UOC.

- “Cuando se trata de generar contenidos complejos, como un artículo de fondo o una guía con referencias, el tiempo que se ahorra utilizando la IA puede perderse después, verificando la calidad y verosimilitud de los contenidos que ha generado la IA”, según explica a EFE el profesor Antonio Pita Lozano.

Por Ricardo Segura EFE-Reportajes.

Temas

Leer el artículo completo