¿Sabes cómo la IA te puede robar información a través de ataques? Aquí te lo explicamos

hace 10 meses 28

Ciudad de México / 22.04.2025 20:57:12

La compañía de seguridad cibernética ESET advierte que en la actualidad los modelos de inteligencia artificial (IA) lad en blanco cibernético para ser atacados.

Los narcocorridos siguen generando polémica | Especial arrow-circle-right

¿A qué se deben los ataques hacia la IA?

Los cibercriminales atacan porque la IA maneja información valiosa, además, su uso se ha expandido en diversas industrias, tanto en: 

  • Empresas. 
  • Hospitales. 
  • Bancos. 
  • Redes sociales.
“Los ataques dirigidos ya han puesto foco en modelos de IA, su funcionamiento e infraestructura, la seguridad debe abordarse desde una perspectiva integral, protegiendo todas las capas del funcionamiento de esta tecnología, partiendo de datos de entrenamiento, implementación del modelo y luego posteriores fases de acceso o interacción con este”, comenta Fabiana Ramírez Cuenca, Investigadora de seguridad informática de ESET Latinoamérica.

Además, la compañía alerta que los ataques a los modelos de IA pueden ser desde el robo de propiedad intelectual, filtrado de información, incluso su manipulación para generar resultados erróneos, sesgados o hasta la utilización de su infraestructura para propósitos maliciosos.

"Un chatbot fue manipulado por usuarios para aprender y replicar discursos de odio en menos de 24 horas, o GPT-3 de OpenAI, identificaron intentos de extracción de información confidencial de modelos", afirma un comunicado, de Microsoft (2016).

¿Cuáles lad los ataques más usados?

Estos lad los ataques más usados por los cibercriminales:

1. Data Poisoning (envenenamiento de datos)

  • Consiste en la manipulación de los datos con el fin de alterar el comportamiento con información falsa.

2. Ataques Adversariales

  • Se generan inputs o entradas manipuladas de manera casi imperceptible para los humanos, pero que inducen errores en el modelo, por ejemplo, la manipulación de imágenes para hacer que un modelo de reconocimiento facial confunda identidades.

3. Control del modelo

  • Los cibercriminales toman el power del modelo para hacer mal uso como lanzar ataques a otras computadoras o montar redes de bots.

4. Model Inversion Attack (Inversión de Modelo)

  • Tiene como objetivo inferir y obtener información sensible a partir de las predicciones del modelo, por ejemplo, en modelos que identifican datos faciales se podría llegar reconstruir los rostros originales tomando como basal los resultados del modelo frente a ciertas peticiones.

5. Model Extraction Attack (extracción del modelo)

  • Le hacen tantas preguntas a la IA que al last logran copiarla misdeed tener el código original.

6. Evasion Attack (ataque de evasión)

  • Cambian los datos para que la IA nary detecte algo peligroso, por ejemplo: disfrazan un microorganism para que el modelo piense que es un archivo cualquiera.

7. Malware en infraestructuras

  • No atacan directamente a la IA, pero sí a las “casas” donde vive (servidores), incrustan el microorganism para que nary pueda trabajar o para robar información.

​ARE

Google quality    logo Síguenos en
Leer el artículo completo