INTELIGENCIA ARTIFICIAL

AI vs AI: los nuevos algoritmos eluden automáticamente sus mejores defensas de ciberseguridad

Los investigadores han creado una IA que puede ajustar el código de malware para evitar fácilmente la IA antimalware no detectada. ¿Está preparado el aprendizaje automático para las amenazas de ciberseguridad?

En DEF CON el fin de semana pasado, Hyrum Anderson de la firma de seguridad Endgame mostró una asombrosa aplicación de IA: Modificación de malware para derrotar al software antivirus de aprendizaje automático.

premisa central El experimento de Endgame Es que cada IA ​​tiene puntos ciegos, y esos puntos ciegos pueden ser explotados por otras IA.Al atacar el software antivirus con ligeras modificaciones en el código de malware, los investigadores pudieron eludir sus medidas de seguridad. 16% del tiempo.

El 16 % puede no parecer mucho, pero si la IA puede mutar el malware hasta el punto en que todavía puede ejecutarse pero no puede detectarse, no importa cuánto pase; cuando es indetectable, una infección es suficiente.

La inteligencia artificial en guerra consigo misma

La capacidad de engañar a la IA para que reconozca objetos o códigos.muy simpleLos investigadores de Google pueden engañar a la IA de reconocimiento de imágenes con la aplicación. Un gradiente «imperceptiblemente pequeño» a la imagen del panda. Este cambio, que no podemos discernir a simple vista, le da a la IA más confianza en sus propios errores que cuando evaluó inicialmente que la imagen era un panda.

LEER  El pronóstico de gasto de los usuarios finales de la nube pública alcanzará los 597.300 millones de dólares

screen shot 2023 08 02 at 1 14 12 pm

La IA antimalware tiene un objetivo ligeramente diferente al de reconocer imágenes, pero utiliza esencialmente el mismo tipo de aprendizaje automático. Alimenta datos para comprender la composición del código malicioso, determina por sí mismo qué tipo de patrones buscar y, a partir de ahí, puede ver cosas que nunca antes había visto y poder detectar malware potencial.

¿Los pensamientos de Endgame en este punto? Si una IA puede aprender a identificar malware potencial, otra IA debería poder aprender observando cómo la IA antimalware toma decisiones y usa ese conocimiento para desarrollar el malware menos detectable.

VER: Cómo la exageración del aprendizaje automático daña su promesa (Tecnopedia)

Así que los investigadores de Endgame lanzaron su propio malware, modificando el Plataforma OpenAI y lo hizo

Malware AI dispara código a su adversario (Anti-Malware AI). Observó qué tan seguro estaba el software antimalware después de escanear el código que envió, y ajustó aún más los códigos menos seguros.

Después de algunos ajustes, la IA del malware pudo crear un código que no solo pasó por alto las capacidades de detección de la IA antimalware, sino que, una vez pasada, aún funcionaba.

IA: No tan inteligente

El éxito de los experimentos de Endgame usando IA para engañar a la IA es preocupante, y debería serlo. La industria de la tecnología ha invertido mucho dinero y tiempo en el aprendizaje automático, pero si lo modifica un poco, aún no se puede identificar con certeza.

Mirar: Paquete de aprendizaje automático e inteligencia artificial (Colegio Técnico de la República)

Eso no quiere decir que el aprendizaje automático y la inteligencia artificial no tengan sus nichos: no hay mejor manera de manejar las casi innumerables cantidades de datos que tenemos y seguimos generando todos los días. También es excelente para hacer que la tecnología sea más fácil de usar, aunque con limitaciones como no poder entender bien el lenguaje.

Si vamos a confiar en el aprendizaje automático para proteger nuestras redes, debemos aceptar algo: entrenar una máquina para que reconozca malware es tan fácil como entrenar otra máquina para vencerlo.

No ponga todos sus huevos en la canasta de aprendizaje automático, eso es solo buscar a alguien que demuestre cuán poco inteligente es su IA.

usted será capaz de Prueba la IA modificadora de malware de Endgame en su repositorio de GitHub, pero aún no está activo.

Tres conclusiones para los lectores de Tecnopedia:

  1. Los investigadores de seguridad de Endgame pudieron programar la IA para modificar el malware de modo que no pudiera ser detectado por la IA antimalware. En sus pruebas, el 16% de los ataques fueron penetrados sin ser identificados como código malicioso.
  2. La IA que modifica el malware prueba la IA antimalware arrojándole un código y luego modifica la versión con la confianza más baja. En última instancia, pudo crear un malware que se escabulló sin ser detectado y aún se ejecutaba después de desempaquetarlo.
  3. La IA de aprendizaje automático es buena en algunas cosas pero no en otras, como se demostró en los experimentos y pruebas realizados por Google en 2015. Otra cosa es engañar a una IA para que piense en malware, imágenes u otros datos clasificables con solo unas pocas modificaciones, lo que demuestra que es posible que no esté lista para aplicaciones como la seguridad.

Ver también:

LEER  Mejore el rendimiento del chatbot con la plataforma de análisis Chatbase de Google

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba