Seguridad

Usos maliciosos de la IA: por qué es urgente prepararse ahora

En un extenso informe, 26 expertos ofrecen análisis de seguridad de IA y consejos para la predicción, prevención y mitigación. Señalaron que las relaciones de seguridad de la IA también tienen aplicaciones positivas.

La inteligencia artificial (IA) y el aprendizaje automático (ML), considerados por algunos como contradictorios, están cambiando muchos aspectos de nuestras vidas. «Creo que 2023 es [artificial intelligence] comenzará a convertirse en la corriente principal y comenzará a afectar todos los aspectos de nuestras vidas de una manera verdaderamente ubicua y significativa. » Esta publicación de CNBC.

Sin embargo, todos los beneficios de usar AI y ML no niegan la tecnología en sí misma, incluso AI y ML no pueden distinguir entre el bien y el mal, lo que significa que las personas y organizaciones que intentan dañar o cometer delitos también estarán disponibles para ellos.

Este hecho no ha sido ignorado. Académicos y líderes empresariales han expresado sus preocupaciones. El año pasado, por ejemplo, 100 empresarios de robótica e inteligencia artificial enviaron una carta abierta a las Naciones Unidas pidiendo la prohibición de los robots asesinos autónomos.

Ver: Guía para líderes de TI sobre el futuro de la IA (Tech Pro Research)

Recientemente, 26 expertos de una amplia gama de disciplinas y organizaciones, incluido el Instituto para el Futuro de la Humanidad de la Universidad de Oxford, Open AI, el Centro para una Nueva Seguridad Estadounidense y la Electronic Frontier Foundation, publicaron un informe titulado » Usos maliciosos de la inteligencia artificial: predicción, prevención y mitigación Discute la posibilidad de que los estados rebeldes, los terroristas y los delincuentes usen o pronto usen AI y ML para avanzar en sus agendas.

El informe comienza con los coautores que definen AI y ML:

«La inteligencia artificial se refiere al uso de tecnología digital para crear sistemas capaces de realizar tareas que generalmente se considera que requieren inteligencia. El aprendizaje automático se ha descrito de diversas formas como un subcampo o un campo separado de la inteligencia artificial, refiriéndose al desarrollo de sistemas digitales, con experiencia mejorando su desempeño en una tarea determinada a lo largo del tiempo».

Para asegurarse de que todos estén en sintonía, los investigadores definen el «uso malicioso»:

«Nuestra definición de ‘uso malicioso’ es vaga para incluir todas las prácticas destinadas a comprometer la seguridad de un individuo, grupo o sociedad. Tenga en cuenta que debido a que las intervenciones y los problemas estructurales que discutimos son bastante generales, uno puede leerlo desde una variedad de ángulos posibles La mayoría de nuestros archivos para entender lo que es un uso malicioso».

VER: Defensa contra la guerra cibernética: cómo trabaja la élite de la seguridad cibernética para prevenir una catástrofe digital (PDF gratuito) (artículo de portada de Tecnopedia)

Hay tres dominios de seguridad a considerar

Los investigadores clasificaron sus amenazas percibidas en las siguientes tres áreas.

  • seguridad digital: La gran preocupación aquí es que la IA elimina las consideraciones que han plagado a los malos digitales durante años, ya sea que se centre en la escala de un ataque o en su eficacia. Por ejemplo, el spear phishing se vuelve mucho más fácil cuando la inteligencia artificial juega un papel en el diseño y comando y control de un ataque. Los autores del informe agregaron: «También anticipamos la explotación de vulnerabilidades humanas (p. ej., mediante el uso de síntesis de voz para la simulación), vulnerabilidades de software existentes (p. ej., a través de piratería automática) o vulnerabilidades del sistema de IA (p. ej., a través de ejemplos adversarios y envenenamiento de datos). «
  • seguridad física: La inteligencia artificial permite la automatización de ataques a sistemas físicos, lo que aumenta el área de amenaza y el potencial de éxito. Además, los autores del informe señalaron: «También esperamos que los ataques novedosos interrumpan los sistemas cibernéticos (p. ej., que provoquen un choque de un automóvil autónomo) o involucren sistemas físicos que no se pueden controlar de forma remota (p. ej., un enjambre de miles de computadoras diminutas) drones).
  • seguridad politica: El uso de inteligencia artificial para automatizar tareas de vigilancia, persuasión y engaño ya está en marcha y es probable que aumente. «También esperamos nuevos ataques que aprovechen la capacidad mejorada para analizar el comportamiento humano, las emociones y las creencias en función de los datos disponibles», escribieron los autores del informe.

En resumen, la inteligencia artificial y el aprendizaje automático facilitan mucho las cosas en el lado oscuro.

VER: El juego político de Facebook de Cambridge Analytica apenas comienza, el negocio es el próximo (Tecnopedia)

La IA se está abaratando

New York Times El periodista Cade Metz en su artículo de febrero de 2023 «La buena noticia: la IA se está abaratando. Esto también es una mala noticia.«Las tecnologías basadas en inteligencia artificial y aprendizaje automático son cada vez más baratas», explicó Metz. Tianyin Dadas las capacidades del dron, usa componentes que cualquiera puede usar y es relativamente económico (menos de $3,000). Usando una aplicación de teléfono inteligente, el propietario del dron puede decirle al dron aéreo que siga a alguien. «Una vez que el dron comienza a rastrear, a su sujeto le resulta muy difícil sacudirlo», agregó Metz.

Mirar: El R1 de Skydio es un dron para selfies de $ 2,500 que vuela solo (CNET)

La IA también será la mejor defensa

Los autores del informe argumentan que los mismos beneficios que la IA y el aprendizaje automático brindan a aquellos que quieren causar daño también mejorarán la defensa y la mitigación: investigaciones criminales, como:

«Una clase de defensas de IA que vale la pena considerar en la evaluación general es el uso de IA en investigaciones criminales y contraterrorismo. La IA ya está comenzando a ver una adopción más amplia para una amplia gama de propósitos de aplicación de la ley, como el reconocimiento facial para cámaras de vigilancia y redes sociales». análisis».

Mirar: ¿Qué es la inteligencia artificial?Todo lo que necesitas saber sobre la inteligencia artificial (ZDNet)

pensamientos finales

En las conclusiones del informe, los autores son inequívocos:

«Si bien quedan muchas incertidumbres, está claro que la IA desempeñará un papel importante en el futuro de la seguridad, abundan las oportunidades para el uso malicioso y se puede y se debe hacer más».

Aún así, el autor ofrece esperanza:

«Si bien los riesgos específicos del uso malicioso en los dominios digital, físico y político son innumerables, creemos que comprender los puntos en común de este dominio, incluido el papel de la inteligencia artificial para permitir más ataques y a mayor escala, puede ayudar a iluminar a líderes mundiales, e informar mejores esfuerzos de prevención y mitigación.

«Instamos a los lectores a considerar formas en las que podrían avanzar en una comprensión colectiva del nexo entre la seguridad y la IA, y unirse a la conversación para garantizar que los avances rápidos en IA no solo sean seguros, justos, sino también seguros».

Un ejemplo de la difícil tarea que tenemos por delante es Stephen Hawking. Este caballero nos dio mucha información sobre el universo que no tendríamos si la IA no le hubiera dado la capacidad de comunicarse (Youtube).Para ilustrar este punto, Ana Santos Rutschman, miembro de la facultad de Jaharis en la Universidad DePaul, escribe Artículos sobre Conversación Titulado «Stephen Hawking advierte sobre los peligros de la IA, pero la IA le da voz».

aiface

LEER  Informe: Trabajar desde casa daña la ciberseguridad

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba