INTELIGENCIA ARTIFICIAL

Elon Musk teme que la IA pueda conducir a la Tercera Guerra Mundial mientras los investigadores estudian los riesgos de los ‘buenos robots estúpidos’

Como la mayoría de las tecnologías, su uso tiene una delgada línea entre el bien y el mal. ¿Qué sucede cuando una IA bien intencionada se vuelve mala?

Elon Musk cree en la competencia por la ventaja de la inteligencia artificial (IA) puede desencadenar una tercera guerra mundialY no es el único gigante tecnológico preocupado por los peligros de la inteligencia artificial.

Los líderes de más de 100 empresas de IA, incluida Musk, firmaron un Carta abierta a la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales, expresando su preocupación de que las empresas que construyen sistemas de inteligencia artificial puedan convertir la tecnología en armas autónomas. La carta menciona específicamente:

«Las armas autónomas letales tienen el potencial de ser la tercera revolución en la guerra. Una vez desarrolladas, permitirán que los conflictos armados se luchen a mayor escala que nunca y en una escala de tiempo más rápida que la comprensión humana. Estas posibilidades Un arma de terror , un arma utilizada por tiranos y terroristas contra personas inocentes, y un arma pirateada por mala conducta».

Mirar: Armas cibernéticas en acción: desde el sabotaje estadounidense de la prueba de misiles de Corea del Norte hasta la sirena de emergencia pirateada de Dallas (PDF gratuito) (Tecnopedia)

No importa el robot asesino

científicos e ingenieros Estar de acuerdo abiertamente con quienes firmaron la carta abierta, e incluso ir más allá.Los académicos advierten que los sistemas complejos de IA son tan impredecibles que podrían ser posibles bonito Los entornos robóticos, bajo ciertas condiciones, pueden convertirse en adversarios, incluso peligrosos.

LEER  Google Cloud AutoML podría hacer que la IA sea más accesible para las pymes y los no expertos

Taha Yasseri, investigador de ciencias sociales computacionales de la Universidad de Oxford, escribió en su columna The Conversation: «El estudio de sistemas complejos muestra cómo pueden surgir comportamientos que son más impredecibles que la suma de los comportamientos individuales». Olvídate de los robots asesinos, incluso los buenos robots son impredecibles«Los ecosistemas de programas de IA relativamente simples, lo que llamamos robots estúpidamente buenos, pueden sorprendernos incluso cuando un solo robot funciona bien».

Ver: Guía para líderes de TI sobre el futuro de la IA (Tech Pro Research)

Un ejemplo inquietante de falta de previsibilidad son los automóviles autónomos y sus procesos de toma de decisiones. Este artículo de Tecnopedia pregunta qué debería suceder cuando un automóvil autónomo se encuentra con otro vehículo que se dirige directamente hacia él y un peatón está en la única ruta de escape. ¿A quién daña el sistema de inteligencia artificial del automóvil? Ahora imagine una intersección concurrida donde varios autos sin conductor interactúan entre sí y enfrentan la misma situación.

«Estos sistemas suelen ser muy sensibles a pequeños cambios y pueden experimentar bucles de retroalimentación explosivos», explica Yasseri. «Es muy difícil saber el estado preciso de un sistema de este tipo en un momento dado. Todos los factores que hacen que estos sistemas sean inherentemente impredecibles».

Ejemplos reales de comportamiento impredecible

Yasseri y otros investigadores Milena Tsvetkova, Ruth Garcıa-Gavilanes y Luciano Floridi, Todo del Instituto de Internet de Oxford, en su artículo de investigación Hasta los buenos robots pelean: el caso de Wikipedia, informando su análisis de la actividad de los bots en línea, en particular las interacciones entre bots que editan automáticamente los artículos de Wikipedia. «Estos diversos bots fueron diseñados y utilizados por los editores humanos de confianza de Wikipedia…» Arthur Li escribió en el artículo de conversación«Individualmente, todos tienen el objetivo común de mejorar la enciclopedia. Sin embargo, su comportamiento colectivo es sorprendentemente ineficiente».

En su columna, Arturo Explique que los bots de Wikipedia funcionan con reglas establecidas, pero carecen de administración central. Añadió: «Así que encontramos pares de bots deshaciendo las ediciones del otro durante años sin que nadie se diera cuenta. Por supuesto, debido a que los bots carecían de cognición, tampoco lo notaron».

Los chatbots son otro ejemplo de respuestas impredecibles.este video de Youtube Puede parecer divertido, pero imagine ese tipo de comunicación entre robots físicos cuyas respuestas motoras están ligadas a frases clave y podría volverse interesante.

robots 1

La imprevisibilidad aumenta con la complejidad y la cantidad de dispositivos

Aprender a editar bots y chatbots de Wikipedia no es un accidente. Se eligieron los bots de edición porque representan sistemas simples que se usan mucho, mientras que los bots de chat representan interacciones entre algunos programas complejos. El hecho de que surgieran conflictos inesperados en ambos casos convenció a Yasseri y a otros investigadores de que la complejidad, y por lo tanto la imprevisibilidad, crece exponencialmente a medida que se agregan más sistemas al entorno. «Por lo tanto, en los sistemas futuros con muchos robots complejos, el comportamiento inesperado puede estar más allá de nuestra imaginación», agregó.

Los investigadores sugieren que un entorno lleno de autos sin conductor podría ser la tormenta perfecta para la conducción autónoma. “No sabemos qué sucederá una vez que tengamos un sistema de vehículos masivo, salvaje y completamente autónomo”, explicó Yasseri en su columna. «En un ambiente controlado, pueden comportarse de manera muy diferente a un pequeño grupo de autos individuales. Incluso pueden ocurrir comportamientos más inesperados cuando los autos sin conductor son ‘entrenados’ en diferentes entornos por diferentes personas y comienzan a interactuar entre sí».

Mirar: Guía avanzada de paquetes de aprendizaje profundo e inteligencia artificial (Colegio Técnico de la República)

volver a los robots asesinos

La investigación de Yasseri, Tsvetkova, García-Gavilanes y Floridi ayuda a confirmar las preocupaciones planteadas en la carta abierta a la ONU y, de hecho, agrega otra dimensión: a medida que aumenta la cantidad de dispositivos robóticos, disminuye la previsibilidad. “Piense en los robots asesinos que preocupan a Elon Musk y sus colegas”, concluyó Yasseri. «Un solo robot asesino es [the] mano equivocada Pero, ¿qué pasa con un sistema de robot asesino impredecible? Ni siquiera quiero pensar en eso. «

LEER  ¿Ningún científico de datos?No hay problema: cómo pueden ayudar las plataformas de IA de código bajo como Akkio

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba