INTELIGENCIA ARTIFICIAL

La cumbre AI for Good de la ONU explora cómo la IA generativa plantea riesgos y fomenta las conexiones

La placa de circuito se ilumina en rosa, lo que representa la inteligencia artificial generativa.Imagen: Futuro inteligente/Adobe Stock

Los días 6 y 7 de julio, las Naciones Unidas organizaron la sexta Cumbre mundial anual AI for Good. En la sesión de panel titulada «La próxima ola de IA para el bien: hacia 2030», los expertos en IA generativa identifican los riesgos que plantea la IA generativa en la actualidad, cómo educar a la próxima generación sobre lo que puede hacer y cómo la comunidad internacional debe trabajar en conjunto para abordar esto. asunto. Cuestiones normativas y sociales.

Salta a:

Los riesgos de la IA generativa incluyen información errónea y acceso desigual a los datos

«El mayor riesgo a corto plazo [of generative AI] Gary Marcus, empresario, exprofesor de psicología y neurociencia de la Universidad de Nueva York y director ejecutivo del recién formado Centro para el Avance de la Inteligencia Artificial Confiable, dijo que «las herramientas del lenguaje masivo se utilizan para crear intencionalmente información errónea para perturbar la democracia y el mercado».

Marcus también ve algún mérito en la IA generativa. Propone que la codificación automática puede aliviar el estrés de los programadores con exceso de trabajo.

Más cobertura de IA de lectura obligada

Wendell Wallach, codirector del Proyecto de Igualdad e Inteligencia Artificial del Consejo Carnegie de Ética y Asuntos Internacionales, señala que la brecha entre los países ricos del norte y los países pobres del sur (los llamados «Norte» y «Sur») Desigualdad está siendo exacerbada por la inteligencia artificial generativa. Por ejemplo, el Foro Económico Mundial publicó una publicación de blog en enero de 2023 que indica que la IA generativa se fabrica y utiliza principalmente en países del hemisferio norte.

LEER  Cómo Lowe's usa AR y Google Tango para ayudar a los clientes a encontrar productos más rápido

La IA generativa se basa en datos de entrenamiento en varios idiomas. Sin embargo, los idiomas con la mayor cantidad de hablantes naturalmente generarán la mayor cantidad de datos. Como resultado, es más probable que las personas que hablan idiomas que generan grandes cantidades de datos encuentren aplicaciones útiles para la IA generativa, dijo Marcus.

“La desigualdad se está ampliando porque las personas que hablan idiomas ricos en recursos y tienen mucho dinero pueden hacer cosas que las personas que hablan otros idiomas no pueden”, dijo.

VER: La inteligencia artificial generativa también llama la atención de los artistas Acerca del material con derechos de autor. (República tecnológica)

Prepárese para la próxima generación en el mundo de la inteligencia artificial generativa

Karishma Muthukumar, graduada en ciencias cognitivas de UC Irvine y experta en el uso de inteligencia artificial para mejorar la atención médica, señaló que escucha de niños que aprenden a generar inteligencia artificial de sus compañeros o en casa en lugar de en la escuela.

Ella propone un plan de estudios que puede enseñar el uso de la inteligencia artificial.

«Hará falta un diálogo intergeneracional y reunir a las mentes más brillantes para encontrar lecciones que realmente funcionen», dijo Mutukumar.

El desarrollo seguro de IA generativa comienza con la comunidad

Muchos panelistas hablaron sobre la importancia de la comunidad y de garantizar que todas las partes interesadas tengan voz en la conversación sobre la IA generativa. Eso significa «científicos, científicos sociales, especialistas en ética, personas de la sociedad civil», así como gobiernos y empresas, dijo Marcus.

“Una plataforma mundial como la UIT [International Telecommunication Union, a UN agency] Reuniones como esta comienzan a hacernos sentir más conectados y ayudan a que la IA ayude a los humanos a sentirse más conectados», dijo Muthukumar.

«Espero que parte de lo que haya salido de esta reunión que hemos tenido en los últimos años haya sido la comprensión de que esto está sobre la mesa y que esa conciencia se transmita a nuestros líderes para que empiecen a entender que este no es uno de los problemas que deberíamos ignorar», dijo Wallach.

En cuanto a la ética del uso de la inteligencia artificial generativa para resolver problemas globales, Mutukumar sugirió que esta pregunta plantea otras preguntas. «¿Qué es bueno y cómo lo definimos? Los Objetivos de Desarrollo Sostenible de la ONU son un gran marco y un gran punto de partida para analizar esos objetivos sostenibles y lo que podemos lograr».

Cómo la inteligencia artificial se entrelaza con las preocupaciones globales sobre la asignación de recursos

Wallach señaló que invertir dinero en empresas de IA generativa no necesariamente resolverá los problemas que la IA debería resolver, como se describe en la cumbre AI for Good.

«Uno de los problemas con la estructura de valor inherente a la economía digital es que generalmente hay ganadores en todas las áreas», dijo. «Las ganancias de capital van a aquellos de nosotros que poseemos las acciones de estos ganadores. Esta es una asignación de recursos seriamente problemática para lograr los ODS».

Sugirió que las empresas que desarrollan inteligencia artificial generativa y otras soluciones tecnológicas para problemas globales también deberían «asumir cierta responsabilidad para mejorar las deficiencias y las compensaciones» de las soluciones. [they] cosecha. «

El campo de la inteligencia artificial necesita aliviar la tensión entre innovación y regulación

También se habló de las Naciones Unidas. Wallach señaló que si bien la ONU es encomiable por sus esfuerzos para reunir a las partes interesadas para discutir problemas globales, la organización tiene «una reputación irregular» y no puede abordar la «disonancia entre las naciones».

Sin embargo, espera que llevar la conversación sobre IA generativa y ética a un público más amplio sea beneficioso.

El significado de las consideraciones éticas en la IA también puede variar de un caso a otro. Haniyeh Mahmoudian, especialista global en ética de la IA en la empresa de software de aprendizaje automático e IA DataRobot y miembro del Consejo Asesor Nacional de IA de EE. UU., dijo a Tecnopedia en una entrevista por correo electrónico: «Por ejemplo, el concepto de equidad de la IA varía según su aplicación. Una gran diferencia. » . «Cuando se aplica a un sistema de contratación, la equidad puede significar una representación equitativa y, en el contexto del reconocimiento facial, la equidad puede significar una precisión constante».

Marcus considera que la regulación gubernamental es una parte importante para garantizar que la IA generativa funcione en el futuro.

«Existe una tensión entre la llamada promoción de la innovación y la regulación», dijo. «Creo que es una tensión falsa. De hecho, podemos promover la innovación a través de la regulación, diciéndole a Silicon Valley que necesita hacer que su IA sea confiable y confiable».

Compara el auge de la IA generativa con el de las redes sociales, donde las empresas crecen más rápido que la regulación que las rodea.

«Si jugamos bien, aprovecharemos el momento, en países individuales como Estados Unidos, de donde vengo, y a nivel mundial, cuando la gente se dé cuenta de que hay que hacer algo. Si no lo hacemos, nos enfrentaremos años de dolor», dijo Marcus.

LEER  SAP aprovecha la nube, la IA y la RPA en una nueva herramienta empresarial inteligente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba