INTELIGENCIA ARTIFICIAL

El mayor desafío para la salud de Internet es la brecha de poder y el daño de la IA, dice Mozilla

21 de agosto de 2023 San Francisco / CA / USA - Un primer plano del logotipo de estilo Mozilla (moz://a) en el edificio de oficinas del Distrito SOMA; Mozilla es una comunidad de software libreImagen: Fotografía de comestibles/Adobe Stock

El nuevo informe Salud de Internet de 2023 de Mozilla muestra que el mayor desafío para la salud de Internet es la brecha de poder entre quién se beneficia de la IA y quién se ve perjudicado por la IA.

Este nuevo informe vuelve a poner la inteligencia artificial en el centro de atención sobre cómo las empresas y los gobiernos utilizan la tecnología. Citando ejemplos del mundo real de varios países, el informe de Mozilla analiza la naturaleza del mundo impulsado por la IA.

Tecnopedia habló con Solana Larsen, editora del Informe de salud de Internet de Mozilla, para arrojar luz sobre el concepto de «responsable de la IA desde el principio», la IA de caja negra, el futuro de la regulación y cómo algunos proyectos de IA lideran con el ejemplo.

VER: Política de ética de IA (Tecnopedia Premium)

Larson explicó que los sistemas de IA deben construirse teniendo en cuenta la ética y la responsabilidad desde el principio, en lugar de agregarlos más tarde cuando comiencen a surgir daños.

«Suena lógico, pero no sucede lo suficiente», dijo Larson.

Según los hallazgos de Mozilla, la centralización de la influencia y el control sobre la IA no es buena para la mayoría de las personas. Dadas las dimensiones que está tomando la tecnología de IA, este problema se ha convertido en el tema de mayor preocupación a medida que la IA se vuelve más generalizada en todo el mundo.

Más cobertura de IA de lectura obligada

El informe de Market Watch sobre la disrupción de la IA revela cuán grande es la IA. 2023 trae más de $ 50 mil millones en nuevas oportunidades para las empresas de IA, y se espera que la industria se dispare a $ 300 mil millones para 2025.

Ahora, la adopción de la IA en todos los niveles es inevitable. Treinta y dos países han adoptado estrategias de IA, con más de 200 proyectos anunciados en Europa, Asia y Australia, más de $ 70 mil millones en fondos públicos y las nuevas empresas están recaudando miles de millones de acuerdos en todo el mundo.

Más importante aún, las aplicaciones de IA han pasado de la IA basada en reglas a la IA basada en datos, y los datos que utilizan estos modelos son datos personales. Mozilla reconoce el potencial de la inteligencia artificial, pero advierte que ya está causando daños todos los días en todo el mundo.

«Necesitamos constructores de IA de diversos orígenes que comprendan la compleja interacción de los datos, la IA y cómo afecta a las diferentes comunidades», dijo Larson a Tecnopedia. Ella pidió regulaciones para garantizar que los sistemas de IA estén diseñados para ayudar, no para lastimar.

El informe de Mozilla también se centra en los problemas de datos para la IA, con grandes conjuntos de datos que a menudo se reutilizan, aunque no se garantizan los resultados en conjuntos de datos más pequeños diseñados específicamente para el proyecto.

Los datos utilizados para entrenar algoritmos de aprendizaje automático generalmente provienen de sitios web públicos como Flickr. El grupo advierte que muchos de los conjuntos de datos más populares consisten en contenido extraído de Internet «que refleja abrumadoramente palabras e imágenes que distorsionan las miradas inglesas, estadounidenses, blancas y masculinas».

Black Bock AI: Desmitificando la Inteligencia Artificial

AI parece estar haciendo caso omiso de la mayor parte del daño que ha hecho, gracias a su reputación de ser tan tecnológica y avanzada que la gente no puede comprenderla. En la industria de la IA, cuando la IA utiliza modelos de aprendizaje automático que los humanos no pueden entender, se denomina IA de caja negra y se etiqueta como falta de transparencia.

Para desmitificar la IA, los usuarios deben tener transparencia sobre lo que hace el código, qué datos recopila, qué decisiones toma y quién se beneficia, dijo Larson.

«Realmente necesitamos negar que la IA es demasiado avanzada y que las personas no pueden opinar a menos que sean científicos de datos”, dijo Larson. «Si está pasando por el daño de un sistema, conoce a algunos de los diseñadores que incluso podrían tenerlo ellos mismos. Algo que no sabes».

Empresas como Amazon, Apple, Google, Microsoft, Meta y Alibaba se encuentran entre las mejores gracias a los productos, servicios y soluciones impulsados ​​por IA. Pero otros sectores y aplicaciones, como el militar, la vigilancia, la propaganda computacional (utilizada en 81 países en 2023) y la desinformación, así como el sesgo y la discriminación de la IA en los sectores sanitario, financiero y legal, también son emitidos por el daño que causan. bandera.

IA reglamentaria: de la conversación a la acción

Las grandes empresas de tecnología son conocidas por su frecuente oposición a las regulaciones. La IA impulsada por militares y gobiernos también opera en entornos no regulados, a menudo chocando con activistas de derechos humanos y privacidad.

Mozilla cree que las regulaciones pueden ser una barrera para la innovación, ayudando a fomentar la confianza y la competencia leal.

«Es bueno para las empresas y los consumidores», dijo Larson.

Mozilla apoya regulaciones como la DSA en Europa y se adhiere estrictamente a la Ley de IA de la UE. La compañía también apoya proyectos de ley estadounidenses que harían que los sistemas de IA sean más transparentes.

La privacidad de los datos y los derechos del consumidor también forman parte del entorno legal que ayuda a allanar el camino para una IA más responsable. Pero las regulaciones son solo una parte de la ecuación. Sin aplicación de la ley, las regulaciones están solo en papel.

“Hay llamados masivos para el cambio y la responsabilidad, y necesitamos constructores de IA que pongan a las personas por encima de las ganancias”, dijo Larson. «Actualmente, una gran parte de la I + D de IA está financiada por grandes empresas de tecnología, y aquí también necesitamos alternativas».

VER: Hoja de trucos del metaverso: todo lo que necesita saber (PDF gratuito) (Tecnopedia)

El informe de Mozilla vincula proyectos de IA con proyectos que están causando daños a varias empresas, países y comunidades. El grupo citó proyectos de inteligencia artificial que afectan a los trabajadores temporales y sus condiciones laborales. Eso incluye el ejército invisible de trabajadores de bajos salarios que entrenan a la IA en sitios como Amazon Mechanical Turk, ganando un promedio de tan solo $ 2.83 por hora.

«En la vida real, los peligros de la inteligencia artificial afectan una y otra vez a las personas que son inmunes a las ventajas del sistema de energía global», dijo Larson.

El grupo también está tomando medidas.

Un ejemplo de su acción es la extensión del navegador RegretsReporter de Mozzila. Convierte a los usuarios cotidianos de YouTube en guardianes de YouTube, cómo funciona la IA de recomendación de la plataforma de crowdsourcing.

La encuesta de Mozilla con decenas de miles de usuarios reveló que el algoritmo de YouTube recomienda videos que violan las propias políticas de la plataforma. La investigación ha logrado buenos resultados. YouTube ahora es más transparente sobre cómo funciona su recomendación AI. Pero Mozilla no tiene planes de detenerse ahí. Hoy, continúan realizando investigaciones en diferentes países.

Larsen explicó que Mozzila cree que revelar y documentar la IA es fundamental cuando opera en condiciones turbias. Además, el grupo hizo un llamado al diálogo entre las empresas de tecnología para comprender los problemas y encontrar soluciones. También están en contacto con los reguladores para discutir las reglas que deben usarse.

IA predicando con el ejemplo

Si bien el Informe de salud de Internet 2023 de Mozilla pinta una imagen bastante sombría de la IA, lo que magnifica los problemas actuales del mundo, la compañía también destaca los proyectos de IA creados y diseñados para el bien.

Por ejemplo, Drivers Cooperative Jobs de la ciudad de Nueva York, una aplicación que utilizan y son propiedad de más de 5000 conductores de viajes compartidos, ayuda a los trabajadores temporales a obtener una verdadera agencia en la industria de los viajes compartidos.

Otro ejemplo es Melalogic, una empresa de propiedad de negros en Maryland que está colaborando con imágenes de piel oscura para detectar mejor el cáncer y otros problemas de la piel en respuesta al grave sesgo racial en el aprendizaje automático en dermatología.

«Hay muchos ejemplos en el mundo de la construcción y el uso de sistemas de inteligencia artificial de una manera confiable y transparente», dijo Larson.

LEER  Se espera que la automatización robótica de procesos experimente un crecimiento de dos dígitos en los próximos cuatro años

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba