Grandes datos

¿Por qué el aprendizaje automático es tan difícil de explicar?La claridad puede ayudar a las partes interesadas a aceptar

Nadie invierte en tecnología que no entiende completamente. Ayudarlos a comprender cómo y por qué funciona fomentará la adopción.

Por que el aprendizaje automatico es tan dificil de
Getty Images/iStockphoto

Más cobertura de IA de lectura obligada

Es difícil lograr que las partes interesadas adopten una tecnología que no entienden. Cuando se trata de inteligencia artificial (IA) y aprendizaje automático (ML), muy pocas personas realmente lo entienden, lo que deja una brecha de explicabilidad tanto para los científicos de datos como para las empresas.

Hace tres años, MIT Technology Review publicó un artículo sobre IA titulado «El oscuro secreto en el corazón de la IA». «Nadie sabe realmente cómo hacen esto los algoritmos de última generación. Eso podría ser un problema», escribe Will Knight. «El año pasado, un extraño auto que se conducía solo se desató en las calles tranquilas del condado de Monmouth, Nueva Jersey… El auto no siguió ninguna instrucción dada por sus ingenieros o programadores. En su lugar, se basó por completo en un algoritmo que aprendió a conducir solo observando a los humanos conducirlo.

mirar: Calendario editorial de Tecnopedia Premium: política de TI, listas de verificación, kits de herramientas e investigaciones disponibles para descargar (República Tecnológica Premium)

«Hacer que un automóvil se comporte de esta manera es una hazaña impresionante. Pero también es un poco inquietante porque no está del todo claro cómo el automóvil toma sus decisiones… ¿Qué pasa si un día hace algo inesperado: golpea un árbol o espera una luz verde? Tal como están las cosas, puede ser difícil averiguar por qué».

Las técnicas «ocultas» en la inteligencia artificial como el aprendizaje automático son difíciles de explicar para cualquiera. Es por eso que presenta riesgos para las empresas, los CIO y los científicos de datos que necesitan explicar cómo funciona la IA.

LEER  10 expertos en Big Data para seguir en Twitter

«El defecto fundamental de explicabilidad de la inteligencia artificial es que utiliza el aprendizaje automático, y el aprendizaje automático es una caja negra», dijo

Will Uppington, cofundador y director ejecutivo de Truera, que proporciona software que ayuda a las empresas a implementar inteligencia artificial y aprendizaje automático. «Esto significa que incluso si el modelo funciona, el científico de datos no necesariamente sabe por qué. Esto impide que el científico de datos construya aplicaciones de aprendizaje automático de alta calidad de manera rápida y eficiente. Cuando no son científicos de datos,

Los operadores comerciales, los reguladores o los consumidores, etc. pueden hacer preguntas sobre los resultados. «

Las plataformas de inteligencia modelo pueden ayudar con los problemas de interpretabilidad, dijo Upington.

«El software ayuda a los científicos de datos y a los que no son científicos de datos a interpretar, evaluar y extraer información de los modelos y los datos utilizados para construirlos», dijo Upington. «Puede pensar en él como el Tableau del aprendizaje automático. El software también es clave para garantizar que los modelos sean justos y que las empresas puedan adoptarlos de manera responsable».

mirar: Procesamiento del lenguaje natural: una hoja de trucos (República tecnológica)

Por ejemplo, si es un banco, debe poder explicar a los reguladores cómo funciona su software de inteligencia artificial para préstamos y cómo protege contra el sesgo. Incluso sin tratar con los reguladores, los tecnólogos deben poder explicar a las juntas directivas, a los ejecutivos de nivel C y a los usuarios comerciales finales cómo funcionan los modelos de IA/ML y por qué deben confiar en los resultados.

Garantizar y mantener la confianza en lo que dice AI va más allá de limpiar y examinar los datos para garantizar que estén libres de sesgos antes de que AI entre en funcionamiento. Los datos sin procesar y los algoritmos que se ejecutan contra ellos están obligados a «desviarse» con el tiempo. También tienes que monitorear y ajustar esto.

Se pueden agregar herramientas a las pruebas de implementación y mantenimiento de AI/ML para determinar la precisión del sistema AI/ML. Con esta herramienta, las organizaciones pueden probar contra un número representativo de casos de prueba para comprender cómo funcionan las decisiones de aprendizaje automático de «caja negra» subyacentes de AI y si ofrece resultados «reales».

mirar: La IA se enfrenta a un mundo cambiante (Red ZD)

En un caso de uso, Standard Chartered usa software para comprender cómo funciona el modelo de IA que está construyendo al tomar decisiones de préstamo. Al ingresar diferentes perfiles y criterios de préstamos, el equipo de Standard Chartered pudo ver qué devolvió el motor de IA y por qué. Pueden confirmar que las decisiones de la IA están en línea con las expectativas del banco y que los datos y el proceso de toma de decisiones son justos. Igualmente importante, los involucrados en el proyecto pueden explicar el proceso de IA a las partes interesadas. Encontraron una manera de abrir la «caja negra» del aprendizaje automático de inteligencia artificial.

«Si los científicos de datos no pueden explicar cómo funcionan sus aplicaciones de IA, los dueños de negocios no las aprobarán, los operadores comerciales no podrán administrarlas y los usuarios finales probablemente las rechazarán», dijo Upington. «Las empresas son cada vez más conscientes del desafío de generar confianza entre las partes interesadas. Por eso, los científicos de datos [and AI] Los líderes en nuestra encuesta reciente dijeron que la «colaboración de las partes interesadas» era el desafío organizacional número uno que enfrentaban sus empresas. «

LEER  Cómo las tecnologías disruptivas están dando forma a la forma en que trabajamos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba