Microsoft

OpenAI, Microsoft, Google y Anthropic lanzan un foro de modelos fronterizos para avanzar en la IA segura

El objetivo del foro es construir «barandillas» para mitigar los riesgos de la IA. Conozca los cuatro objetivos principales del grupo y los criterios de membresía.

Inteligencia artificial y concepto de imagen de tecnología informática moderna.Imagen: putilov_denis/Adobe Stock

OpenAI, Google, Microsoft y Anthropic anunciaron la formación del Frontier Models Forum. Con esta iniciativa, la organización tiene como objetivo promover el desarrollo de modelos de IA seguros y responsables mediante la identificación de mejores prácticas y el intercambio masivo de información en áreas como la ciberseguridad.

Salta a:

¿Cuáles son los objetivos del Frontier Models Forum?

El objetivo del Frontier Modeling Forum es involucrar a las empresas miembro para que brinden asesoramiento técnico y operativo para desarrollar una biblioteca común de soluciones en apoyo de las mejores prácticas y estándares de la industria. La necesidad de «barandillas apropiadas… para mitigar los riesgos» a medida que aumenta el uso de la inteligencia artificial es una fuerza impulsora detrás del foro, dijeron las empresas miembro en un comunicado.

Además, el foro dice que «establecerá mecanismos creíbles y seguros para compartir información sobre la seguridad y los riesgos de la IA entre empresas, gobiernos y partes interesadas relevantes».

mirar: Microsoft Inspire 2023: aspectos destacados de Keynote y noticias destacadas (República tecnológica)

¿Cuáles son los principales objetivos del Frontier Models Forum?

El Foro estableció cuatro objetivos fundamentales:

LEER  Windows 10 es compatible con AllJoyn para hacer posible el Internet de las cosas

1. Avanzar en la investigación de seguridad de IA, promover el desarrollo responsable de modelos de vanguardia, minimizar el riesgo y permitir una evaluación independiente y estandarizada de las capacidades y la seguridad.

2. Identificar las mejores prácticas para el desarrollo y despliegue responsable de modelos de vanguardia que ayuden al público a comprender la naturaleza, las capacidades, las limitaciones y las implicaciones de las tecnologías.

3. Colaborar con los legisladores, la academia, la sociedad civil y las empresas para compartir conocimientos sobre los riesgos para la confianza y la seguridad.

4. Apoyar el desarrollo de aplicaciones que ayuden a abordar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección y prevención temprana del cáncer y el abordaje de amenazas cibernéticas.

mirar: OpenAI está contratando investigadores para estudiar la IA ‘superinteligente’ (República tecnológica)

¿Cuáles son los criterios para ser miembro del Frontier Models Forum?

Para convertirse en miembro del foro, las organizaciones deben cumplir con una serie de criterios:

  • Desarrollan e implementan modelos de vanguardia predefinidos.
  • Demuestran un fuerte compromiso con el modelo de seguridad de vanguardia.
  • Demostraron su voluntad de hacer avanzar el trabajo del Foro apoyando y participando en iniciativas.

En su declaración, los miembros fundadores señalaron que AI tiene el poder de transformar la sociedad, por lo que existe la necesidad de supervisión y gobernanza para garantizar que AI lo haga de manera responsable.

Más cobertura de IA de lectura obligada

“Es fundamental que las empresas de IA, especialmente aquellas que trabajan en los modelos más potentes, se alineen en un terreno común y promuevan prácticas de seguridad reflexivas y adaptables para garantizar el beneficio más amplio posible de las poderosas herramientas de IA”. Open AI. Avanzar en la seguridad de la IA es un «trabajo urgente» y el foro está «bien posicionado» para actuar rápidamente, dijo.

«Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que sea segura y esté bajo control humano”, dijo Brad Smith, vicepresidente y presidente de Microsoft. Un importante paso adelante en el avance de la inteligencia artificial y el abordaje de sus desafíos para que puede beneficiar a toda la humanidad».

mirar: Kit de contratación: ingeniero rápido (República Tecnológica Premium)

Junta Asesora del Foro Modelo Frontier

Se establecerá una Junta Asesora para supervisar la estrategia y las prioridades, con miembros de diversos orígenes. La empresa fundadora también desarrollará un estatuto, gobierno y financiación, y establecerá un grupo de trabajo y un comité ejecutivo para encabezar estos esfuerzos.

La junta trabajará con «la sociedad civil y el gobierno» para diseñar el foro y discutir formas de trabajar juntos.

Colaboración y crítica de la práctica y regulación de la IA

El anuncio del Frontier Models Forum se produce menos de una semana después de que OpenAI, Google, Microsoft, Anthropic, Meta, Amazon e Inflection acordaron la lista de ocho garantías de seguridad de la IA de la Casa Blanca. Estos movimientos recientes son especialmente interesantes dados los pasos recientes que algunas de estas empresas han tomado con respecto a las prácticas y regulaciones de IA.

Por ejemplo, la revista Time informó en junio que OpenAI presionó a la Unión Europea para que restara importancia a la regulación de la IA. Además, el lanzamiento del foro se produce meses después de que Microsoft despidiera a su equipo de ética y sociedad como parte de un despido mayor, lo que generó dudas sobre su compromiso con las prácticas responsables de IA.

“La desaparición del equipo plantea preocupaciones sobre el compromiso de Microsoft de alinear sus principios de IA con el diseño de productos, ya que la organización busca expandir estas herramientas de IA y ponerlas a disposición de los clientes en su conjunto de productos y servicios”, escribió Rich Hein. Artículo de CMSWire de marzo de 2023.

Otras iniciativas de seguridad de IA

Esta no es la única iniciativa destinada a promover el desarrollo de un modelo de IA responsable y seguro. En junio, PepsiCo anunció que comenzaría a trabajar con el Instituto de Inteligencia Artificial Centrada en el Humano de la Universidad de Stanford “para garantizar que la IA se implemente de manera responsable y tenga un impacto positivo en los usuarios individuales, así como en la comunidad en general”.

La Escuela de Informática Schwarzman del MIT ha lanzado el Foro de Políticas de IA, un esfuerzo global para desarrollar «orientaciones concretas» para que los gobiernos y las empresas aborden los desafíos emergentes en IA, como la privacidad, la equidad, el sesgo, la transparencia y la responsabilidad.

El Safe AI Lab de la Universidad Carnegie Mellon se estableció para «desarrollar métodos de aprendizaje de IA confiables, explicables, verificables y accesibles para aplicaciones posteriores».

LEER  ¿Necesita ayuda para comprender DevOps?El nuevo libro de Emily Freeman tiene la respuesta

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba