INTELIGENCIA ARTIFICIAL

OpenAI está contratando investigadores para estudiar la IA ‘superinteligente’

El gigante de la inteligencia artificial predice que la inteligencia artificial similar a la humana puede aparecer dentro de 10 años, por lo que quieren estar listos en cuatro años.

aplicaciones de IA.Imagen: PopTika/Shutterstock

OpenAI está buscando investigadores que trabajen en la fusión de IA superinteligente con otras IA. El objetivo final es mitigar la amenaza de la inteligencia artificial similar a la humana, que puede o no ser ciencia ficción.

«Necesitamos avances científicos y tecnológicos para guiar y controlar los sistemas de IA de manera más inteligente que nosotros mismos», escribió Jan Leike, director de OpenAI Alignment y cofundador y científico jefe Ilya Sutskever en una publicación de blog.

Salta a:

El equipo de superalineación de OpenAI ahora está reclutando

Más cobertura de IA de lectura obligada

El equipo de Superalignment dedicará el 20 por ciento de la potencia informática total de OpenAI a capacitar a lo que ellos llaman investigadores de alineación automática a nivel humano para mantener la consistencia de los futuros productos de IA. Con ese fin, el nuevo equipo de superalineación de OpenAI está contratando a un ingeniero de investigación, un científico de investigación y un gerente de investigación.

La clave para controlar la IA es la coordinación, o asegurarse de que la IA haga lo que los humanos quieren que haga, dijo OpenAI.

La compañía también dice que uno de sus objetivos es controlar la «superinteligencia» o inteligencia artificial con habilidades que superan las de los humanos. Es importante que estas IA superinteligentes que suenan a ciencia ficción «sigan la intención humana», escriben Lake y Sutskover. Esperan que se desarrolle una IA superinteligente en la última década y esperan encontrar una forma de controlarla en las próximas cuatro.

LEER  8 mejores prácticas para optimizar los informes analíticos

VER: Cómo crear una política ética para el uso de inteligencia artificial en su organización (Tecnopedia Premium)

«Es alentador que OpenAI esté trabajando activamente para garantizar que tales sistemas sean [human] Haniyeh Mahmoudian, especialista global en ética de la IA en la empresa de software de inteligencia artificial y aprendizaje automático DataRobot y miembro del Consejo Nacional Asesor sobre Inteligencia Artificial de EE. UU., dijo. «Aún así, la utilización futura y las capacidades de estos sistemas siguen siendo en gran parte desconocidas. Cuando se compara con las implementaciones de IA existentes, está claro que no se aplica un enfoque único para todos, y los detalles de la implementación y evaluación del sistema variarán según el contexto de uso. «

El entrenador de IA puede hacer que otros modelos de IA sean consistentes

Hoy en día, el entrenamiento de IA requiere mucho aporte humano. Leike y Sutskever proponen que un desafío futuro en el desarrollo de IA puede ser contradictorio, donde «nuestros modelos no pueden detectar y destruir con éxito la supervisión durante el entrenamiento».

Entonces, dicen, se necesita una IA dedicada para entrenar una IA capaz de superar a los humanos que la crearon. Los investigadores de IA que entrenan otros modelos de IA ayudarán a OpenAI a realizar pruebas de estrés y reevaluar todo el proceso de alineación de la empresa.

Cambiar la forma en que OpenAI maneja la alineación implica tres objetivos principales:

  • La inteligencia artificial se creó para ayudar a evaluar otras inteligencias artificiales y comprender cómo estos modelos explican el tipo de supervisión que normalmente realizarían los humanos.
  • Busque automáticamente comportamientos problemáticos o datos internos en inteligencia artificial.
  • Esta canalización de alineación se prueba mediante la creación intencional de IA «desalineadas» para garantizar que la IA de alineación pueda detectarlas.

La gente del equipo de alineación anterior de OpenAI y otros equipos trabajarán en Superalignment junto con las nuevas contrataciones. La creación del nuevo equipo refleja el interés de Sutskever en la inteligencia superinteligente. Planea hacer de los superalineamientos su principal enfoque de investigación.

Superinteligencia: ¿real o ciencia ficción?

Todavía se debate si la «superinteligencia» alguna vez existirá.

OpenAI propone la superinteligencia como una capa por encima de la inteligencia generalizada, una inteligencia artificial similar a la humana que, según algunos investigadores, nunca existirá. Sin embargo, algunos investigadores de Microsoft argumentan que las altas puntuaciones de GPT-4 en las pruebas estandarizadas lo sitúan cerca del umbral de la inteligencia generalizada.

Otros se preguntan si la inteligencia realmente se puede medir mediante pruebas estandarizadas, o se preguntan si la idea de la inteligencia artificial generalizada en sí misma plantea desafíos filosóficos en lugar de técnicos. Un estudio de 2023 realizado por Cohere para AI señaló que los modelos de lenguaje grandes no pueden interpretar el lenguaje «en contexto» y, por lo tanto, no pueden acercarse al pensamiento humano. (Ninguno de estos estudios ha sido revisado por pares).

«Las preocupaciones sobre el alcance de la extinción de la IA superinteligente apuntan a riesgos a largo plazo que podrían cambiar fundamentalmente la sociedad, y estas consideraciones son fundamentales para establecer prioridades de investigación, políticas regulatorias y salvaguardas a largo plazo», dijo Mahmoudian. sobre estos problemas futuros puede eclipsar inadvertidamente problemas éticos inmediatos y más pragmáticos relacionados con las tecnologías de IA actuales».

Estas preguntas éticas más pragmáticas incluyen:

  • privacidad
  • justo
  • transparencia
  • responsabilidad
  • y sesgo potencial en los algoritmos de IA.

Estos, señaló, ya son relevantes para la forma en que las personas usan la IA en su vida diaria.

“Al abordar los desafíos éticos específicos que plantea la IA hoy en día, es fundamental considerar las implicaciones y los riesgos a largo plazo”, dijo Mahmoudian.

VER: Es probable que algunos usos de alto riesgo de la IA estén cubiertos por la legislación que está desarrollando el Parlamento Europeo. (República tecnológica)

OpenAI pretende liderar el ritmo del desarrollo de la IA

OpenAI cree que la amenaza de la superinteligencia es posible, pero no inminente.

«Teníamos mucha incertidumbre sobre la rapidez con que se desarrollaría esta tecnología en los próximos años, por lo que elegimos apuntar a un objetivo más difícil para ajustar un sistema más capaz», escribieron Leike y Sutskever.

También señalaron que mejorar la seguridad de los productos de IA existentes, como ChatGPT, es una prioridad máxima y que las discusiones sobre la seguridad de la IA también deben incluir «riesgos que plantea la IA, como el uso indebido, la interrupción económica, la desinformación, el sesgo y la discriminación, la adicción y la dependencia excesiva» y “cuestiones sociotécnicas relacionadas”.

«La alineación superinteligente es fundamentalmente un problema de aprendizaje automático, y creemos que los buenos expertos en aprendizaje automático, incluso si no han trabajado en la alineación, son fundamentales para resolver este problema», dijeron Leike y Sutskever en una publicación de blog.

LEER  Facebook AI alertará a los usuarios cuando carguen fotos sin etiquetar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba