INTELIGENCIA ARTIFICIAL

Cómo Microsoft está convirtiendo Bing Chat en su asistente personal de IA

Comentario: el experto Simon Bisson, después de analizar una gran cantidad de contenido reciente de desarrolladores de Microsoft, dice que hay excelentes pistas sobre cómo funciona Bing Chat.

La mano sombría sostiene un teléfono inteligente con Microsoft Bing en un fondo azul con el logotipo de OpenAI.Imagen: gguy/Adobe Stock

Si hay algo que debe saber sobre Microsoft, es esto: Microsoft es una empresa de plataformas. Existe para proporcionar herramientas y servicios que cualquiera puede construir, desde su sistema operativo y herramientas de desarrollo, hasta su conjunto de productos y servicios de productividad, hasta su nube global. Por lo tanto, no deberíamos sorprendernos cuando el anuncio de Redmond habla de «pasar del producto a la plataforma».

El último anuncio de este tipo es para un nuevo servicio de chat basado en Bing GPT. La combinación de búsqueda con inteligencia artificial permite a Bing proporcionar un entorno de búsqueda conversacional basado en su índice de Bing y la tecnología de resumen y generación de texto GPT-4 de OpenAI.

En lugar de navegar por páginas y listas de contenido, sus consultas se responden con breves resúmenes de texto con enlaces relevantes, y puede usar la herramienta de chat de Bing para refinar sus respuestas. Este enfoque lleva a Bing a uno de sus argumentos de marketing originales: ayudarlo a tomar tantas decisiones como busque.

mirar: Cree una política de ética de IA en su empresa con esta plantilla de Tecnopedia Premium.

ChatGPT agregó recientemente complementos que lo expanden a un servicio más enfocado; como parte del enfoque evolutivo de Microsoft para agregar IA a Bing, lo hará pronto. Sin embargo, queda una pregunta: ¿cómo funcionará? Afortunadamente, hay una pista importante en la forma de uno de los muchos proyectos de código abierto de Microsoft.

Salta a:

El núcleo semántico: cómo Microsoft extiende GPT

Microsoft ha estado desarrollando un conjunto de herramientas para usar su servicio Azure OpenAI GPT, llamado Semantic Kernel. Está diseñado para proporcionar aplicaciones personalizadas de GPT basadas más allá del conjunto de entrenamiento inicial al agregar sus propias incorporaciones al modelo. Al mismo tiempo, puede envolver estas nuevas capacidades semánticas en código tradicional para desarrollar habilidades de IA, como optimizar la entrada, administrar sugerencias y filtrar y dar formato a la salida.

Aunque los detalles del modelo de complemento de IA de Bing no se anunciarán hasta la conferencia de desarrolladores BUILD de Microsoft a finales de mayo, es probable que se base en el modelo de habilidades de IA del núcleo semántico.

Más cobertura de IA de lectura obligada

Diseñado para funcionar con la interfaz de programación de aplicaciones de OpenAI y en torno a ella, proporciona a los desarrolladores las herramientas necesarias para administrar el contexto entre señales, agregar sus propias fuentes de datos para brindar personalización y vincular entradas y salidas al código que ayuda a optimizar y formatear la salida. así como vincularlos a otros servicios.

Usar Bing para crear productos de inteligencia artificial para el consumidor tiene mucho sentido. Cuando profundiza en la tecnología subyacente, tanto el servicio de inteligencia artificial de GPT como el motor de búsqueda de Bing aprovechan una tecnología relativamente poco conocida: las bases de datos vectoriales. Estos le brindan al traductor GPT lo que llama «memoria semántica», ayudándolo a encontrar conexiones entre las señales y la IA que genera.

Las bases de datos vectoriales almacenan contenido en un espacio que puede tener tantas dimensiones como la complejidad de los datos. El proceso denominado «incrustación» no almacena los datos en una tabla, sino que los asigna a un vector con longitud y dirección en el espacio de base de datos. Esto facilita la búsqueda de contenido similar, ya sea texto o imágenes; todo lo que su código necesita hacer es encontrar un vector del mismo tamaño y orientación que su consulta inicial. Es rápido y agrega cierta casualidad a las búsquedas.

Dotar a GPT de memoria semántica

GPT usa vectores para expandir sus sugerencias, produciendo texto similar a su entrada. Bing los usa para agrupar información para acelerar la búsqueda de la información que desea al encontrar páginas web que son similares entre sí. Cuando agrega una fuente de datos incrustada al servicio de chat de GPT, le proporciona información que se puede usar para responder a sus indicaciones, que luego se pueden proporcionar en forma de texto.

Una de las ventajas de usar incrustaciones con Bing Data es que puede usarlas para agregar su propio texto largo a los servicios, como trabajar con documentos dentro de su propia organización. Al incorporar incrustaciones de vectores de documentos clave como parte de su consulta, puede, por ejemplo, usar la búsqueda y el chat para crear documentos de uso común que incluyan datos de búsqueda o incluso de otros complementos de Bing que haya agregado a su entorno.

Dar habilidades de chat de Bing

Puede ver algunos signos de algo como el núcleo semántico común en la última versión de Bing, ya que agrega funciones que toman los datos generados y procesados ​​por GPT y los convierten en gráficos y tablas que ayudan a visualizar los resultados. El código de procesamiento posterior puede convertir rápidamente su salida de texto en gráficos al proporcionar sugerencias de GPT que devuelven una lista de valores.

Dado que Bing es un motor de búsqueda general, agregar nuevas habilidades para vincular a fuentes de datos más especializadas le permitirá realizar búsquedas más especializadas (por ejemplo, utilizando repositorios de documentos médicos). Dado que las habilidades le permitirán conectar los resultados de Bing a servicios externos, puede imaginar fácilmente un conjunto de interacciones de chat que primero lo ayuden a encontrar un restaurante para una ocasión especial y luego a reservar un lugar de su elección, todo sin salir de la búsqueda.

Al proporcionar un marco para las interacciones públicas y privadas con GPT-4, y al agregar soporte para la persistencia entre sesiones, el resultado debería ser un marco más natural que las aplicaciones de búsqueda tradicionales.

Extender este modelo a otras fuentes de datos y otros servicios a través de complementos puede proporcionar el entorno informático basado en lenguaje natural que Microsoft ha estado prometiendo durante más de una década. Al convertirlo en una plataforma, Microsoft se asegura de que siga siendo un entorno abierto en el que puede crear las herramientas que desee sin depender de lo que proporciona Microsoft.

Microsoft está utilizando su marca Copilot para todos sus asistentes basados ​​en IA, desde las herramientas basadas en GPT de GitHub hasta las nuevas funciones en Microsoft 365 y Power Platform. Con suerte, continuará expandiendo GPT de la misma manera en todas sus muchas plataformas para que podamos llevar nuestros complementos a algo más que Bing, utilizando el mismo modelo de programación para cerrar la brecha entre el código tradicional y la generación de indicaciones de IA, memoria semántica.

LEER  Microsoft Azure Cosmos DB: una guía más inteligente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba