Innovación

Cómo Google mantiene los datos seguros mientras usa un chatbot generativo de IA

Behshad Behzadi de Google explora cómo se pueden usar los chatbots generativos de IA sin revelar información de la empresa.

El logotipo de Google se encuentra en un edificio en Googleplex en el campus principal de la empresa.Imagen: Fotografía diversa/Adobe Stock

Bard de Google es una de las aplicaciones de inteligencia artificial generativa de alto perfil de la actualidad, y su uso se ve con escepticismo dentro de la empresa. En junio de 2023, Google pidió a sus empleados que no proporcionaran a Bard material clasificado, según descubrió Reuters a través de documentos internos filtrados. Según los informes, se instruyó a los ingenieros para que no usaran código escrito por chatbots.

Empresas como Samsung y Amazon también han prohibido el uso de chatbots de IA generados públicamente porque temen que la información confidencial se filtre en los datos privados.

Aprenda cómo Google Cloud maneja los datos de IA, qué medidas de privacidad debe tener en cuenta su empresa al generar IA y cómo hacer que las aplicaciones de aprendizaje automático «se olviden» de los datos de alguien. Si bien los equipos de Google Cloud y Bard no siempre trabajan en los mismos proyectos, el mismo consejo se aplica al uso de Bard, sus competidores (como ChatGPT) o servicios privados a través de los cuales su empresa puede crear sus propios chatbots conversacionales.

Salta a:

Cómo utiliza Google Cloud los datos personales en los productos de IA

Google Cloud usa datos personales en productos de inteligencia artificial cubriendo dichos datos bajo el acuerdo existente de Google Cloud Platform. (Tanto Bard como Cloud AI están cubiertos por el acuerdo). Google dejó en claro que los datos ingresados ​​en Bard se recopilarán y utilizarán para «proporcionar, mejorar y desarrollar productos y servicios de Google y tecnología de aprendizaje automático», incluidos los productos de cara al público y servicios y técnicas de aprendizaje automático. La interfaz de chat de Bard y las ofertas empresariales de Google Cloud.

LEER  Por qué todavía se necesitan ISP inalámbricos en la era 5G

Más cobertura de IA de lectura obligada

«Nos acercamos a la IA con audacia y responsabilidad, reconociendo que todos los clientes tienen derecho a controlar por completo cómo se utilizan sus datos», dijo a Tecnopedia en un correo electrónico Behshad Behzadi, vicepresidente de ingeniería de Google Cloud.

Google Cloud produce tres productos de inteligencia artificial generativa: la herramienta del centro de contacto CCAI Platform, el generador de aplicaciones de inteligencia artificial generativa y la cartera de Vertex AI (un conjunto de herramientas para implementar y crear modelos de aprendizaje automático).

Behzadi señaló que Google Cloud se compromete a garantizar que las «respuestas de sus ofertas de IA se basen en hechos y sean coherentes con la marca de la empresa, y que la IA generativa esté estrechamente integrada en la lógica empresarial existente, la gestión de datos y los regímenes de derechos».

VER: La creación de modelos de IA generativos privados puede abordar algunos problemas de privacidad, pero suele ser costoso. (República tecnológica)

Vertex AI de Google Cloud ofrece a las empresas la opción de ajustar los modelos subyacentes con sus propios datos. «Cuando una empresa ajusta un modelo base en Vertex AI, los datos privados se mantienen privados y nunca se usan en el corpus de entrenamiento del modelo base», dijo Behzadi.

Lo que las empresas deben considerar al usar chatbots públicos de IA

Behzadi dijo que las empresas que usan chatbots públicos de IA «deben tener en cuenta que el cliente es lo primero y asegurarse de que su estrategia de IA, incluidos los chatbots, se base e integre con una estrategia de gobierno de datos claramente definida».

VER: Cómo el gobierno de datos puede beneficiar a las organizaciones (Tecnopedia)

Los líderes empresariales, dijo, deberían «combinar chatbots públicos de IA con un conjunto de reglas y lógica empresarial para garantizar que la respuesta sea adecuada para la marca». Estas reglas podrían incluir garantizar que las fuentes de datos citadas por los chatbots sean claras y aprobadas por la empresa. Las búsquedas públicas en Internet solo deberían ser una «medida de respaldo», dijo Bezzadi.

Naturalmente, las empresas también deberían usar modelos de IA ajustados para reducir las alucinaciones o las mentiras, sugirió Bezzadi.

Por ejemplo, OpenAI está trabajando en formas de hacer que ChatGPT sea más confiable a través de un proceso llamado supervisión de procesos. Este proceso implica recompensar al modelo de IA por seguir una línea de razonamiento deseada, en lugar de proporcionar la respuesta final correcta. Sin embargo, este es un trabajo en progreso y la supervisión del proceso no está incorporada actualmente en ChatGPT.

Los empleados que trabajan con IA generativa o chatbots aún deben verificar las respuestas.

“Es importante que las empresas aborden los problemas de las personas”, dijo, “para garantizar que existan pautas y procesos para educar a los empleados sobre las mejores prácticas para usar chatbots públicos de IA”.

VER: Cómo utilizar la IA generativa para intercambiar ideas en el trabajo (Tecnopedia)

Hackea la máquina para olvidarte de aprender

Otra forma de proteger los datos confidenciales que se pueden introducir en las aplicaciones de IA es eliminar esos datos por completo una vez que finaliza la conversación. Pero hacerlo es difícil.

A fines de junio de 2023, Google anunció una carrera algo diferente: desaprendizaje automático o garantizar que los datos confidenciales se puedan eliminar de los conjuntos de capacitación de IA para cumplir con los estándares de regulación de datos globales como GDPR. Esto puede ser un desafío porque implica rastrear si los datos de una persona se usaron para entrenar un modelo de aprendizaje automático.

«Más allá de simplemente eliminarlos de las bases de datos que los almacenan, existe la necesidad de eliminar la influencia de esos datos en otros artefactos, como los modelos de aprendizaje automático entrenados», escribió Google en una publicación de blog.

La competencia se llevará a cabo del 28 de junio a mediados de septiembre de 2023.

LEER  ¿Serán siempre los conductores humanos el eslabón débil al compartir la carretera con los coches autónomos?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba