INTELIGENCIA ARTIFICIAL

¿Cómo deberían los empleados usar ChatGPT? Netskope tiene una aplicación

El uso de ChatGPT en la empresa está en auge. Según Netskope, decir «no» a los empleados que quieren usar ChatGPT es una respuesta a corto plazo, y su solución utiliza información de datos para decir «sí», «no» y «a veces».

Pantalla de portátil que muestra ChatGPT.Crédito de la imagen: Adobe Stock

La nueva aplicación de las herramientas de seguridad de la empresa incluye análisis de datos que generan entradas de IA, así como elementos de participación del usuario en tiempo real, como orientación sobre políticas y riesgos en el uso de ChatGPT. No solo se enfoca en los datos que los usuarios proporcionan para generar modelos de IA u otros modelos de lenguaje extenso como Google Bard y Jasper, sino que también puede bloquear esas entradas si contienen código o datos confidenciales.

El nuevo conjunto de capacidades está diseñado para garantizar que los empleados de una organización, ya sean locales o remotos, usen ChatGPT y otras aplicaciones generativas de inteligencia artificial de una manera que no comprometa los datos corporativos, dijo la compañía.

Netskope dijo que sus datos mostraban:

  • Alrededor del 10 % de las organizaciones empresariales impiden activamente que los equipos utilicen ChatGPT.
  • El uno por ciento de los empleados comerciales usa ChatGPT activamente a diario.
  • Cada usuario envía un promedio de ocho sugerencias de ChatGPT por día.
  • El uso de ChatGPT en la empresa está creciendo un 25 % mensual.

Según una investigación realizada por la empresa de seguridad de datos Cyberhaven, al menos el 10,8 % de los empleados de la empresa han intentado usar ChatGPT en el lugar de trabajo, y el 11 % de los datos que los empleados cargan en ChatGPT son confidenciales.

LEER  ¿Qué es GPT-4? ¿Qué función tiene?

Salta a:

Un enfoque de confianza cero para proteger los datos de IA

Robinson dijo que las soluciones de Netskope para generar IA incluyen su borde de servicio seguro con Cloud XD, el motor de confianza cero de la empresa para la protección de datos y amenazas para aplicaciones, servicios en la nube y tráfico de red, que también es compatible con el control de políticas adaptativo autónomo.

«Al hacer un análisis profundo del tráfico, no solo a nivel de dominio, podemos ver cuándo los usuarios solicitan inicios de sesión o cargan y descargan datos. Debido a esto, obtiene una visibilidad profunda; puede establecer acciones y Habilitar servicios para los usuarios de forma segura. ,» él dijo.

Según Netskope, sus capacidades generativas de control de acceso y visibilidad de IA incluyen:

  • TI comprende el uso y las tendencias de ChatGPT específicos de la organización con el descubrimiento de software como servicio más amplio de la industria (utilizando una base de datos dinámica de más de 60 000 aplicaciones) y paneles de análisis avanzados.
  • El Índice de Confianza en la Nube de la empresa clasifica y evalúa los riesgos de las nuevas aplicaciones generativas de IA.
  • El conocimiento granular contextual y de instancias se logra a través del análisis Cloud XDTM de la empresa, que identifica los niveles de acceso y el flujo de datos a través de las cuentas de la aplicación.
  • Al generar visibilidad de categoría web del dominio de IA, los equipos de TI pueden configurar políticas de control de acceso y protección en tiempo real y administrar el tráfico a través de la categoría.

El acceso al LLM in Management no es una cuestión binaria

Más cobertura de IA de lectura obligada

Las capacidades de Netskope, parte de su plataforma de borde de servicios de seguridad inteligente, reflejan un reconocimiento creciente en la comunidad de seguridad cibernética de que el acceso a estas nuevas herramientas de IA no es una puerta de entrada para «hacerlo» o «no usarlo».

«Los principales actores, incluidos nuestros competidores, se inclinarán por esto”, dijo James Robinson, subdirector de seguridad de la información de Netskope. «Pero es una pregunta detallada porque ya no es un mundo binario: si son sus empleados o otros grupos técnicos o comerciales, las personas van a usar ChatGPT u otras herramientas, por lo que necesitan acceso, o encontrarán la manera, para bien o para mal», dijo.

«Pero creo que la mayoría de las personas todavía tienen una mentalidad binaria», agregó, y señaló que ahora hay una tendencia a elegir el firewall como la herramienta preferida para administrar la filtración de datos dentro de una organización. «Como líderes de seguridad, no solo debemos decir ‘sí’ o ‘no’. En cambio, debemos centrarnos más en ‘saber’, porque es una pregunta granular. Para hacer eso, se necesita un plan integral».

mirar: Las empresas gastan más en IA, ciberseguridad (Tecnopedia)

Compromiso del usuario en tiempo real: orientación emergente, advertencias y alertas

Robinson dijo que la experiencia del usuario incluye ventanas emergentes de mensajes de «guía visual» en tiempo real que advierten a los usuarios sobre las políticas de seguridad de datos y la posible exposición de datos confidenciales.

«En este caso, si comienza a iniciar sesión para generar un modelo de IA, verá una ventana emergente, por ejemplo, cuando visite un sitio web que podría recordarle la política sobre el uso de esas herramientas», dijo Robinson. Dijo que la plataforma Netskope también utilizará un motor DLP para bloquear la carga de información confidencial a LLM, como información de identificación personal, credenciales, información financiera u otra información basada en políticas de datos (Figura A).

Figura A

Las ventanas emergentes de Netskope advierten a los usuarios.Las ventanas emergentes de Netskope advierten a los usuarios de LLM que no carguen datos confidenciales. Imagen: Netskope

«Si están tratando de usar IA para la revisión de código, eso podría incluir código», agrega Robinson, explicando que Cloud XD también se aplica aquí.

mirar: Salesforce trae IA generativa a Tableau (Tecnopedia)

Las funciones interactivas de la plataforma incluyen pedir a los usuarios que aclaren su uso de la inteligencia artificial si toman medidas que violan la política o van en contra de lo que sugiere el sistema. Robinson dijo que esto ayuda a los equipos de seguridad a desarrollar políticas de datos sobre el uso de chatbots.

«Como equipo de seguridad, no puedo ir a cada usuario comercial y preguntarles por qué cargaron ciertos datos, pero si puedo recuperar esa inteligencia, podría encontrar que necesitamos cambiar o cambiar nuestro motor de políticas», dijo. .

LEER  Gobernanza ética de la IA: 7 factores clave a considerar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba