INTELIGENCIA ARTIFICIAL

Los algoritmos de ML detectan correos electrónicos y chats tóxicos en tiempo real

ambiente de trabajo toxico
Imagen: Kim Britton

Los gerentes de personas y los ejecutivos de recursos humanos tienen una nueva herramienta para detectar y detener el acoso en el trabajo: un algoritmo de aprendizaje automático que marca las comunicaciones tóxicas. CommSafe AI puede registrar incidentes racistas y sexistas y rastrear patrones de comportamiento a lo largo del tiempo. Esto hace que sea más fácil detectar a los malos actores e intervenir cuando comienza el problema, en lugar de esperar hasta que se presente una demanda.

Los algoritmos de Comm Safe supervisan los servicios de chat y correo electrónico, incluidas plataformas como Microsoft Teams, y utilizan el aprendizaje automático para medir el estado de ánimo y el tono de las comunicaciones escritas en tiempo real. Según Ty Smith, fundador y director ejecutivo de CommFree AI, el algoritmo puede comprender los matices y el contexto, como cuando «pecho» se refiere a un pedido de almuerzo de una tienda de pollos y cuando se refiere a la anatomía humana. Smith dijo que el algoritmo evita los falsos positivos de las soluciones de monitoreo que usan búsquedas de reglas o palabras clave para detectar reseñas cuestionables.

El objetivo, dijo Smith, es cambiar el comportamiento cuando surge el problema por primera vez. También recomienda que los empleadores siempre informen a los empleados que existen servicios de monitoreo.

«No envían estos mensajes a través de Slack, se lo guardan para sí mismos o solo hablan de esa manera cuando ven a la persona en persona”, dijo. “De cualquier manera, conduce a un cambio de comportamiento personal y reduce el riesgo para la persona”. empresa.»

El análisis de sentimientos ha mejorado en los últimos años debido al aumento de la potencia informática para analizar conjuntos de datos más grandes y la capacidad de tener múltiples tipos de contenido, dijo Bern Elliot, vicepresidente de investigación de Gartner, que se enfoca en inteligencia artificial y procesamiento de lenguaje natural.

LEER  La GPU TITAN V de $ 3,000 de Nvidia podría convertir 'PC en una supercomputadora AI'

«Los algoritmos ahora pueden cubrir una gama más amplia de marcos de tiempo y contenido, y hacerlo a escala», dijo.

Los clientes de CommSafe también pueden analizar comunicaciones archivadas como parte de una investigación de acoso.

«Si una mujer acude a Recursos Humanos y dice que un colega la acosó por Slack hace seis meses, el software puede mostrar cualquier instancia de comunicación tóxica para respaldar si eso sucedió», dijo.

Ver también: La brecha de género de COVID-19: ¿Cómo pueden las mujeres negras volver al trabajo?

Los oficiales de diversidad pueden usar este seguimiento y monitoreo a lo largo del tiempo para identificar a los malos actores dentro de una empresa, dijo Smith.

«Si una empresa va a contratar a un oficial de DEI y ponerlo a cargo del trabajo, esa persona necesita saber por dónde empezar», dijo.

La clave, dijo Elliott, es generalmente anonimizar esta información y permitir el acceso solo a una pequeña cantidad de personas que pueden abordar en privado el comportamiento problemático.

«Uno debería poder eliminar el anonimato de la información», dijo.

Medición de la confianza y la seguridad

El desafío es extender esta retroalimentación correctiva a una empresa con 10 000 empleados o un juego en línea con 100 000 usuarios y monitorear múltiples canales para detectar numerosos problemas, que incluyen infracción de propiedad intelectual, spam, fraude, phishing, información errónea y contenido ilegal, como contenido pornográfico no consentido. imágenes

«No hemos encontrado las herramientas adecuadas para manejar esto», dijo Elliot. «Las empresas realmente grandes tienen mucha gente trabajando en esto, y todavía tienen un largo camino por recorrer».

Los ejecutivos de recursos humanos no necesariamente pueden detectar o rastrear patrones repetitivos de comportamiento, y las personas acosadas no siempre quieren hacer preguntas por sí mismas, dijo Elliott.

«Si cavas, estas cosas no salen de la nada», dijo Elliot. «Estos son patrones de comportamiento, y puedes ver si hay signos de comportamiento que la gente de recursos humanos quiera ver».

Ver también: Por qué es necesario un metaverso seguro y cómo construir mundos virtuales populares

Elliott sugirió que las empresas también usen este tipo de software de monitoreo para medir la seguridad social de los grupos.

«Un patrón de comportamiento puede existir en un grupo, o puede existir en individuos, y puedes correlacionarlo con otras cosas», dijo. «La gente no rompe estas reglas todo el tiempo; hay ciertos desencadenantes que lo hacen normal».

Elliot recomienda que las empresas consideren implementar este tipo de análisis de sentimientos fuera de las comunicaciones con los empleados.

«El contenido tóxico es en realidad un problema bastante limitado: está analizando el contenido generado por terceros, y de alguna manera eres responsable de eso, que es el problema más grande», dijo.

Un desafío mayor es monitorear la confianza y la seguridad en conversaciones y otras interacciones, incluidos texto, voz, imágenes e incluso emojis.

Construyendo un modelo para identificar el discurso de odio

Smith comenzó una empresa de evaluación de riesgos habilitada por tecnología en 2015, centrándose inicialmente en la violencia en el lugar de trabajo.

«Una vez que establecí la empresa y comencé a trabajar con grandes clientes, me di cuenta de que la situación del tirador activo era solo una pequeña parte del problema», dijo.

A principios de 2023, cambió el enfoque de la empresa a las comunicaciones tóxicas, con la idea de resolver los problemas antes de tiempo en lugar de reaccionar ante las cosas malas que ya sucedieron.

Realizó una sesión de intercambio de ideas con funcionarios militares y policiales con experiencia en el trabajo con personas violentas. El grupo citó la comunicación tóxica como precursora del acoso laboral, el racismo y otros tipos de violencia.

Smith dijo que el equipo de CommSafe usó conjuntos de datos disponibles públicamente para construir el algoritmo, incluido el texto extraído del foro de supremacistas blancos Stormfront, y el conjunto de datos de correo electrónico de Enron, que incluye correos electrónicos de 150 altos ejecutivos de empresas en quiebra.

Después de vender una versión beta del software, los ingenieros de CommSafe integraron los datos de los clientes para entrenar algoritmos en lenguajes más específicos de la industria.

Ver también: Glassdoor: tres de cada cinco personas han sido testigos o experimentado discriminación en el trabajo

«Por lo general, la IA tarda de tres a ocho semanas en comprender una organización en particular y establecer la línea de base para la cultura», dijo.

La compañía planea lanzar una nueva versión del software a fines de mayo. En febrero, ServiceNow certificó a la empresa, lo que significa que el software CommSafe ahora está disponible en la tienda ServiceNow.

El algoritmo no recomienda un curso de acción específico en respuesta a un correo electrónico específico o mensaje de Slack. Los clientes de recursos humanos ven el monitoreo en tiempo real como la característica más importante, dijo Smith. Las empresas también pueden implementar software de monitoreo como parte de una integración de ServiceNow.

«Los clientes de CommSafe AI pueden crear flujos de trabajo en el lado de ServiceNow que les permitan resolver problemas en tiempo real», dijo.

CommSafe también tiene un contrato de Fase 1 con el Departamento de Defensa para probar la capacidad del algoritmo para detectar señales de advertencia de suicidio y autolesiones.

«Ahora estamos trabajando con el Departamento de Defensa para ver si podemos explorar este caso de uso con una audiencia más amplia», dijo.

LEER  Cómo se prepara la ONU para un futuro automatizado

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba