Las normas de contratación de AI están aquí. ¿Está lista su empresa?
En 2023, entrará en vigor una nueva ley que regula la contratación de IA en la ciudad de Nueva York, y seguirán inevitablemente más legislaturas.Esto es casi una década después del despliegue de Amazon. Su notoria herramienta de reclutamiento de IA Esto ha llevado a un sesgo dañino contra las candidatas.
VER: Política de ética de IA (Tecnopedia Premium)
Las tecnologías emergentes a menudo están fuera de control porque las industrias que las rodean están tomando forma. Debido a la rápida innovación y la lenta regulación, las empresas que son las primeras en cotizar en bolsa a menudo buscan el perdón público en lugar de la autorización institucional. Casi 20 años después de su fundación, Facebook (ahora Meta) todavía en gran medida autorreguladoLas criptomonedas debutaron en 2009 y ahora con $ 2,6 billones de capitalización de mercado, el debate sobre la regulación no ha hecho más que empezar. La World Wide Web existió sin restricciones durante cinco años hasta que el Congreso aprobó la Ley de Telecomunicaciones en 1996.
Quienes tienen la tarea de crear legislación a menudo no entienden la tecnología que están regulando, lo que da como resultado regulaciones vagas o inconexas que no protegen adecuadamente a los usuarios ni facilitan el progreso. Como era de esperar, la comercialización de la IA sigue un camino similar. Pero, con su crecimiento exponencial inherente y sus capacidades de aprendizaje, ¿cómo pueden mantenerse al día los reguladores o los profesionales de la IA?
Listo o no, la gobernanza de reclutamiento de AI está aquí. A medida que continúa desarrollándose la legislación en torno a esta tecnología transformadora, aquí hay cuatro que son las más importantes.
1. Los datos nunca son neutrales.
En el campo del reclutamiento, los riesgos de dejar que la IA no se controle son altos. El riesgo de desarrollar o perpetuar un sesgo contra la raza, el origen étnico, el género y la discapacidad es muy real cuando se utiliza la IA para filtrar, evaluar y seleccionar a los solicitantes de empleo.
Tratar de recopilar datos imparciales durante el proceso de contratación es como caminar sobre una mina terrestre. Las decisiones conscientes e inconscientes se toman en función del GPA, la reputación de la escuela o la redacción de un currículum, lo que lleva a resultados históricamente injustos.
Esta es la razón por la cual la ley de la ciudad de Nueva York requiere que todas las herramientas de decisión de empleo automatizadas se sometan a auditorías de sesgo, en las que auditores independientes determinan el impacto de la herramienta en un individuo en función de una serie de factores demográficos. Si bien los detalles de la solicitud de auditoría son vagos, es posible que se requiera que las empresas de contratación respaldadas por AI realicen un «análisis de impacto diferente» para determinar si algún grupo se ha visto afectado negativamente.
Los profesionales con conocimientos de IA ética pueden corregir datos sesgados y aun así producir algoritmos eficientes y predictivos. Deben visualizar, estudiar y limpiar los datos hasta que no se encuentren efectos adversos significativos. Sin embargo, los científicos que no son de datos tendrán dificultades para encontrar formas de hacer esto por su cuenta, ya que existen pocas herramientas poderosas y en su mayoría son de código abierto. Esta es la razón por la que es crucial que los tecnólogos de aprendizaje automático desinfecten rigurosamente las entradas de datos antes de implementar cualquier algoritmo.
2. Los conjuntos de datos diversos y ricos son esenciales.
Para evitar dolores de cabeza regulatorios, los datos utilizados para entrenar la IA deben ser adecuadamente representativos de todos los grupos para evitar resultados sesgados. Esto es especialmente importante en la contratación, ya que muchos entornos laborales profesionales son predominantemente blancos y/o masculinos, especialmente en industrias como la tecnología, las finanzas y los medios.
Sin acceso a datos diversos, ricos y suficientes, los científicos de datos experimentados pueden sintetizar muestras representativas adicionales para garantizar que todo el conjunto de datos tenga una proporción de uno a uno en todos los géneros, razas, edades, etc., independientemente del porcentaje de la población que representan en la industria o fuerza de trabajo.
3. AI no debe excluir candidatos.
Los métodos de reclutamiento tradicionales a menudo se basan en datos estructurados (como la información del currículum) y datos no estructurados (como «intuición») para filtrar o excluir candidatos de la consideración. Estos puntos de datos no son particularmente predictivos del desempeño futuro y, a menudo, contienen los sesgos más persistentes y sistemáticos.
Sin embargo, algunas herramientas de reclutamiento habilitadas para IA emiten recomendaciones que también dirigen a los tomadores de decisiones de contratación para que eliminen a los candidatos en función de las decisiones de IA. Cuando AI excluye a candidatos como este, es probable que algo salga mal.
En cambio, estas herramientas deben proporcionar puntos de datos adicionales que se pueden usar junto con otra información recopilada y evaluada durante el proceso de contratación. En su mejor día, la IA debe proporcionar información procesable, interpretable y complementaria para todos los candidatos, lo que permite a los empleadores tomar las mejores decisiones dirigidas por humanos.
4. Probar, probar y probar para eliminar sesgos obstinados u ocultos.
La regulación futura requerirá pruebas exhaustivas, clasificadas y tal vez incluso continuas de cualquier IA diseñada para ayudar a tomar decisiones de contratación en la naturaleza. Esto puede reflejar la regla de los cuatro quintos (4/5) establecida por la Comisión de Igualdad de Oportunidades en el Empleo (EEOC).
La regla 4/5 establece que cualquier grupo racial, de género o étnico debe tener una tasa de selección de no menos de las cuatro quintas partes o el 80 por ciento de la tasa de selección del grupo con la tasa de selección más alta. Lograr ningún impacto adverso de acuerdo con la regla 4/5 debería ser una práctica estándar en las herramientas de reclutamiento habilitadas para IA.
Sin embargo, es posible y deseable ir más allá. Por ejemplo, supongamos que utiliza una herramienta que proporciona pronósticos de rendimiento para los candidatos. Es posible que desee asegurarse de que entre los candidatos con las predicciones más altas, haya una representación adecuada y no haya signos de efectos adversos. Esto ayudará a determinar si es probable que el sesgo se concentre en diferentes puntos dentro del horizonte de pronóstico y lo ayudará a crear un ecosistema más justo para los candidatos.
Con el tiempo, una mayor supervisión del reclutamiento de AI reducirá la probabilidad de que los candidatos se vean en desventaja por factores subjetivos o directamente discriminatorios. Sin embargo, debido a la novedad y la ambigüedad de estas leyes, las empresas de IA están solas para garantizar que los candidatos estén protegidos.
Incluso con todos los riesgos, darle a la IA una ventaja en el reclutamiento no tiene comparación. El uso de la IA puede tener un impacto positivo en aspectos como la eficiencia, la precisión y la equidad, y la próxima supervisión no debería afectar su adopción.
-
Dr. Aaron Myers, director de tecnología, Suited
Dr. Myers es Adecuado para, una red de reclutamiento impulsada por inteligencia artificial y basada en evaluaciones que las empresas de servicios profesionales utilizan para identificar de manera precisa, confidencial y justa a los primeros candidatos profesionales de todos los orígenes y ubicarlos en oportunidades competitivas tempranas de carrera. Antes de unirse a Suited, fue cofundador de otra startup de reclutamiento basada en IA que trabajaba para eliminar los sesgos en el proceso de reclutamiento. Recibió un Ph.D. Ciencias Computacionales, Ingeniería y Matemáticas en la Universidad de Texas con un enfoque en la construcción de modelos de aprendizaje automático.