Si le preocupa que los algoritmos de selección de candidatos puedan interponerse entre usted y el trabajo de sus sueños, lea el artículo de Hilke Schellmann. El algoritmo no te tranquilizará. El nuevo libro del periodista de investigación y profesor de periodismo de la Universidad de Nueva York desmitifica cómo los departamentos de recursos humanos utilizan software de automatización que no sólo propaga prejuicios, sino que fracasa en lo que dice hacer: encontrar al mejor candidato para el puesto.
Schellmann se hizo pasar por un posible buscador de empleo para probar algunos de estos programas, que van desde filtros de currículum y pruebas basadas en videojuegos hasta evaluaciones de personalidad que analizan expresiones faciales, entonaciones vocales y comportamiento en las redes sociales. Una herramienta la calificó como una buena opción para un trabajo a pesar de que le dijo tonterías en alemán. Un algoritmo de evaluación de la personalidad le otorgó altas calificaciones de “estabilidad” según su uso de Twitter y una calificación baja según su perfil de LinkedIn.
Es suficiente para que quieras eliminar tu cuenta de LinkedIn y aceptar agricultura, pero Schellmann también tiene ideas edificantes. En una entrevista que ha sido editada para mayor extensión y claridad, sugirió cómo la sociedad podría controlar la tecnología de recursos humanos sesgada y ofreció consejos prácticos para quienes buscan empleo sobre cómo vencer a los robots.
Caitlin Harrington: Ha informado sobre el uso de la IA en la contratación de El periodico de Wall Street, Revisión de tecnología del MITy El guardián durante los últimos años. ¿En qué momento pensaste que tengo un libro aquí?
Hilke Schellmann: Una fue cuando asistí a una de las primeras conferencias sobre tecnología de recursos humanos en 2018 y encontré herramientas de inteligencia artificial que ingresaban al mercado. Había como 10.000 personas, cientos de vendedores, muchos compradores y grandes empresas. Me di cuenta de que se trataba de un mercado gigantesco y que se estaba apoderando de RRHH.
Las empresas de software suelen presentar sus productos como una forma de eliminar el sesgo humano en la contratación. Pero, por supuesto, la IA puede absorber y reproducir el sesgo de los datos de entrenamiento que ingiere. Descubrió un evaluador de currículum que ajustó las puntuaciones de un candidato cuando detectó la frase «afroamericano» en su currículum.
Schellmann: Por supuesto, las empresas dirán que sus herramientas no tienen sesgos, pero ¿cómo se han probado? ¿Alguien que no trabaje en la empresa ha investigado esto? El manual de una empresa decía que su IA de contratación se entrenó con datos de estudiantes universitarios de entre 18 y 25 años. Es posible que hayan encontrado algo muy específico para personas de entre 18 y 25 años que no se aplica a otros trabajadores con los que se utilizó la herramienta.
El daño que un gerente de contratación humana puede hacer es limitado y, obviamente, debemos tratar de evitarlo. Pero un algoritmo que se utiliza para calificar a cientos de miles de trabajadores, si es defectuoso, puede dañar a muchas más personas que cualquier ser humano.
Obviamente, los vendedores no quieren que la gente mire dentro de las cajas negras. Pero creo que los empleadores también evitan buscar porque entonces tienen una negación plausible. Si encuentran algún problema, es posible que haya 500.000 personas que hayan solicitado un trabajo y puedan tener un reclamo. Es por eso que necesitamos exigir más transparencia y pruebas.