Las herramientas de IA generativa se utilizan a menudo para seleccionar y clasificar candidatos, crear currículums y cartas de presentación y resumir varios archivos simultáneamente. Pero las IA son tan buenas como los datos con los que están entrenadas.
GPT-3.5 se entrenó con cantidades masivas de información ampliamente disponible en línea, incluidos libros, artículos y redes sociales. El acceso a estos datos en línea reflejará inevitablemente desigualdades sociales y sesgos históricos, como se muestra en los datos de entrenamiento, que el robot de IA hereda y replica hasta cierto punto.
También: Cinco formas de utilizar la IA de forma responsable
Nadie que utilice IA debería asumir que estas herramientas son intrínsecamente objetivas porque están entrenadas con grandes cantidades de datos de diferentes fuentes. Si bien los robots de IA generativa pueden ser útiles, no debemos subestimar el riesgo de sesgo en un proceso de contratación automatizado, y esa realidad es crucial para los reclutadores, los profesionales de recursos humanos y los gerentes.
Otro estudio encontró que el prejuicio racial está presente en las tecnologías de reconocimiento facial que muestran tasas de precisión más bajas para las personas de piel oscura. Algo tan simple como datos de distribuciones demográficas en códigos postales que se utilizan para entrenar modelos de IA, por ejemplo, puede dar lugar a decisiones que afecten desproporcionadamente a personas de determinados orígenes raciales.