Lima, Perú
+5113014109

Un grupo de académicos solicita al Gobierno que se frene el uso de reconocimiento facial

Un grupo de académicos solicita al Gobierno que se frene el uso de reconocimiento facial


Madrid
Actualizado:

Guardar

Los sistemas de reconocimiento facial apoyados en Inteligencia Artificial, capaces de catalogar a una persona en función de sus rasgos o su forma de actuar, llevan tiempo figurando como uno de los mayores problemas éticos a los que se enfrenta la tecnología. Un grupo conformado por más de 70 expertos en diversos campos ha remitido una carta al gobierno español en la que se solicita que se frene su uso hasta que un comité independiente investigue a fondo sus potenciales usos perjudiciales y los fallos que ha registrado hasta la fecha. «El problema no es ya que esta tecnología pueda fallar, sino hasta que punto una decisión adoptada en función del reconocimiento facial tiene efectos», explica a ABC Ofelia Tejerina, presidenta de la Asociación de Internautas, abogada especializada en temas digitales y una de las firmantes del documento.

Los participantes en la carta destacan los «potenciales efectos perniciosos que estos sistemas pueden tener sobre el bienestar, los intereses y las necesidades y derechos fundamentales de la población española». Especialmente en lo que se refiere a su empleo para analizar el rostro y los gestos de una persona para categorizarla. En lo que se refiere a España destacan que recientemente RENFE publicó (y luego retiró) una licitación para desarrollar un sistema de reconocimiento y análisis que, entre otras cosas, debía permitir identificar el género, la etnia o incluso el estado emocional de los usuarios. El objetivo que perseguía era el de la prevención de peleas o conflictos en el transporte.

Sea como fuere, el empleo de tecnología de este tipo, de acuerdo con los firmantes, podría permitir asociar a una persona una determinada característica en función de estadísticas poblacionales. Gracias a su uso sería posible, por ejemplo, identificar a un estudiante como probable tramposo, a un posible cliente de un banco como potencial moroso. Y todo porque otros «similares a él» se han comportado de esa forma. «Estos sistemas detectan un patrón, no exactamente todos los detalles de tu cara, sino el patrón que cumplen tus rasgos. Preocupan mucho las decisiones jurídicas que se puedan tomar respecto a esos patrones», apunta Tejerina.

Asimismo, en la carta se destaca que «hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos “problemáticos”, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas». También se llama la atención sobre las limitaciones de los sistemas, cuyos resultados dependen mucho de las condiciones en las que se utilicen, y en la existencia de sesgos: «Es fácil que un sesgo muestral afecte de manera notable la calidad predictiva de un sistema cuando diferentes grupos no están representados de forma igualitaria en los datos de entrenamiento».

El objetivo final de la carta es que el gobierno apruebe la formación de una comisión «compuesta por científicos, juristas, expertos en ética e inteligencia artificial y por miembros de la sociedad civil» destinada a investigar los problemas que hay detrás del uso de esta tecnología y se paralice su implementación. El objetivo, según Tejerina, no sería el de regular la tecnología en sí, sino las decisiones que se pueden adoptar a raíz de su empleo. «Lo que tenemos que regular son las decisiones que se adoptan. Lo que es importante es que se establezca para qué se puede utilizar un sistema de reconocimiento facial y que sea una excepción; no la norma general. ¿Se va a utilizar para el sector privado o para el público? ¿En qué circunstancias?», dice la presidenta de Internautas.

Ver los
comentarios



Enlace fuente

Post Relacionados
× ¿Cómo puedo ayudarte? Available from 09:00 to 18:00