Microsoft quiere regular el reconocimiento facial para evitar sesgos

 

Este artículo es un seguimiento de los tipos. Hace seis meses publicamos la noticia de que Microsoft estaba trabajando en una solución para el software de reconocimiento facial que se consideró racialmente sesgado. Ahora, la propia empresa exige que se regule el reconocimiento facial para evitar sesgos. Así que se configuró con software sesgado, y ahora quieren que toda la industria esté regulada para evitar que cualquier otra persona obtenga software sesgado racialmente.

Microsoft quiere regular el reconocimiento facial para evitar sesgos - Artículos

Problema principal

Como informamos en junio, la API de la interfaz de usuario de Microsoft, que se basa en Azure, fue criticada en un artículo de investigación. El programa tenía dificultad para reconocer a personas de color oscuro o mujeres. La tasa de error llegó al 20.8%, pero con "rostros masculinos más claros", la tasa de error fue del cero por ciento.

La razón detrás de esta diferencia en el reconocimiento es que la IA debe ser programada por personas. Los resultados solo serán tan buenos como las personas que hicieron la programación. Los programadores de Microsoft no usaron suficientes personas con tonos de piel más oscuros o suficientes mujeres.

Microsoft arregló esto diversificando sus datos de entrenamiento y comenzó a probar sus sistemas internamente antes de la implementación. Pudieron reducir la tasa de error de las personas de piel oscura hasta veinte veces y la tasa de error de las mujeres nueve veces.

Pagar por Legislación

Microsoft quiere regular el reconocimiento facial para evitar sesgos - Artículos

Seis meses después, le pregunté Microsoft de los gobiernos para aprobar una legislación que requiere probar la tecnología de reconocimiento facial de forma independiente para garantizar que sea precisa, para evitar sesgos y para proteger los derechos de los usuarios.

“El genio del reconocimiento facial, por así decirlo, acaba de salir de la botella”, dijo Brad Smith, consultor senior de Microsoft, en una publicación de blog.

“A menos que actuemos, corremos el riesgo de despertar dentro de cinco años y descubrir que los servicios de reconocimiento facial han proliferado de manera que exacerban los problemas sociales. Para entonces, estos desafíos serán mucho más difíciles.

La compañía solicita que los resultados del reconocimiento facial sean revisados ​​por personas en lugar de dejarlos en manos de las computadoras.

“Esto incluye lugares donde las decisiones pueden generar riesgos de daño físico o emocional para el consumidor, donde puede haber implicaciones para los derechos humanos o los derechos fundamentales, y donde la libertad personal o la privacidad personal del consumidor pueden ser violadas”.

Microsoft quiere regular el reconocimiento facial para evitar sesgos - Artículos

Además, Smith sugirió que aquellos que usan el reconocimiento facial deben "reconocer que no han sido relevados de su obligación de cumplir con las leyes que prohíben la discriminación contra consumidores individuales o grupos de consumidores".

También quería asegurarse de que el uso del reconocimiento facial por parte del gobierno no equivaliera a las libertades democráticas y los derechos humanos de las personas.

“Debemos asegurarnos de que el año 2024 no parezca una página de la novela 1984”, concluyó.

Además,

Microsoft tiene razón, por supuesto. Es interesante que hace seis meses no reconocieron la necesidad de tener cuidado de que sus programas no distinguieran, y ahora no solo se dan cuenta de esto, sino que también quieren asegurarse de que nadie más pueda cometer los mismos errores. Lo hicieron.

Independientemente de su estado anterior, ¿tiene razón Microsoft al exigir una legislación y un escrutinio de las opciones de reconocimiento facial? Cuéntanos tu opinión sobre el pedido de Microsoft en la sección de comentarios a continuación.

Ir al botón superior