Amazon desarrolló herramienta de inteligencia artificial, pero tuvo que cerrarla porque discriminaba las mujeres

Grecia prohíbe a los turistas obesos montar en burros en rutas de tours
Octubre 10, 2018
Cristóbal Colón ‘descubre América’ un 11 de octubre de 1492 no un día 12; Diario del primer viaje
Octubre 11, 2018
Mostrar todos

Amazon desarrolló herramienta de inteligencia artificial, pero tuvo que cerrarla porque discriminaba las mujeres

Amazon, foto Web.

(Reuters, businessinsider). Amazon trabajó en la construcción de una herramienta de inteligencia artificial para ayudar con la contratación, pero los planes fracasaron cuando la compañía descubrió que el sistema discriminaba a las mujeres, informa Reuters. .

Citando cinco fuentes, Reuters dijo que Amazon creó un equipo de ingeniería en Edimburgo, Escocia, en 2014 para encontrar una manera de automatizar su reclutamiento.

La compañía creó 500 modelos de computadora para rastrear los currículos de ‘candidatos pasados’ ​​y seleccionar alrededor de 50,000 candidatos clave, el sistema rastrearía la web para recomendar candidatos potenciales.

Literalmente querían que fuera un motor de búsqueda, donde pre seleccionaría 100 hojas de vida, tomar los cinco primeros y los contrataremos“, dijo una fuente a Reuters.

Sin embargo, año después, los ingenieros notaron que había algo preocupante en su motor de busqueda: No le gustaban las mujeres, aparentemente, esto se debió a que la IA repasó los currículos predominantemente masculinos enviados a Amazon durante un período de 10 años para acumular datos sobre a quién contratar.

En consecuencia, la IA llegó a la conclusión de que los hombres eran preferibles, según se informa, rebajó los currículos que contenían las palabras “mujeres” y eliminó a los (las) candidatos que habían asistido a dos universidades solo para mujeres.

Los ingenieros de Amazon aparentemente modificaron el sistema para remediar estas formas particulares de sesgo, pero no podían estar seguros de que la IA no encontraría nuevas formas de discriminar injustamente a las candidatas.

El sesgo de género no fue el único problema, dijeron las fuentes de Reuters, los programas de computadora también escupieron candidatos que no estaban calificados para el puesto.

Remediar el sesgo algorítmico es un tema espinoso, ya que los algoritmos pueden detectar el sesgo humano subconsciente, en 2016, ProPublica descubrió que el software de evaluación de riesgos utilizado para predecir qué criminales eran más propensos a reincidir presentaba un sesgo racial contra los negros, el exceso de confianza en la inteligencia artificial para cosas como el reclutamiento, la calificación crediticia y los juicios de libertad condicional también han creado problemas en el pasado.

Amazon informó que abandonó el proyecto de reclutamiento de AI a principios del año pasado después de que los ejecutivos perdieron la fe en él. Las fuentes de Reuters dijeron que los reclutadores de Amazon analizaron las recomendaciones generadas por la AI, pero nunca se basaron únicamente en su juicio.

Amazon declaró a Business Insider que estaban comprometido con la diversidad e igualdad en el lugar de trabajo, pero se negó a hacer más comentarios.

LeoNOTICIA.