{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/2020/03/06/como-los-algoritmos-nos-pueden-hacer-retroceder-decadas-en-igualdad-de-genero" }, "headline": "El sexismo de los algoritmos puede hacernos retroceder d\u00e9cadas en igualdad", "description": "La primera persona que escribi\u00f3 un algoritmo fue una mujer en el siglo XIX. Dos siglos m\u00e1s tarde, perpetuan la masculinidad t\u00f3xica.", "articleBody": "La primera persona que escribi\u00f3 un algoritmo fue una mujer en el siglo XIX. Dos siglos m\u00e1s tarde, los algoritmos \u0022tienen la capacidad de hacernos retroceder d\u00e9cadas\u0022 en paridad de g\u00e9nero, seg\u00fan Susan Leavy, investigadora de la University College Dublin que forma parte de un proyecto para evitar que los algoritmos de Inteligencia Artificial aprendan prejuicios de g\u00e9nero. \u0022Pueden exacerbar la masculinidad t\u00f3xica y las actitudes que hemos estado combatiendo durante d\u00e9cadas en la sociedad\u0022, a\u00f1ade. No es culpa de los algoritmos, sino de la historia de la humanidad. La Inteligencia Artificial (IA) aprende de los datos que se ponen a su disposici\u00f3n y la mayor\u00eda est\u00e1n sesgados, dice Leavy. \u0022Incluso aquellos que describen el mundo, debido a la discriminaci\u00f3n hist\u00f3rica de las mujeres\u0022. El problema es que las m\u00e1quinas aprenden de datos de los \u00faltimos 10-20 a\u00f1os, reproduciendo los prejuicios que hab\u00eda entonces y no incorporando los avances sociales recientemente conquistados. As\u00ed que no han o\u00eddo hablar del movimiento feminista global #MeToo o del himno chileno 'un violador en tu camino', por ejemplo. \u0022Continuamos repitiendo los errores del pasado\u0022, se\u00f1ala la investigadora. Y este sesgo en la programaci\u00f3n, tiene un impacto diario en la vida cotidiana de todas las mujeres: desde la b\u00fasqueda de trabajo hasta pasar un control de seguridad en un aeropuerto. Las pioneras en el mundo de la programaci\u00f3n Ada Lovelace (1815-1852) se convirti\u00f3 en la primera programadora de la historia, un siglo antes de que se inventaran los ordenadores. A mediados del siglo XIX, esta matem\u00e1tica brit\u00e1nica escribi\u00f3 el considerado como primer algoritmo para una m\u00e1quina computadora ideada por su colega, el cient\u00edfico Charles Babbage. De hecho, las pioneras en el mundo de la programaci\u00f3n fueron mujeres - consideradas m\u00e1s proclives a tareas minuciosas - como las programadoras de la ENIAC (siglas en ingl\u00e9s de Integrador Num\u00e9rico Electr\u00f3nico y Computadora). Como parte de un proyecto del ej\u00e9rcito estadounidense secreto de la Segunda Guerra Mundial, seis mujeres programaron la primera computadora electr\u00f3nica. Sin embargo, sus nombres pasaron al olvido cuando se present\u00f3 al p\u00fablico en 1946. Cuando solo son hombres los que programan Las mujeres est\u00e1n infrarrepresentadas en ciencia y en tecnolog\u00eda. El sector de la programaci\u00f3n se masculiniz\u00f3 a partir de la d\u00e9cada de 1980. En Europa, el 59% de los cient\u00edficos e ingenieros son hombres, seg\u00fan los \u00faltimos datos de Eurostat. Y esta desigualdad se traduce inconscientemente en la escritura de los algoritmos. \u0022Hay un gran problema de disparidad de g\u00e9nero, especialmente en el proceso de aprendizaje de las m\u00e1quinas\u0022, se\u00f1ala Leavy. \u0022Esto significa que hay una falta de perspectiva cr\u00edtica\u0022. Para un hombre, va a ser m\u00e1s dif\u00edcil encontrar prejuicios contra las mujeres en los datos a la hora de programar. \u0022No creo que la mayor\u00eda de los ingenieros quieran desarrollar algoritmos que discriminan por g\u00e9nero o raza\u0022, dice la investigadora. \u0022Son malos algoritmos, no son ciencia\u0022. Pero no es solo una cuesti\u00f3n de buenas intenciones, es necesario formar a los programadores para que sean capaces de detectar esos sesgos. Para esta investigadora, lo ideal son equipos diversos, como el suyo, que busca intervenir en los datos de los que aprenden los algoritmos para eliminar los prejuicios antes de que las m\u00e1quinas los aprendan. \u0022Sabemos que los equipos que no son diversos no producen buenos resultados\u0022. En las empresas que desarrollan tecnolog\u00eda, dice que es fundamental contar con mujeres en los equipos para que estas puedan probar los productos. \u00bfC\u00f3mo discriminan los algoritmos a las mujeres? \u0022La Inteligencia Artifical y otras tecnolog\u00edas basadas en algoritmos ahora dan forma a nuestras vidas de manera significativa y mundana\u0022, dice Joy Lisi Rankin, investigadora l\u00edder de G\u00e9nero, Raza y Poder en lnteligencia Artifical en el Instituto AI Now de Nueva York. \u0022Rara vez entendemos esto porque las tecnolog\u00edas son invisibles para nosotros, y la forma en que funcionan no es para nada transparente\u0022. Estos sistemas de algoritmos determinan, por ejemplo, qui\u00e9n tiene a recursos y beneficios importantes, a\u00f1ade. Uno de los casos m\u00e1s conocidos de discriminaci\u00f3n por el uso de Inteligencia Artificial fue el malogrado automatismo de contrataci\u00f3n de Amazon. En 2018, sali\u00f3 a la luz que la multinacional estadounidense hab\u00eda desechado su herramienta de Inteligencia Artificial con la que llevaba cuatro a\u00f1os seleccionando a los candidatos para sus puestos de trabajo porque era sexista. Esto se debi\u00f3 a que los modelos inform\u00e1ticos de Amazon fueron entrenados siguiendo los patrones observados en curr\u00edculos presentados a la empresa durante una d\u00e9cada, explicaba entonces el art\u00edculo de Reuters que destap\u00f3 la historia. Pero como el sector tecnol\u00f3gico est\u00e1 altamente masculinizado, la mayor\u00eda de los curr\u00edculums que utilizaron para el aprendizaje del automatismo eran de hombres. \u0022La selecci\u00f3n de curr\u00edculums es un \u00e1rea muy problem\u00e1tica\u0022, dice Leavy. \u0022Incluso si le dices a los algoritmos de IA que no miren el g\u00e9nero, ellos encontrar\u00e1n otras formas para averiguarlo\u0022. El algoritmo de Amazon penalizaba los curr\u00edculums que inclu\u00edan palabras relativas al g\u00e9nero femenino, incluso en las aficiones de los candidatas, como \u0022capitana del equipo femenino de rugby\u0022. No solo es una cuesti\u00f3n de g\u00e9nero, este tipo de algoritmos castigan cualquier tipo de diversidad, al privilegiar una serie de patrones que acaban por favorecer a la parte m\u00e1s privilegiada y representada de la sociedad: los hombres blancos. Los sistemas de reconocimiento facial son otro de los algoritmos problem\u00e1ticos, explica la investigadora. \u0022Si eres una mujer con piel oscura, funcionar\u00e1 peor\u0022. La consecuencia puede ser leve, por ejemplo que a tu tel\u00e9fono le cueste m\u00e1s desbloquearse con tu rostro, pero tambi\u00e9n puede significar tener dificultades a la hora de pasar un control de seguridad. \u0022Si eres un hombre blanco que va a un aeropuerto, obtienes un pase r\u00e1pido, si eres una mujer con la piel oscura tienes muchas m\u00e1s posibilidades de hacer una cola m\u00e1s larga\u0022. Otro espacio en el que los algoritmos sexistas est\u00e1n teniendo un impacto crucial en la vida de las mujeres es en los motores de b\u00fasqueda y en las redes sociales. \u0022Categorizan y tratan a los s de forma distinta teniendo en cuenta una serie de estereotipos\u0022, dice Leavy. Lo \u0022m\u00e1s peligroso\u0022 es cuando utilizan estas clasificaciones para enviar publicidad personalizada, particularmente a la gente joven que es m\u00e1s influenciable, se\u00f1ala la Leavy. La investigadora Joy Lisi Rankin pone ejemplos: \u0022Facebook public\u00f3 anuncios para trabajos mejor pagados a hombres blancos, mientras que a las mujeres y a las personas de color se les mostraron anuncios para trabajos peor pagados. Las b\u00fasquedas en Google de 'chicas negras' o 'latinas' produjeron resultados sexistas y pornogr\u00e1ficos\u0022. \u00bfY si nos ayudaran a combatir el sexismo en vez de perpetuarlo? Los nuevos reglamentos de la Uni\u00f3n Europea para el desarrollo de la IA se\u00f1alan \u0022una creciente concienciaci\u00f3n\u0022, dice Leavy. Es una cuesti\u00f3n que la Comisi\u00f3n Europea de Ursula von der Leyen est\u00e1 impulsando y priorizando, a\u00f1ade. \u0022Puede que nos lleve 10 a\u00f1os\u0022. Para que esto suceda dice que hay que involucrar a equipos multidisciplinarios, con las perspectivas tanto de los hombres como de las mujeres representados en los equipos. Los algoritmos tambi\u00e9n podr\u00edan ayudarnos a combatir la discriminaci\u00f3n, por ejemplo el sexismo en los procesos de contrataci\u00f3n. Una m\u00e1quina podr\u00eda ser m\u00e1s imparcial que un humano a la hora de hacer la selecci\u00f3n de candidatos, si el aprendizaje es el correcto. \u0022Tengo que ver m\u00e1s pruebas de esto para creerlo\u0022, se\u00f1ala Leavy. Pero, los algoritmos tienen este potencial, afirma, aunque \u0022no es como los usamos por ahora\u0022. ", "dateCreated": "2020-03-06T11:07:30+01:00", "dateModified": "2020-03-10T15:24:14+01:00", "datePublished": "2020-03-06T16:39:32+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F04%2F55%2F08%2F92%2F1440x810_cmsv2_93a93463-86d4-5e34-8338-e7d854b04c90-4550892.jpg", "width": 1440, "height": 810, "caption": "La primera persona que escribi\u00f3 un algoritmo fue una mujer en el siglo XIX. Dos siglos m\u00e1s tarde, perpetuan la masculinidad t\u00f3xica.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F04%2F55%2F08%2F92%2F432x243_cmsv2_93a93463-86d4-5e34-8338-e7d854b04c90-4550892.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Rodriguez Martinez", "givenName": "Marta", "name": "Marta Rodriguez Martinez", "url": "/perfiles/984", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/@marta_rodguez", "memberOf": { "@type": "Organization", "name": "R\u00e9daction" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Mundo" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

El sexismo de los algoritmos puede hacernos retroceder décadas en igualdad

El sexismo de los algoritmos puede hacernos retroceder décadas en igualdad
Derechos de autor Eddie Worth/1946 AP
Derechos de autor Eddie Worth/1946 AP
Por Marta Rodriguez Martinez
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

La primera persona que escribió un algoritmo fue una mujer en el siglo XIX. Dos siglos más tarde, perpetuan la masculinidad tóxica.

PUBLICIDAD

La primera persona que escribió un algoritmo fue una mujer en el siglo XIX.

Dos siglos más tarde, los algoritmos "tienen la capacidad de hacernos retroceder décadas" en paridad de género, según Susan Leavy, investigadora de la University College Dublin que forma parte de un proyecto para evitar que los algoritmos de Inteligencia Artificial aprendan prejuicios de género.

"Pueden exacerbar la masculinidad tóxica y las actitudes que hemos estado combatiendo durante décadas en la sociedad", añade.

No es culpa de los algoritmos, sino de la historia de la humanidad.

La Inteligencia Artificial (IA) aprende de los datos que se ponen a su disposición y la mayoría están sesgados, dice Leavy. "Incluso aquellos que describen el mundo, debido a la discriminación histórica de las mujeres".

El problema es que las máquinas aprenden de datos de los últimos 10-20 años, reproduciendo los prejuicios que había entonces y no incorporando los avances sociales recientemente conquistados. Así que no han oído hablar del movimiento feminista global #MeToo o del himno chileno 'un violador en tu camino', por ejemplo.

"Continuamos repitiendo los errores del pasado", señala la investigadora.

Y este sesgo en la programación, tiene un impacto diario en la vida cotidiana de todas las mujeres: desde la búsqueda de trabajo hasta pasar un control de seguridad en un aeropuerto.

Como todas las tecnologías anteriores, la inteligencia artificial reflejará los valores de sus creadores
Kate Crawford
Co-directora del Instituto AI Now de la Universidad de Nueva York

Las pioneras en el mundo de la programación

Ada Lovelace (1815-1852) se convirtió en la primera programadora de la historia, un siglo antes de que se inventaran los ordenadores. A mediados del siglo XIX, esta matemática británica escribió el considerado como primer algoritmo para una máquina computadora ideada por su colega, el científico Charles Babbage.

De hecho, las pioneras en el mundo de la programación fueron mujeres - consideradas más proclives a tareas minuciosas - como las programadoras de la ENIAC (siglas en inglés de Integrador Numérico Electrónico y Computadora). Como parte de un proyecto del ejército estadounidense secreto de la Segunda Guerra Mundial, seis mujeres programaron la primera computadora electrónica.

Sin embargo, sus nombres pasaron al olvido cuando se presentó al público en 1946.

AP
El general mayor del Ejército estadounidense Gladeon M. Barnes y dos investigadores observan la tabla de funciones de la supercomputadora ENIAC el 9 de febrero de 1946.AP

Cuando solo son hombres los que programan

Las mujeres están infrarrepresentadas en ciencia y en tecnología. El sector de la programación se masculinizó a partir de la década de 1980. En Europa, el 59% de los científicos e ingenieros son hombres, según los últimos datos de Eurostat.

Y esta desigualdad se traduce inconscientemente en la escritura de los algoritmos.

"Hay un gran problema de disparidad de género, especialmente en el proceso de aprendizaje de las máquinas", señala Leavy. "Esto significa que hay una falta de perspectiva crítica".

Para un hombre, va a ser más difícil encontrar prejuicios contra las mujeres en los datos a la hora de programar. "No creo que la mayoría de los ingenieros quieran desarrollar algoritmos que discriminan por género o raza", dice la investigadora. "Son malos algoritmos, no son ciencia".

Pero no es solo una cuestión de buenas intenciones, es necesario formar a los programadores para que sean capaces de detectar esos sesgos.

Para esta investigadora, lo ideal son equipos diversos, como el suyo, que busca intervenir en los datos de los que aprenden los algoritmos para eliminar los prejuicios antes de que las máquinas los aprendan. "Sabemos que los equipos que no son diversos no producen buenos resultados".

En las empresas que desarrollan tecnología, dice que es fundamental contar con mujeres en los equipos para que estas puedan probar los productos.

Un algoritmo puede formar un prejuicio muy estereotipado de ti
Susan Leavy
Investigadora de la University College Dublin
AP/Ahmad Seir
Mujeres afganas practican programación en el centro de capacitación informática 'Código para inspirar' en la provincia de Herat, al oeste de Afganistán., 22 de enero de 2018.AP/Ahmad Seir

¿Cómo discriminan los algoritmos a las mujeres?

"La Inteligencia Artifical y otras tecnologías basadas en algoritmos ahora dan forma a nuestras vidas de manera significativa y mundana", dice Joy Lisi Rankin, investigadora líder de Género, Raza y Poder en lnteligencia Artifical en el Instituto AI Now de Nueva York. "Rara vez entendemos esto porque las tecnologías son invisibles para nosotros, y la forma en que funcionan no es para nada transparente".

Estos sistemas de algoritmos determinan, por ejemplo, quién tiene a recursos y beneficios importantes, añade.

Uno de los casos más conocidos de discriminación por el uso de Inteligencia Artificial fue el malogrado automatismo de contratación de Amazon.

En 2018, salió a la luz que la multinacional estadounidense había desechado su herramienta de Inteligencia Artificial con la que llevaba cuatro años seleccionando a los candidatos para sus puestos de trabajo porque era sexista.

Esto se debió a que los modelos informáticos de Amazon fueron entrenados siguiendo los patrones observados en currículos presentados a la empresa durante una década, explicaba entonces el artículo de Reuters que destapó la historia. Pero como el sector tecnológico está altamente masculinizado, la mayoría de los currículums que utilizaron para el aprendizaje del automatismo eran de hombres.

"La selección de currículums es un área muy problemática", dice Leavy. "Incluso si le dices a los algoritmos de IA que no miren el género, ellos encontrarán otras formas para averiguarlo".

El algoritmo de Amazon penalizaba los currículums que incluían palabras relativas al género femenino, incluso en las aficiones de los candidatas, como "capitana del equipo femenino de rugby".

La razón por la que existen los algoritmos es para analizar muchos individuos y agruparlos y crear generalizaciones y entonces dar información basada en esos estereotipos
Investigadora de la University College Dublin

No solo es una cuestión de género, este tipo de algoritmos castigan cualquier tipo de diversidad, al privilegiar una serie de patrones que acaban por favorecer a la parte más privilegiada y representada de la sociedad: los hombres blancos.

AP
Activistas se pintan la cara para confundir las cámaras de vigilancia de Huawei con el software de reconocimiento facial en Belgrado, Serbia, 25 de septiembre de 2019.APDarko Vojinovic

Los sistemas de reconocimiento facial son otro de los algoritmos problemáticos, explica la investigadora. "Si eres una mujer con piel oscura, funcionará peor".

La consecuencia puede ser leve, por ejemplo que a tu teléfono le cueste más desbloquearse con tu rostro, pero también puede significar tener dificultades a la hora de pasar un control de seguridad.

"Si eres un hombre blanco que va a un aeropuerto, obtienes un pase rápido, si eres una mujer con la piel oscura tienes muchas más posibilidades de hacer una cola más larga".

Tu país está construyendo una infraestructura y un sistema que privilegia a los hombres
Susan Leavy
Investigadora de la University College Dublin

Otro espacio en el que los algoritmos sexistas están teniendo un impacto crucial en la vida de las mujeres es en los motores de búsqueda y en las redes sociales.

"Categorizan y tratan a los s de forma distinta teniendo en cuenta una serie de estereotipos", dice Leavy. Lo "más peligroso" es cuando utilizan estas clasificaciones para enviar publicidad personalizada, particularmente a la gente joven que es más influenciable, señala la Leavy.

La investigadora Joy Lisi Rankin pone ejemplos: "Facebook publicó anuncios para trabajos mejor pagados a hombres blancos, mientras que a las mujeres y a las personas de color se les mostraron anuncios para trabajos peor pagados. Las búsquedas en Google de 'chicas negras' o 'latinas' produjeron resultados sexistas y pornográficos".

¿Y si nos ayudaran a combatir el sexismo en vez de perpetuarlo?

Los nuevos reglamentos de la Unión Europea para el desarrollo de la IA señalan "una creciente concienciación", dice Leavy.

Es una cuestión que la Comisión Europea de Ursula von der Leyen está impulsando y priorizando, añade. "Puede que nos lleve 10 años".

Para que esto suceda dice que hay que involucrar a equipos multidisciplinarios, con las perspectivas tanto de los hombres como de las mujeres representados en los equipos.

Los algoritmos también podrían ayudarnos a combatir la discriminación, por ejemplo el sexismo en los procesos de contratación. Una máquina podría ser más imparcial que un humano a la hora de hacer la selección de candidatos, si el aprendizaje es el correcto.

"Tengo que ver más pruebas de esto para creerlo", señala Leavy. Pero, los algoritmos tienen este potencial, afirma, aunque "no es como los usamos por ahora".

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

Cocinitas y espadas láser para el niño y la niña: fin de la publicidad de juguetes sexista en España

Día de las Escritoras: ¿Quiénes son las autoras más traducidas?

La ONU denuncia la prohibición talibán de que se no escuche la voz de las mujeres en público