Derecho, Inteligencia Artificial y Mujer.

​Apartar a la Mujer de la Inteligencia Artificial no es inteligente La inequidad de género es una epidemia mundial, un problema complejo que existe en la realidad social.

7 SEP 2023 · Última modificación: 14 MAY 2024 · Lectura: min.
Derecho, Inteligencia Artificial y Mujer.

La ONU, a través de la UNCTAD (Conferencia de las Naciones Unidas sobre Comercio y Desarrollo) acaba de publicar su Informe de Tecnología e Innovación 2021 y reitera los sesgos incorporados. Así: "Muchos motivos de preocupación guardan relación con los sesgos en el diseño y las consecuencias no deseadas de la IA. Los sesgos dentro de los sistemas de IA pueden manifestarse de varias maneras, ya sea porque se empleen algoritmos sesgados o porque se utilicen datos sesgados para su entrenamiento. Por ejemplo, la IA puede perpetuar los estereotipos y reducir las ventajas de los productos en el caso de las mujeres." las Tecnologías de la Información (TI) serán determinantes en material de igualdad para bien o para mal. Una de las claves para que este no suceda se encuentra en los gobiernos. Según se desprende del estudio, la tarea de éstos "es maximizar los beneficios potenciales, al tiempo que se mitigan los resultados perjudiciales". "Todos los países en desarrollo tendrán que preparar a personas y empresas para un período de rápidos cambios. Para tener éxito en el siglo XXI será preciso adoptar un enfoque equilibrado: crear una base industrial sólida y promover tecnologías de frontera que puedan contribuir a culminar la Agenda 2030 y su visión global de sociedades inclusivas, sostenibles y centradas en las personas".

La Inteligencia Artificial está compuesta por un data set -conjunto de datos- que procesado por un algoritmo (una secuencia de pasos lógicos) determina una predicción o un resultado. La esencia de la Inteligencia Artificial entonces son los datos, si estos datos son discriminatorios, el resultado así lo será. Si existe un dato sesgado, inexorablemente el resultado es sesgado. Esto nos lleva a preguntarnos por la existencia de datos confiables y representativos para evitar que un algoritmo sea sexista. Por consiguiente, en una sociedad construida a partir de mujeres como seres sexuales y reproductivos, resulta contradictorio pretender que la Inteligencia Artificial arroje otra idea. Es decir, el cambio de paradigma es urgente y colectivo. Debemos –como ciudadanos integrantes de una sociedad- eliminar diferencias, sesgos y todo tipo de exclusión que nos aleje, no solo como integrantes de este mundo sino como seres humanos. Nacemos y morimos en sociedad, entonces, en la Era de la Información debemos disminuir diferencias anárquicas y neocolonialistas. El liderazgo de la mujer incomoda y es algo más profundo y cultural. Los pensamientos ególatras y de masculinidad hegemónica deben ser superados para transitar esta Nueva Revolución hacia un mundo más justo y ecuánime.

Hablando de discriminación por cuestiones de género, uno de los casos más llamativos ha sido el de Apple y su polémica al conceder con su tarjeta más crédito a los hombres que a las mujeres. Un emprendedor tecnológico, David Heinemer Hansson, puso a prueba la Apple Card y comprobó los sesgos. A pesar de compartir patrimonio con su mujer, tener bienes gananciales y llevar mucho tiempo casados, la tarjeta le permite a él un límite de crédito 20 veces superior al de su mujer. Otro ejemplo lo podemos encontrar en Amazon: en el año 2014 la compañía comenzó a desarrollar un programa que, utilizando Machine Learning, permitía revisar y evaluar automáticamente cientos de curriculum vitae aprendiendo de los recibidos en los últimos 10 años y el desempeño de las personas contratadas en ese rango de tiempo. El 2015 la compañía se percató de que el nuevo sistema ponderaba de peor manera a las mujeres para puestos de desarrollo de software u otras labores técnicas, dado el reflejo histórico donde predominan los hombres a las mujeres. A pesar de los esfuerzos, Amazon no pudo revertir este aprendizaje y desechó el programa. Y la aplicación de la IA en la selección de personal es algo que muchas grandes empresas están utilizando. Por ejemplo, LinkedIn ofrece a las empresas clasificaciones algorítmicas de candidatos en función de cómo encajan con las ofertas de trabajo en su plataforma. Sin duda, al nutrirse de datos históricos se heredan prejuicios y se traslada la discriminación offline al plano online.

Cabe así preguntarse, ¿qué está primero, el huevo o la gallina? Ser y estar son diferentes. No somos una sociedad sesgada, estamos así. Esto quiere decir que se puede y debe cambiarse. La ejecutabilidad es lo que falta. Las mujeres hoy logramos la mayor cantidad de títulos universitarios, maestrías y doctorados— tristemente nos pagan menos (un 30% menos). Y el 51% (cifra global) cuando tienen bebés abandonan su trabajo por falta de flexibilidad. Entonces nos encontramos frente a una sociedad que expulsa el talento de la mitad del universo, que además resulta ser la mitad más capacitada. Automáticamente, vemos que no hay mujeres en posiciones de liderazgo. Y claro, esto es obvio, si nos expulsan del sistema nunca llegaremos a posiciones de liderazgo. El verdadero empoderamiento de la mujer comienza con la acción, no basta con la intención. No hace falta intención ni preparación hace falta que nuestro empoderamiento sea visible, y claro –ejecutado- de una vez por todas.

Sin dudas, nos encontramos anestesiados en Inteligencia Artificial, es decir, no somos conscientes de sus sesgos. La consciencia de la discriminación es el primer paso. No podemos cambiar sin ser conscientes de la exclusión de minorías que genera un mal uso de ella. Convivir con la virtualidad implica una innovación y un cambio de paradigma. Incluir a la mujer como programadora y hábil en Inteligencia Artificial es el camino para aplicarla en un estado de derecho. Si nosotras, controlamos y formamos parte de esta revolución digital y de los algoritmos podemos crear una magnífica herramienta que va a propiciar un futuro mejor. Si el problema de la Inteligencia Artificial es su discriminación con las minorías, ¿por qué esas minorías no se encargan de su control? Si la masculinidad hegemónica junto a los micromachismos triunfa por su invisibilidad, ¿cómo pensar que esto no afectaría a la Inteligencia Artificial?

Ha medida que avanza la Inteligencia Artificial, se hacen más necesarios los discursos éticos y la denuncia de sesgos de género y xenófobos que reproducen. La Inteligencia Artificial no es neutra ni ingenua, se nutre de nuestra inteligencia y destreza. El problema entonces, no es nuevo y no está tampoco limitado a los estereotipos de género. La inteligencia artificial ya se ha topado, por culpa de los sesgos de datos, con conflictos de racismo. Grandes empresas como Google y su buscador de imágenes o YouTube, se han enfrentado a importantes polémicas. Si buscamos términos como cocina en Google, solo aparecen imágenes de mujeres, pero si buscamos CEO solo aparecen hombres. Los adjetivos no son iguales, los hombres son valientes, racionales y justos. Las mujeres son bonitas y sexys. El problema no está solo en el dato como adelanté, sino en quién crea ese dato. El trabajo de diseñar algoritmos lo hacen en su mayoría hombres blancos asumiendo su experiencia como término medio. He aquí el quid de la cuestión -siguiendo a Caroline Criado- Pérez en "La mujer invisible"- un hombre no es el término medio para la humanidad toda.

Los avances tecnológicos se visten de objetividad. Parecen neutros, sin ideología, pero esto es una catarata visual que debe ser operada. En muchos foros se habla de "algocracia" y del castigo algorítmico: también puede ser racistas o clasistas: "La ciencia estadística le da más valor a las variables sobre las que tenga más datos. Por tanto, de personas de raza distinta a la mayoritaria, el algoritmo tendrá menos información sobre estas personas, le dará menos valor porque no tiene información para dar una fiable. Por tanto, lo va a descartar"

La ONU, a través de la UNCTAD (Conferencia de las Naciones Unidas sobre Comercio y Desarrollo) en su Informe de Tecnología e Innovación 2021 afirma que "El acceso a la tecnología también puede verse restringido por las normas sociales, como en el caso de las mujeres, las minorías étnicas y otros grupos desfavorecidos, e incluso en el seno familiar" e inmediatamente propone dos soluciones:

1) Perfeccionar las habilidades digitales. Los planes de educación y formación deben ser inclusivos y promover específicamente la participación de las mujeres

2) Aumentar la participación de la mujer. Para que las mujeres puedan desempeñar plenamente su papel en las tecnologías de frontera, los gobiernos y las organizaciones internacionales tendrán que alentar a las niñas y las mujeres a estudiar materias científicas y tecnológicas, así como ingeniería y matemáticas.

Entonces, eliminar los sesgos de masculinidad hegemónica no es futurista, es entender finalmente que la mujer "princesa" se construye su propio principado.

DANIELA CONCEPCIÓN SPINELLI

ABOGADA ESPECIALISTA EN DERECHO PENAL U.C.A

Escrito por

Legal Group

Ver perfil
Dejá tu comentario

últimas notas sobre noticias legales