Google tiene problemas con su IA machista

0

La Inteligencia Artificial es tan justa como la información de la que aprende, y por lo tanto con la información que le es introducida muchas veces por manos humanas. Y con demasiada frecuencia el mundo es injusto con sus innumerables prejuicios de género, raza, religión, clase y casta.

Ahora, al temer que uno de estos sesgos (medio o recurso que se toma en un asunto dudoso para  eludir una dificultad) pueda afectar a los usuarios y encaminarlos de manera incorrecta, Google ha bloqueado la herramienta Redacción Inteligente de Gmail para que sugiera pronombres basados en el género.

En mayo de este año, fue introducida  la función Smart Compose de Gmail permitió a los usuarios completar oraciones automáticamente a medida que las escribían.

Smart Compose es un ejemplo  de generación de lenguaje natural (NLG) por sus siglas en ingles, en el que las computadoras aprenden de los patrones y las relaciones entre las palabras, en la literatura, los correos electrónicos y las páginas web para escribir oraciones, de manera similar a la función de texto predictivo del teclado o la aplicación de mensajería de su teléfono móvil.

La IA de Google mostraba señales preocupantes de que estaba claramente sesgada. El gerente de productos de Gmail, Paul Lambert, expresó a los medios de comunicación internacional que se descubrió en enero un problema cuando un investigador de la compañía escribió:

“Me reuniré con un inversionista la próxima semana”, y Smart Compose sugirió “¿Quieres conocerlo?” En lugar de “ella” cuando intentaba completar automáticamente la pregunta”.

Este sesgo hacia el pronombre de género masculino “él” se debió a que la IA pensaba que un inversionista era muy probable que fuera hombre, y muy poco probable que fuera mujer, según los datos que recibió de los correos electrónicos y recibidos por 1.500 millones de usuarios de Gmail en todo el mundo.

Dado que campos como finanzas, tecnología e ingeniería, por ejemplo, están representados  mayoritariamente por hombres, al menos en países de habla inglesa, la Inteligencia Artificial de Gmail concluyó a partir de sus datos que un inversionista o un ingeniero era un “él” y no “ella”. Esto podría ser aún más preocupante, si el destinatario del correo electrónico fue identificado como una persona trans y prefirió ser tratado por el pronombre “ello”.

No es la primera vez que los servicios automatizados de Google se desordenan; sin embargo, la compañía parecía haber aprendido de esos problemas anteriores y había captado el inconveniente antes de recibir las quejas del público.

En 2015, se introdujo la función de etiquetado automático de Google Photos que prometía permitir a los usuarios “buscar por lo que recuerdas de una foto, no se necesita una descripción”. Con millones de imágenes subidas todos los días al sistema y cada una de ellas nombrada por el buscador, Google usó estos datos para entrenar su sistema Y así etiquetar automáticamente las imágenes. Pero, eso no resultó muy bien.

El ingeniero de software Jacky Alciné señaló a Google que los algoritmos de reconocimiento de imágenes clasificaban a sus amigos negros como “gorilas”, un término cargado de historia racista.

Google indicó que estaba “horrorizado” por el error, se disculpó con el ingeniero Alciné y prometió solucionar el problema. Después de casi tres años de dificultades para resolver la molestia, fue solo en enero cuando Google barrió la complicación debajo de la alfombra al bloquear su algoritmo para que no identificara a los gorilas.

En el año 2012, el motor de búsqueda lanzó una política de privacidad que buscaba agregar datos sobre los usuarios de su gama de productos como Gmail, YouTube, Búsqueda de Google y otros en un solo perfil. Cuando las personas visitaron la sección de “preferencias publicitarias” de sus perfiles para ver qué sabía Google de ellos, muchas mujeres, especialmente en la industria tecnológica, se sorprendieron.  Google había catalogado a muchas mujeres como hombres de mediana edad. A partir de datos de proxy en patrones de búsqueda web como “computadoras y electrónica” o “crianza de los hijos”,  su modelo había inferido que los usuarios eran hombres de 40 y tantos años, porque la mayoría de las personas con ese tipo de patrón de búsqueda eran hombres de mediana edad.

Sara Wachter-Boettcher, autora del libro Técnicamente mal: Aplicaciones sexistas, Algoritmos parciales y Otras amenazas de la tecnología tóxica, señaló el incidente en su libro:

“Entonces, si su modelo asume, por lo que ha visto y escuchado en el pasado, que la mayoría de las personas interesadas en la tecnología son hombres, aprenderá a codificar a los usuarios que visitan sitios web de tecnología con mayor probabilidad de ser hombres. Una vez que se asume esa suposición, se sesgan los resultados: cuanto más a menudo las mujeres se etiquetan incorrectamente como hombres, más parece que los hombres dominan los sitios web de tecnología, y más fuertemente el sistema comienza a correlacionar el uso del sitio web de tecnología con los hombres.”

Es preocupante ver que, en lugar de intentar solucionar estos problemas, incluso firmas poderosas como Google prefieren alejarse de ellos o apagarlos por completo. Con suerte, los próximos años contarán con expertos en el sesgo de los problemas de campo para que más personas puedan usar los poderosos sistemas de Inteligencia Artificial.

ia

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.