Google considera que el peligro de la IA se encuentra en el sesgo

0

Durante la conferencia de Google el año pasado, el entonces jefe de inteligencia artificial (IA) de la compañía expresó que no debemos preocuparnos por los robots asesinos, sino por aquellos que están construidos en base a prejuicios.

No es misterio para nadie que durante el último año, muchas empresas relacionadas con la tecnología han declarado que tienen algunos problemas de prejuicios.

“La verdadera pregunta de seguridad, si quieres llamarlo así, es que si damos datos sesgados a estos sistemas, entonces la maquinas serán sesgadas”, dijo John Giannandrea

De hecho, esto es algo con lo que los investigadores  han luchado todos estos años. Como ya hemos mencionado anteriormente, hubo un accidente particular en el que un algoritmo de Google Photos estaba clasificando erróneamente a las personas de color como “gorilas”. Producto de esta situación, todas las empresas vinculadas con la tecnología, desde IBM hasta Airbnb, se dedicaron a analizar los algoritmos con el propósito de asegurarse que lo que están creando no incorporen sesos similares.

Para el jefe de aprendizaje automático ético, confiable y seguro de Google, Jen Gennai, la prevención del sesgo está literalmente en la descripción del trabajo. D esta manera, Gennai en esta función lidera un equipo de varias compañías que se encarga de analizar e interrogar nuevos productos y servicios para garantizar que todos los nuevos productos de Google se adhieran a esta norma ética.

“Si vamos a configurar una nueva tecnología, debemos asegurarnos de que la tecnología sea correcta desde el principio”, expresa Jen Gennai.

No obstante es relevante mencionar las formas en las que por lo menos Google ha decidido adoptar para abordar el sesgo en la inteligencia artificial.

Construyendo los principios detrás de la inteligencia artificial


Sundar Pichai, el CEO de Google, publicó en junio de este año los principios bajos los cuales se rige el desarrollo de la IA de la compañía, los cuales tienen el propósito de guiar el trabajo y la investigación que Google realiza en estas ares, incluso asegurando  que sus trabajadores no creen o refuercen el sesgo injusto.

“La forma en que se desarrolle y se use la IA tendrá un impacto significativo en la sociedad durante muchos años. Como líderes en inteligencia artificial, sentimos una gran responsabilidad de hacer esto bien”, escribió en ese momento.

El catalizador de esta nueva postura sobre la IA se vio afectado por los casos en que Google se había equivocado mucho. Además del incidente del gorila, el trabajo de la investigadora de Harvard Latanya Sweeney encontró casos de discriminación racial en la Búsqueda de Google. Cuando buscó nombres que suenan a personas de color, es más probable que aparezcan anuncios relacionados con la detención que cuando buscó nombres que suenan a personas blancas.

“Ambos de esos [incidentes] fueron factores desencadenantes para nosotros de que nuestros usuarios no deberían ver esto, debemos evitar que ocurran en primer lugar”, explica Gennai.

Sin mencionar las protestas por parte de los trabajadores de la compañía ante el proyecto en el que Google estaba participando junto con el Pentágono. Precisamente entre los reclamos por parte de los trabajadores, se exigía que la compañía no construyera ni desarrollara tecnología de IA que pudiera herir a otro ser humano.

Siendo mucho más estrictos con la inteligencia artificial


Ahora, cada vez que se lanza un nuevo producto en Google se somete a pruebas rigurosas por parte de Gennai y su equipo. Esto reúne a expertos de áreas como tecnología, legal, privacidad y ciencias sociales para analizar cada producto en relación con los principios establecidos de inteligencia artificial de Google.

Esta prueba se centra en los beneficios y negativos de un producto. “No somos la fuerza policial de Google”, dice Gennai. “No obstante, el equipo y yo queremos que la compañía lance el mejor producto que pueda, así que identificaremos todos los puntos que podrían salir mal para que puedan ser solucionarlos”.

Cabe mencionar que con el caso de Duplex, que le permite al Asistente de Google hacer llamadas y reservar citas en su nombre, hubo varias consideraciones éticas tomadas en cuenta antes de que la tecnología fuera vista en la conferencia de desarrolladores de I / O a principios de este año.

En este caso, el equipo había trabajado mucho sobre cómo la inteligencia artificial manejaría diferentes acentos, pero el equipo de Gennai planteó otros problemas.

“Observamos cómo nuestros usuarios interactuarían con él, cómo mitigaría la tecnología contra el sesgo. Le preguntamos, ¿cómo sabría usted que se recibe a alguien con un tartamudeo o un impedimento del habla, así como a alguien que no tuvo uno?”, explica.

“El equipo había trabajado mucho, pero intentamos cerrar todas las brechas y elevarlo a su máxima capacidad”. 

Los datos son importantes


De acuerdo a Google una de las formas de mejorar el sesgo es mejorar los conjuntos de datos. Gennai usa los ejemplos de bodas para ilustrar esto.

Solía ​​ser que si buscabas bodas en Google Images, te servirían fotos de personas blancas con vestidos de novia porque el algoritmo se entrenó en fuentes de datos dirigidas por Occidente. Sin embargo, esto no sería adecuado para los usuarios de Google en India o China, por ejemplo.

Google solicitó que las personas envíen fotos de bodas de todo el mundo para mejorar el conjunto de datos.

“Ahora, recibimos una gran cantidad de comentarios de nuestros usuarios indios, en particular, a los que nos envían tantas fotos de bodas coloridas y geniales”, explica.

“Queremos entender cuán sesgadas son nuestras fuentes existentes y crear nuevas fuentes que estén un poco menos sesgadas para llegar a una posición diferente”. 

Los algoritmos deben ser estudiados con determinación


Comprender cómo funcionan los algoritmos de Google permite que sea más sencillo modificarlos. Fue el caso del problema del CEO de búsqueda de Google: cuando tecleaba el CEO en la barra de búsqueda, vería imágenes de hombres blancos con trajes y Barbie, aunque no en la misma imagen. Por lo que el equipo de Gennai se dedicó a examinar los datos, resultando que no fue un sesgo humano lo que lo causó, sino uno tecnológico.

“El algoritmo había aprendido que los píxeles azul marino son iguales a los del CEO, y como los hombres blancos tienen más probabilidades de usar trajes azul marino, era simplemente la forma en que el modelo había aprendido. Es así como queda demostrado la importancia de examinar con cuidado tus datos”, manifiesta Gennai.

También es importante que los usuarios de Google entiendan cómo funcionan los algoritmos de la empresa. Como usuario del navegador de Internet más importante del mundo, ahora puede verificar por qué se le mostró un determinado anuncio y ver la decisión que tomó el algoritmo. También puede verificar por qué vio un determinado enlace en la Búsqueda de Google, dependiendo de su historial de búsqueda anterior. Gennai dice que se trata de ayudar a los usuarios a entender más a Google para que puedan confiar en la plataforma. 

Así como la confianza es importante para la compañía, la transparencia también es parte de los principios de inteligencia artificial de la compañía.

“Compartir un algoritmo completo con un usuario no es útil en absoluto, probablemente causará más confusión y sentirá que estamos deliberadamente ofuscando. Sin embargo, una explicación en un lenguaje legible ayudará a las personas a entender lo que Google está tratando de hacer, incluso si nos equivocamos”, dice Gennai.

Google no es el héroe de la tecnología


Al final del día, el problema con el sesgo es que proviene de los humanos. “Todos estamos horriblemente predispuestos”, dice Gennai. “Todos tenemos nuestros sesgos, todas nuestras fuentes de datos existentes se basan en todos los que tenemos ante nosotros y sus sesgos históricos”.

No obstante, aunque lo anterior sea cierto, las empresas tecnológicas que se dedican al desarrollo de la inteligencia artificial no pueden echarle toda la culpa a los seres humanos mientras se quedan de brazos cruzados.

Es así como, en cambio, Google intenta investigar y tener en cuenta las mayores fuentes de sesgo posibles, e intenta cambiarlas para que sus productos y servicios estén a la altura de sus clientes.

Es por eso que los principios de IA son tan importantes dentro de Google y también por qué la compañía ha creado prácticas de AI responsables para personas ajenas a la compañía que utilizan su software de código abierto para crear algoritmos de aprendizaje automático e inteligencia artificial.

“Estamos liderando con el ejemplo, queremos proporcionar las herramientas y el conocimiento para que las personas puedan seguirlo”, agrega.