La inteligencia artificial y la ética en el año 2018

0

El 2018, ha sido un año de escándalos sexuales, a la magnitud que abarrotaron las páginas de los periódicos y pantallas digitales al rededor de todo el mundo.  Los hashtags, como #timesup y #metoo, se convirtieron en gritos de manifestación por las mujeres acosadas y marginadas que encontraron sus voces con acusaciones de alto perfil.

Del mismo modo, como resultados de las marchas en numerosos países, y el número record de mujeres que se postularon para cargos públicos, el 2018 se denominó “El Año de la Mujer”. También se le ha llamado El Año de la Inteligencia Artificial”. Ralph Haupter, presidente de Microsoft Asia, expresó en enero:

“Estamos en la cúspide de una nueva revolución, que en última instancia transformará a todas las organizaciones, a la mayoría de las industrias y a todos los servicios públicos en todo el mundo”.

Se han puesto a pensar, ¿Y si nos encajamos con estas dos ideas? ¿Qué pasaría si nuestros avances tecnológicos prometieran mejorar las vidas de las mujeres en este planeta? Kriti Sharma, tecnóloga de IA y líder de la Cumbre de la Fundación Obama, cree en esta posibilidad.

“Fue a través de la  Cumbre de la Fundación Obama que conocí a algunos líderes, activistas y agentes de cambio increíbles de todo el mundo. Aquí es donde me di cuenta de la oportunidad que existe al usar la Inteligencia Artificial para el impacto social y nuestros mayores desafíos humanitarios. La tecnología puede traer un cambio real a las personas que atraviesan la violencia doméstica y el abuso, en particular, y a los adolescentes que no tienen acceso a la atención médica o a la educación sexual y reproductiva”.

Tal innovación no podría venir en un mejor momento. A pesar del aumento de la prosperidad en todo el mundo, un informe reciente de los Estados Unidos, descubrió que el 35 por ciento de las mujeres han sufrido violencia física y/o sexual en algún momento de su vida, por parte de su pareja. Este inconveniente se puede agravar aún más debido a la prevalencia de culpar a las víctimas en todas las culturas.

“Muchas mujeres se sienten avergonzadas y abochornadas al pedir ayuda. E incluso cuando lo hacen, a menudo se les preguntan cosas como, por ejemplo, ¿Qué hiciste mal para provocar ese comportamiento? ¿Qué te pusiste ese día? ¿Le dijiste algo inusual?”.

Conscientes de cómo esta mentalidad devastadora puede perpetuar los ciclos de nuevos abusos, Sharma y sus colegas crearon una nueva plataforma de Inteligencia Artificial en la que las victimas podían hablar con una máquina en lugar de pasar la vergüenza al conversar con un ser humano. Eligieron a Johannesburgo, Sudáfrica, como su sitio de prueba debido a la alta tasa de femicidio y violencia contra las mujeres.

“Cuando hicimos esto, supuse que las participantes podrían sentirse ofendidas. Después de todo, estas mujeres están pasando por una situación difícil, y aún así, les estamos pidiendo que hablen al respecto con una máquina. Pero mi suposición era completamente errónea. Les encantaba hablar con una computadora imparcial y sin prejuicios. Realmente se abrieron y comenzaron a pedir ayuda”.

Conocida como RAInbow, la tecnología fue construida por IA For Good, combinada con socios fundadores, The Sage Foundation (de la cual Sharma es VP de Inteligencia Artificial) y Soul City Institute for Social Justice.  Compuesto por tecnólogos y destacados expertos en la lucha contra el abuso y el logro de la justicia social, el proyecto es el resultado de lo que puede suceder cuando los propósitos éticos superiores se combinan con la tecnología emergente. RAInbow ofrece una alternativa a los desafíos que las víctimas de abuso suelen enfrentar. A diferencia de tomar el teléfono para pedir ayuda si está viviendo con la persona que está informando, su plataforma permite el anonimato y la asistencia. Además, ofrece narraciones personalizadas a los individuos que se sienten aislados e indefensos. En apenas unas pocas semanas desde su lanzamiento al público, RAInbow ya ha tenido más de 50.000 conversaciones interactivas con mujeres sudafricanas afectadas por la violencia doméstica.

Pero las aspiraciones humanitarias de Sharma no terminan ahí. Junto con individuos de ideas afines dentro y fuera de su organización, ella busca mejorar la falta de derechos en otros ámbitos a través de la Inteligencia Artificial. A menudo escuchamos mucho sobre la amenaza de la automatización al tomar nuestros trabajos. Lo que no escuchamos lo suficiente, sugiere Sharma, son las formas en que los sesgos podrían afectar el reclutamiento laboral y otras formas de discriminación. Sin embargo, Sharma advierte que el problema ni siquiera puede ser intencional. Por ejemplo, ella no cree que los departamentos de recursos humanos diseñen sus procesos de contratación para preferir a un grupo en lugar de otro. No obstante, existen problemas porque las máquinas aprenden de conjuntos de datos históricos y las compañías históricamente han tomado decisiones que favorecen a ciertos individuos a costa de otros.

Aunque la Inteligencia Artificial debe reflejar la verdadera diversidad, la velocidad de la innovación se está produciendo tan rápidamente, y con frecuencia al azar, que el sesgo se produce como una consecuencia involuntaria, ya que las organizaciones dentro de las empresas toman decisiones en el vacío. Además, un equipo de desarrollo nunca puede soñar que está creando un sesgo, sin embargo, ocurre sin avisar. “En última instancia necesitamos más conciencia. El hecho es que, si nunca te has enfrentado a un sesgo, es menos probable que lo veas. Es más sobre la empatía. Si tiene equipos diversos, creará productos más diversos”.

Richard Franzi, autor de Killing Cats Leads to Rats: mitiga las consecuencias no deseadas de las decisiones comerciales, reitera la gravedad del problema y la necesidad de corregir el problema desde su origen.

“El potencial de un sesgo y sus consecuencias no intencionales asociadas con los despliegues de IA es un desafío claro y serio. Tomar medidas para expandir el conocimiento de un equipo de desarrollo, al incluir diversas perspectivas, puede ser una práctica valiosa para descubrir sesgos ocultos antes de la implementación”.

Para colocar el problema que Sharma y Franzi advierten en una mayor perspectiva, vale la pena considerar los efectos a largo plazo de sesgos en el lugar de trabajo. “El desafío es que, sin la realización de sus creadores, los algoritmos pueden terminar creando un sistema que automatiza a escala los sesgos humanos ocasionales y los problemas sistémicos que tenemos en la actualidad”. Para atenuar las posibilidades de privación de derechos en una escala exponencial, así como las muchas otras amenazas que plantea, IA está tomando medidas específicas, sirviendo a 3 millones de clientes a nivel mundial con administración basada en la nube en contabilidad, operaciones, pagos y servicios bancarios, sus miembros ven la necesidad de desarrollar tecnologías basadas en Inteligencia Artificial de manera consciente. Como resultado, desarrollaron una Ética del Código. Cinco principios rectores informan el desarrollo de su IA: 1) La IA debe reflejar la diversidad de los usuarios a los que sirve. 2) IA debe rendirse a la cuenta, al igual que los usuarios 3) Recompensar a IA por “mostrar su funcionamiento” 4) IA debe nivelar el campo de juego 5) IA reemplazará, pero también debe crear. De muchas maneras, el futuro de la innovación de la IA refleja el principio final de la Ética del Código de Sage. El principio 5 afirma de manera no sentimental que IA reemplazará los trabajos. No hay nada que se pueda hacer sobre este hecho; La Cuarta Revolución Industrial está aquí, nos guste o no. Sin embargo, en lugar de repasar los trastornos que la IA puede causar, se centra en el bien que puede ofrecer. De manera similar, Sharma no se ocupa del problema de los sesgos al contemplar nuestro futuro. Ella está demasiado ocupada imaginando formas en que la IA puede ayudar a otros, como proporcionar atención médica universal a poblaciones remotas y desatendidas en países en desarrollo. Sharma se inspira aún más a través de sus experiencias como mentores de los jóvenes de hoy.

“Trabajo mucho con niños en diversos lugares, enseñándoles ingeniería y codificación. Hasta ahora, nadie ha intentado construir un robot asesino que va a destruir a todos. En cambio, nueve de cada 10 veces crean un proyecto que tiene un fuerte propósito social sin ningún tipo de sugerencia: desarrollan ideas y soluciones por su cuenta. Realmente quieren crear un mundo mejor que nunca existió”.