IBM hará todo lo posible para incrementar la confianza en la IA

0

Podría decirse que nos encontramos en un momento crucial dentro de la historia hacia la adopción masiva de la Inteligencia Artificial (IA). DeepMind, subsidiaria de Google, está utilizando esa tecnología para determinar cómo remitir a los pacientes de optometría. Haven Life utiliza IA para extender las pólizas de seguro de vida a personas que tradicionalmente no serían elegibles, como aquellas con enfermedades crónicas. Y Waymo, el spin-off de automóviles autodirigidos de Google, la está utilizando con el objetivo de proporcionar movilidad a las personas mayores y discapacitado. Y aunque es evidente todos los beneficios que esta tecnología es capaz de producir, las dudas sobre su seguridad, transparencia y parcialidad abundan.

Por ello, IBM Research propone que la inteligencia artificial incluya un documento transparente que describa el linaje, las especificaciones y las instrucciones.

Bajo los esfuerzos de Trusted IA, IBM Research publicó un documento que solicita la declaración de conformidad del proveedor (SDoC) para los servicios de IA, estas deberán ser completadas y publicadas por las compañías que desarrollan y proporcionan Inteligencia Artificial; estas incluirán información sobre el rendimiento, seguridad y protección, todo con el objetivo de aumentar la transparencia de sus servicios y engendrar confianza en ellos.

En otras industrias, estos documentos existen y, aunque son voluntarios en muchos casos, estos esfuerzos a menudo se convierten en estándares. Una SDoC esbozará la seguridad y las pruebas de productos que se han llevado a cabo con IA y la información sobre modelos subyacentes.

Un equipo de investigadores de IBM escribió en un documento:

“Una SDoC para servicios de Inteligencia Artificial contendrá secciones sobre rendimiento y seguridad. El rendimiento incluirá medidas adecuadas de precisión o riesgo. La seguridad, discutida como la minimización tanto del peligro como de la incertidumbre epistémica, incluirá la capacidad de explicar, la equidad algorítmica y la solidez de la deriva del concepto. La seguridad incluirá robustez a los ataques adversarios. Además, mostrará una lista de cómo se creó, entrenó e implementó el servicio junto con los escenarios en los que se probó, cómo responderá a escenarios no probados y directrices que especifiquen las tareas que deberían y no deberían utilizarse.”

Aleksandra Mojsilovic, Jefe de bases de IA en IBM Research, considera que tales hojas informativas podrían dar una ventaja competitiva a las empresas en el mercado, de forma similar a cómo las empresas de electrodomésticos obtienen productos con calificación Energy Star para la eficiencia energética.

Aleksandra Mojsilovic

“Al igual que las etiquetas de nutrición para los alimentos o las hojas de información para los electrodomésticos, las hojas de datos de los servicios de IA proporcionarían información sobre las características importantes del producto”, escribió Mojsilovic. “El tema de la confianza en la IA es lo más importante para IBM y muchos otros desarrolladores y proveedores de tecnología. Los sistemas con inteligencia artificial tienen un enorme potencial para transformar la forma en que vivimos y trabajamos, pero también exhiben algunas vulnerabilidades, como la exposición a los prejuicios, la falta de entendimiento y la susceptibilidad a los ataques adversos. Estos problemas deben abordarse para que los servicios de IA sean confiables”.

Además, en teoría, esta hoja de información permitiría cerrar la brecha de información entre los consumidores y proveedores. Sin mencionar que mejoraría la confianza en la tecnología. Y esa confianza se basa en la estandarización, la transparencia y las pruebas. Hoy en día los servicios de IA carecen completamente de esos rasgos; por lo que IBM señaló que “los consumidores todavía no confían en la inteligencia artificial como confían en otras tecnologías”. Una encuesta realizada por InsideSales.com en septiembre reveló que el 41.5 por ciento de los encuestados “no podían citar un solo ejemplo de IA en el que confíen”.

“Al igual que una estructura física, la confianza no se puede construir en un solo pilar. Si un sistema de IA es justo pero no puede resistir el ataque, no será de confianza. Si es seguro pero no podemos entender su resultado, no será confiable. Para construir sistemas de IA donde los usuarios puedan sentirse a salvo, necesitamos fortalecer todos los pilares juntos. Nuestra estrategia integral de investigación y productos está diseñada para hacer justamente eso, avanzando en todos los frentes para elevar el manto de la confianza a su lugar”. Enfatiza Mojsilovic.

A lo que agregó: “Sin embargo, hacer progresos técnicos en materia de seguridad es necesario pero no suficiente para lograr la confianza en la IA; el progreso debe ir acompañado de la capacidad de medir y comunicar los niveles de desempeño del servicio en estas dimensiones de manera estandarizada y transparente. Una forma de lograr esto es proporcionar dicha información a través de los SDoC para los servicios de IA.”

Es evidente que este es un movimiento que le añade una mayor transparencia al mercado, sin embargo todavía hay mucho en debate.