Como muchos se podrán imaginar, la “mente” fría y calculadora de una máquina no tiene la capacidad para sentir. Evidentemente Alexa no le importa lo que le puedas decir o pedir. El AlphaGo de DeepMind nunca ha gozado de la victoria como lo haría un humano. O por lo menos esto es lo que pensamos, ¿podría no ser así?
A pesar de ser maquinas calculadoras, se parecen más a los humanos de lo que hemos pensado. Casi siempre se equivocan y son virtualmente incapaces de ser racionales.
En 1976 el estadístico británico George Box expresó que “todos los modelos están errados, sin embargo algunos son útiles” en un trabajo de investigación que fue publicado en el año mencionado. No obstante, se sabe que esto se refería a los modelos estadísticos pero está bien aceptado que el axioma se aplica también a los modelos informáticos, y por lo tanto tiene bastante sentido desde un punto de vista de la IA.
George BoxY es que la razón por la que todos estos modelos están equivocados es simple: se construyen a partir de información que se encuentra claramente limitada. La percepción humana a través de nuestros cinco sentidos no es lo suficientemente poderosa para recoger todos los datos disponibles en una situación dada. Peor aún, nuestros cerebros no pudieron procesar toda la información disponible, incluso si pudiéramos recopilarla.
Tshilidzi Marwala, vicerrector de la Universidad de Johannesburgo, publicó recientemente un artículo de investigación que analiza la posibilidad de una IA racional.
Tshilidzi MarwalaLa experiencia en investigación de Marwala se basa en la inteligencia artificial y las formas en las que esta afecta a todos los aspectos de la sociedad, desde la economía y la política hasta la psicología y la educación.
Él explica que el problema es que los modelos de inteligencia artificial no son físicamente realistas. “Estos toman datos observado y se ajustan a modelos sofisticados pero físicamente irreales. Debido a esta realidad, son cajas negras sin significado físico directo. Por esta razón, definitivamente están equivocados, pero son útiles.
Si en nuestra ecuación de IA y = f (x), si el modelo es incorrecto como lo estipula Box, entonces a pesar de que este modelo es útil en el sentido de que puede reproducir la realidad, termina siendo incorrecto. Debido a que está mal, ya que cuando se usa para tomar una decisión, tal decisión no puede ser racional. ¡Una premisa errónea no puede resultar en un resultado racional! De hecho, cuanto más incorrecto es el modelo, menos racional es la decisión.”
Sin importar qué tan avanzado se vuelva un sistema, si opera con los mismos principios que el cerebro humano (o cualquier otra mente orgánica), tendrá fallas porque están sujetos a nuestras deficiencias.
La inteligencia artificial debe ser alimentada con información o aprendiendo como encontrar información por sí misma. Ambos escenarios hacen que la inteligencia artificial sea un “motor equivocado” tanto como lo es el cerebro humano.
Básicamente se presentan dos limitaciones: primero se encuentra limitada por el acceso a la información y en segundo lugar se ve limitado por los parámetros para seleccionar los datos relevantes.
Por supuesto, la única solución es construir una inteligencia artificial que sea racional, ¿verdad? No de acuerdo con Marwala. Su investigación no tuvo un final feliz:
“Este trabajo estudió la cuestión de si las máquinas pueden ser racionales. Examinó las limitaciones de la toma de decisiones de la máquina y estas se identificaron como la falta de información completa y perfecta, la imperfección de los modelos y la incapacidad de identificar la utilidad óptima global. Este documento concluye que las máquinas nunca pueden ser completamente racionales y que lo mejor que pueden lograr es limitarse racionalmente. Sin embargo, las máquinas pueden ser más racionales que los humanos.”
De hecho Marwala considera que, con la excepción de unos pocos problemas convexos, nunca tendremos un racionalismo ilimitado, en las personas o en las máquinas, porque es imposible saber si una decisión determinada se optimiza globalmente o no.
Ya sea que esté en lo correcto o simplemente no haya encontrado la solución todavía, un interesante subproducto de su pensamiento es que la inteligencia general artificial (AGI) no es muy importante en el gran esquema de las cosas, a menos que tenga razón. Si tiene razón, entonces AGI es el objetivo final del aprendizaje automático.
Cabe señalar que algunos investigadores creen que el AGI puede lograrse sin que una máquina sea necesariamente capaz de hacer todo lo que un humano puede, intelectualmente hablando. Otros tienen una definición mucho más estricta que dice que toda la inteligencia artificial es débil a menos que pueda demostrar la conciencia.
Necesitaremos máquinas que puedan imitar o vencer a la inteligencia general a nivel humano para llegar lo más rápido posible, de modo que podamos pasar el resto de la existencia de nuestra especie modificando la fórmula.
Pero, si está equivocado: AGI es un MacGuffin. Es un medio para hacer que las personas trabajen en un problema que aún no pueden atacar: la inteligencia artificial racional.
Marwala además habla de la cuarta revolución. «Básicamente, la cuarta revolución industrial va a fusionar lo físico con lo biológico con lo digital», explicó. «Va a automatizar absolutamente todo lo que nos rodea».
Sin embargo, advirtió que la cuarta revolución industrial nos podría arrojar irrelevancia humana. De esta manera se pregunta: “¿cómo vamos a lidiar con esta situación?”
Los efectos secundarios de este proceso de automatización también son simplemente aterradores, incluyendo una mayor desigualdad y posiblemente incluso una mayor discriminación, continuó.