Nvidia realiza una investigación que involucra la inteligencia artificial (IA) y el mundo de los videojuegos

0

No es misterio para nadie el reciente auge que ha tenido la inteligencia artificial (IA), el cual ha producido resultados impresionantes en un ámbito algo sorprendente: el mundo de la generación de imágenes y videos.

El último ejemplo ha provenido del diseñador de chips Nvidia, que hoy ha publicado una investigación donde se observa cómo las imágenes generadas por una IA se pueden combinar con un motor de videojuegos tradicional. El resultados es un sistema de gráficos híbrido que algún día podría usarse en videojuegos, películas y en la realidad virtual.

Esto sucedió en la conferencia de procesamiento de información neuronal en Montreal, Canadá, donde los investigadores de Nvidia demostraron que podían utilizar la tecnología de inteligencia artificial con el objetivo de generar escenas sintéticas y realistas con detalles y texturas.

Una comparación lado a lado de imágenes de video reales y la demostración generada por la IA de Nvidia. Crédito: Nvidia

“Es una nueva forma de reproducir contenido de video mediante aprendizaje profundo”, expresó el vicepresidente de aprendizaje profundo aplicado de Nvidia, Bryan Catanzaro. “Obviamente, a Nvidia le importa mucho generar gráficos [y] estamos pensando en cómo la IA va a revolucionar el campo”.

Los investigadores afirman que el trabajo aún se encuentra en sus primeras etapas y no está claro cuándo se lanzará la tecnología a los consumidores, no obstante existe un gran potencial para la representación basada en la IA de Nvidia en el espacio de los videojuegos.

Básicamente, los investigadores querían saber cómo pueden aplicar la IA con el propósito de mejorar los gráficos de computadoras, y la solución es aplicar el aprendizaje automático a videos del mundo real para generar nuevos gráficos.

“Hemos construido un sistema que toma representaciones de alto nivel del mundo físico, básicamente tomando un bosquejo de video y convirtiéndolo en una escena renderizada”, dijo Catanzaro. “El modelo entiende la información de alto nivel de los objetos en el mundo real, y luego los elabora para agregar información de texturas y luces. El objetivo es poder sintetizar nuevas escenas con gráficos”.

Los resultados del trabajo de Nvidia no son fotorrealistas y muestran la mancha visual de marca registrada en muchas imágenes generadas por la IA.

No obstante cabe destacar que los resultandos obtenidos tampoco son totalmente novedosos. En un trabajo de investigación, los ingenieros de la compañía explican cómo se basaron en varios métodos existentes, incluido un sistema de código abierto influyente llamado pix2pix. Sus trabajos despliegan un tipo de red neuronal conocida como red de confrontación generativa, o GAN. Estos son ampliamente utilizados en la generación de imágenes de IA, incluso para la creación de un retrato de AI recientemente vendido por Christie’s.

Básicamente los investigadores pudieron lograr una representación en tiempo real en una GPU Tensor Core, pero para la conferencia, Nvidia demostró la tecnología en su tarjeta Titan V. “Aunque puede hacer esto en cualquier procesador, el aspecto en tiempo real requiere una gran cantidad de rendimiento de AI”, explicó Catanzaro, y señaló que la GPU Tensor Core es importante.

Pero Nvidia ha introducido una serie de innovaciones, y un producto de este trabajo, dice, es la primera demostración de videojuegos con gráficos generados por AI.

Esta innovación se trata de un simulador de conducción simple en el que los jugadores navegan por unas pocas cuadras del espacio generado por la IA, pero no pueden dejar su automóvil ni interactuar con el mundo. La demostración se alimenta utilizando solo una GPU, un logro notable para un trabajo de vanguardia. Cabe destacar que la GPU es el rango más alto de la compañía de $3.000, Titan V, la cual es conocida como la GPU para PC más poderosa jamás creada.

El sistema de Nvidia genera gráficos usando unos pocos pasos. Primero, los investigadores deben recopilar datos de entrenamiento, que en este caso se tomaron de conjuntos de datos de código abierto utilizados para la investigación de conducción autónoma. Esta secuencia se segmenta, lo que significa que cada cuadro se divide en diferentes categorías: cielo, automóviles, árboles, carreteras, edificios, etc. Luego, una red de confrontación generativa se entrena en estos datos segmentados para generar nuevas versiones de estos objetos.

A continuación, los ingenieros crearon la topología básica del entorno virtual utilizando un motor de juego tradicional. En este caso, el sistema era Unreal Engine 4, un motor popular utilizado para títulos como Fortnite, PUBG, Gears of War 4 y muchos otros. Al usar este entorno como marco, los algoritmos de aprendizaje profundo generan los gráficos para cada categoría diferente de elementos en tiempo real, pegándolos en los modelos del motor del juego.

“La estructura del mundo se está creando tradicionalmente”, explica Catanzaro, “lo único que la IA genera son los gráficos”.

Además añade que la demostración en sí es básica, y fue realizada por un solo ingeniero. “Es una prueba de concepto en lugar de un juego que es divertido de jugar”.

Para crear este sistema, los ingenieros de Nvidia tuvieron que enfrentar una serie de desafíos, el mayor de los cuales fue la permanencia de los objetos. El problema es que si los algoritmos de aprendizaje profundo están generando los gráficos para el mundo a una velocidad de 25 cuadros por segundo, ¿cómo mantienen los objetos con el mismo aspecto? De esta manera Catanzaro explica que este problema significaba que los resultados iniciales del sistema eran “dolorosos de ver” ya que los colores y las texturas “cambiaron cada cuadro”.

La solución fue darle al sistema una memoria a corto plazo, para que comparara cada nuevo marco con lo que se ha ido antes. Intenta predecir cosas como el movimiento dentro de estas imágenes y crea nuevos marcos que son consistentes con lo que está en pantalla. Sin embargo, todo este cálculo es costoso, por lo que el juego solo se ejecuta a 25 cuadros por segundo.

No es difícil imaginar que al poder crear contenido y agregarlo a mundos virtuales, el mercado de los juegos podría beneficiarse enormemente del trabajo creado por esta investigación. Los desarrolladores, por ejemplo, podrían “remasterizar” juegos antiguos al volver a representar los títulos antiguos para agregar imágenes de alta definición, o podrían agregar nuevos niveles a los juegos existentes con poco esfuerzo.

Como ejemplo de cómo funcionaría esto, los usuarios pueden tomarse un video de sí mismos, subirlo a un juego y la representación podrá crear avatares altamente personalizados para usar en el juego.

Sin embargo, el trabajo tiene aplicaciones potenciales en otras áreas de investigación, incluyendo la robótica y los autos que conducen por sí mismos, donde se podría usar para generar entornos de entrenamiento. Y podría aparecer en productos de consumo antes, aunque en una capacidad más limitada.

En una demostración, Nvidia mostró que era capaz de analizar los movimientos de baile, como el popular video musical Gangnam Style, y transferir esos movimientos a otra persona utilizando las mismas técnicas de visión artificial. “Analizamos el código de la persona, y ese se convierte en nuestro boceto”, expresó Catanzaro. “Y el modelo representa a la persona objetivo con ese boceto”.

Para entusiasmo de muchos, Nvidia ha abierto el código de su investigación en este momento, pero Catanzaro advierte que el trabajo inicial en este campo es más adecuado para los científicos informáticos que para los desarrolladores de juegos.

No obstante como ya hemos abordado en otros artículos, este tipo de tecnología plantea algunas preguntas obvias.

Hemos observado como en los últimos años, los expertos se han preocupado cada vez más por el uso de DeepFakes generados precisamente a través de la Inteligencia artificial para la desinformación y la propaganda. De hecho, los investigadores han demostrado lo sencillo que es generar imágenes falsas de políticos y celebridades que dicen o hacen cosas que no hicieron, lo cual evidentemente se trata de un arma potente en las manos equivocadas. Por lo que muchos podrían decir que al impulsar las capacidades de esta tecnología y publicar su investigación, Nvidia podría contribuir a este problema potencial.

Sin embargo, la compañía dice que esto no es un problema nuevo. “¿Se puede usar esta tecnología para crear contenido que sea engañoso? Sí. Cualquier tecnología para renderizar se puede utilizar para hacer eso”, dice Catanzaro.

Por otro lado añade que Nvidia está trabajando con socios para investigar métodos para detectar falsificaciones de IA, pero que en última instancia, el problema de la desinformación es un “problema de confianza”. Y, como muchos otros problemas de confianza, tendrá que resolverse con una variedad de métodos. No solo tecnológico.

Catanzaro dice que las compañías de tecnología como Nvidia no pueden asumir toda la responsabilidad. “¿Responsabiliza a la compañía eléctrica porque crearon la electricidad que alimenta la computadora que hace el video falso?”, pregunta.

Y, en última instancia, para Nvidia, impulsar los gráficos generados por IA tiene un beneficio evidente: ayudará a vender más hardware de la compañía. Desde el inicio del auge del aprendizaje profundo a principios de la década de 2010, el precio de las acciones de Nvidia se ha disparado, ya que se hizo evidente que sus chips de computadora eran ideales para la investigación y el desarrollo del aprendizaje automático.

Entonces, ¿una revolución de la IA en gráficos de computadora sería buena para los ingresos de la compañía? Ciertamente no dolería, se ríe Catanzaro. “Cualquier cosa que incremente nuestra capacidad para generar gráficos que sean más realistas y convincentes, creo que es bueno para el resultado final de Nvidia” añade en última instancia.

 

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.