Inicio Noticias Dota 2, AI y 40 millones de $

Dota 2, AI y 40 millones de $

Este mes un sistema de inteligencia artificial (AI) llamado OpenAIFive jugará contra un equipo de cinco jugadores profesionales de deportes electrónicos en Dota 2, siendo uno de los juegos esports más populares y complejos del mundo, con profesionales creativos y motivados que entrenan fuertemente durante todo un año para ganar el premio anual de 40 millones de $.

Dota 2, trata de una arena cuadrada en la que se enfrentan dos equipos de cinco jugadores, que a través de hechizos que buscan destruir la base de su oponente. Para que la AI gane el juego contra profesionales humanos, primero debe aprender.

Método de enseñanza: Refuerzo positivo

OpenAI, laboratorio de investigación de AI fundado principalmente por Elon Musk y Sam Altman, utiliza uno de los métodos más populares, para enseñar a los bots a jugar videojuegos, conocido como “aprendizaje de refuerzo”. La técnica consiste en darle al bot un objetivo y recompensarlo cuando complete la tarea. Al principio, los movimientos de la máquina son completamente aleatorios, hasta que finalmente se da cuenta de cómo completar la tarea. Después de cientos, miles o millones de intentos, surgen estrategias.

Es por ello que el bot de OpenAI juega 180 años de juegos contra sí mismo todos los días. A lo largo de cada juego, la recompensa de los bots cambia de obtener puntos para sí mismo, a aumentar el puntaje general del equipo.

Publicidad

Los juegos representan una buena oportunidad para que la AI aprenda porque son análogos del mundo real, pero con un objetivo específico. Julian Togelius, profesor de AI de la Universidad de Nueva York, expresó: “El mundo real no tiene objetivos interesantes a cumplir. Los juegos son perfectos, las recompensas son inmediatas, ya sea que ganes o no”. Además los juegos pueden ser jugados un número infinito de veces, y pueden ser jugados al mismo tiempo por miles de bots para multiplicar la velocidad con la que se encuentra la solución o estrategia.

Un problema de esta técnica es que evidentemente el bot depende completamente de la recompensa que ofrece el juego, por lo que si hay un error interno, la AI hará lo que sea para obtener una recompensa.

Otras investigaciones han sido ejecutada, una de ellas por la Universidad de Friburgo en Alemania, donde descubrieron en el juego Atari Q*bert que el bot, en lugar de aprender a jugar como lo haría un ser humano, aprendió a atraer a sus enemigos para que se suicidaran saltando, él sabía que sus enemigos lo seguirían. El bot estaba haciendo su trabajo: conseguir la mayor cantidad de puntos posibles, sin embargo no estaba aprendiendo a jugar.

¿Otros proyectos?

OpenAI a través de los videojuegos no solo quiere vencer a los profesionales, sino también buscar aprender a tomar miles de decisiones pequeñas que logran un objetivo final más amplio. Por ello, tienen otro proyecto donde sus investigadores han logrado diseñar un algoritmo para controlar una mano mecánica que puede sostener un bloque y usar sus dedos para manipularlo en orientaciones específicas.

Los investigadores de OpenAI ajustan la mano robótica

Ambos proyectos iniciaron casi simultáneamente, sin embargo cuando el equipo de Dota 2 mostró su progreso al haber superado a profesionales humanos en el juego, el equipo de robótica se dio cuenta del potencial que existía en el sistema de aprendizaje por refuerzo. “Los resultados fueron sorprendentes”, manifestó Jonas Schneider, miembro del equipo técnico de OpenAI.

La compañía utilizó un programa llamado Rapid, que permite coordinar miles de procesadores que ejecutan cientos de algoritmos de aprendizaje de refuerzo al mismo tiempo, logrando que se sincronice lo que aprendió un robot con el resto cuando finaliza la prueba.

Usando una potencia de cálculo miles de veces mayor que la computadora portátil promedio, la mano mecánica ha sido capaz de lograr una destreza impresionante sin la necesidad de que fuera codificado inicialmente cómo se movería cada dedo individualmente.

Publicidad

Sin embargo, es importante destacar que aunque ambos proyecto utilizan un código similar para entrenar, cada uno de ellos aprende sus tareas por separado; es decir que si intentan hacer que Dota 2 bot controle una mano, no será capaz de hacerlo en absoluto.

«Nos hemos sorprendido de lo lejos que podemos llegar con la mayoría de los algoritmos existentes, por lo que esperamos hasta cierto punto que Dota sea ​​una especie de hito en el último videojuego», expresó Schneider. «Está claro que si un juego tan complejo como este puede resolverse mediante el aprendizaje reforzado, esa será la prueba definitiva».

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

- Publicidad -

Most Popular

¿Qué es Insolar (INS)? La constructora de redes empresariales

Insolar (INS) es un proyecto que está tratando de desarrollar redes comerciales distribuidas que utilizarán nuevas innovaciones en la tecnología Blockchain para hacerlas seguras...

¿Qué es Dash? La moneda que creó Masternodes

Bitcoin apareció como una gran mejora al dinero en ese entonces. Sin embargo, por muy superior a él que sea, sigue teniendo...

¿Qué es Bitcoin cash (BCH)? Un tamaño de bloque mucho más grande

Todos sabemos que existen diferentes tipos de criptomonedas con diferentes tipos de características, unas utilizan el método de consenso de Proof Of...

¿Qué es Taproot? La revolución de la Blockchain de Bitcoin

Una de las actualizaciones que se están esperando con ansias es que Bitcoin (BTC) pueda mejorar las habilidades de “scripting capabilities”. Esta actualización es conocida...

¿Qué es y cómo comprar NuCypher (NU)? dApps privadas

¿Qué es NuCypher? NuCypher es un proyecto blockchain que se centra en ofrecer una infraestructura en las que las dApps puedan preservar su...
- Publicidad -