Los estudios y proyectos sobre inteligencia artificial llevan décadas tanteando métodos y posibilidades, pero casi siempre los ejemplos que nos ofrecen sus desarrolladores son casos prácticos no demasiado inquietantes, como jugar partidas de ajedrez, gestionar los suministros de una casa o conducir un coche. Eso cambió radicalmente el día en que Google mostró al mundo su Duplex, aquel asistente que llama por teléfono a los establecimientos para reservar imitando a un humano. Ahora me entero gracias a RPS de que la propia Google ha estado demostrando algo parecido, pero en Lo Nuestro: los videojocs.
El sistema de inteligencia artificial neural que viene desarrollando Google lleva por nombre DeepMind, precisamente porque practica eso que llaman deep learning, y los resultados se pueden ver en un vídeo reciente: la compañía propone a DeepMind aprender desde cero a jugar a una versión simplificada de capturar la bandera, el modo de juego habitual en FPS multijugador que saltó de los jardines y los parques a los videojuegos popularizándose sobre todo con Quake 3 y Unreal Tournamen a finales de los noventa. Las áreas de juego son pequeñas, los equipos son por parejas y las reglas sencillas: solo hace falta disparar a quien lleva la bandera para que la suelte.
El experimento pone a diversos agentes de la misma IA jugando a miles de partidas simultáneas de capturar la bandera en mapas procedimentales aleatorios tanto interiores como exteriores, y se puede ver en un gráfico dinámico (minuto 1:20 del vídeo) el avance imparable de aprendizaje de la IA con cientos de partidas desarrollándose en paralelo. Tarda muy poco en superar la escala humana y alcanzar límites más allá de la parte superior de la tabla. Da un poco de miedo.
Lo más interesante es ver las partidas en perspectiva isométrica y comprobar la manera de moverse de los agentes IA: ya no solo son eficientes o rápidos al tomar decisiones, sino que llevan a cabo estrategias aparentemente muy humanas que DeepMind ha aprendido por sí misma; se les puede ver jugando al engaño, coordinándose con compañeros de equipo, haciendo amagos, tendiendo trampas a los oponentes defendiendo la base cuando es necesario, hacer coberturas e incluso campeando.
Lo que en principio podrían parecer simples bots de cualquier juego, no tienen nada que ver. La IA de los videojuegos actuales se limita en su mayoría a scripts pensados dentro de un marco específico, con condicionales claros y con estrategias limitadas y diseñadas por un humano. Los agentes de DeepMind en cambio llegan vírgenes al juego y aprenden por sí mismos a base de acumular experiencia y crear sus propias tácticas a base de jugar y jugar. La ventaja sobre los humanos, claro está, es que la potencia de los procesadores actuales permite a DeepMind jugar esas partidas por miles y todas a la vez, de manera que el conocimiento del juego crece a niveles vertiginosos. Tanto es así que, tal como demuestra el último tramo del vídeo, no solo juega mejor que un humano sino que también juegan mejor cooperando en equipo junto a un humano que el propio humano.
Otra cosa que distingue a DeepMind de los bots convencionales: es que los bots son parte del juego, se limitan a reglas que les igualan a los jugadores humanos, pero se mueven por órdenes preestablecidas dentro del código del juego; en cambio los agentes IA del vídeo juegan a través de un control emulado, de enviar inputs al juego como lo hacemos nosotros con un mando o un teclado o un ratín. No solo deben aprender a jugar sino que, en el proceso, deben aprender también cómo se juega.
En este artículo los responsables de DeepMind explican al detalle todo el proyecto de capturar la bandera, y es francamente apasionante. La duda que queda sobre la aplicación de esta IA neural es qué tipo de potencia de proceso necesitaría, ya no para realizar este aprendizaje (que debe producirse, probablemente, en varios ordenadores de alta potencia conectados en algún tipo de complejo empresarial o académico), sino para acoger a uno de estos agentes tras ese proceso de enseñanza. Si sería posible trasladarlo a entornos como, qué sé yo, un videojuego actual, con el tipo de arquitectura y las velocidades de procesado que manejamos ahora.
Solo los usuarios registrados pueden comentar - Inicia sesión con tu perfil.
Es impresionante, en la uni había hecho pruebas con redes neuronales y si los datos a observar son los correctos acaban funcionando perfectamente. Lo que me alucina ya es cómo se desacoplan del juego, haciendo que jueguen mediante inputs como se dice en la parte final del artículo.
@pinjed te ha faltado un «lo que sucedió a continuación te sorprenderá» en el titular 🙁
Son todos risas hasta que comiencen a poner estás inteligencias en drones y roboces para matar gente.
Ésto se suele entrenar en cluster en la nube (Google cloud, Amazon web services) donde cada cluster está compuesto por varias máquinas, y cada máquina puede tener varias GPUs CUDA. Es en la GPU donde se realizar todo el procesamiento. Supongo que cada jugador requiere una GPU diferente, unido al número de partida, si que requiere una configuración bastante potente. Luego usar el modelo, una vez entrenado, si es más asequible, ya que sólo se necista una GPU.
En algún momento de nuestras vidas el clickbait se apropió de los titulares divertidos.
Ojalá en Switch
En la parte final está curioso intentar adivinar quién es el humano.
Quiero juegos 4X con una IA así. Es el genéro que más desesperadamente necesita una IA nueva.
Una vez entrenado si se puedeusar en un ordenador normal sin problemas.
Estás técnicas ya llevan un tiempo dando vueltas por el mundo de los videojuegos, no a este nivel, pero en lo académico si que veo más y más cursos de IA con machine learning para cosas específicas con buenos resultados.
No hay dudas de que es el futuro, pero en el video veo que están subestimando mucho al cerebro humano. Los movimientos de los «agentes» , aunque rápidos, parecen erráticos en algunos momento, incluso cuando supuestamente ya están operando muy por encima de la capacidad del humano.
Cuando el bot tenga la capacidad de preguntarse por qué está jugando llegará ese futuro de Detroit Become Human.
Deepmind podrá ganarnos a «atrapa la bandera», pero jamas podrá hamar…
Hola Skynet.
Menos mal que los límites de la computabilidad nos recuerdan que hay muchísimas más cosas que una IA no puede hacer, que las que podrá hacer alguna vez. Es muy interesante aplicar estas cosas a los videojuegos, eso sí. Es triste que tengamos tan buenos gráficos pero que no se trabajen otros aspectos de los videojuegos.
Lo que realmente da miedo es esta tecnología aplicada a la guerra real. Superando a cualquier humano.
No es el videojuego en algunos campos una herramienta de entreno para la posterior aplicación en la vida real (aviación, conducción, guerra, montones de simuladores VR…).
No me cuesta nada ver a Google vendiendo está IA al ejército de USA o incluso a algún otro. La herramienta de control de población definitiva? Un ejército que no pueda ponerse nunca al lado de la población para derrocar un gobierno…
Pero este tipo de IAs llevan tiempo utilizandose en los esports. No veis que los coreanos son ¡¡¡ROBOTS!!!
No creo que se esté subestimando al humano. La posición por defecto en estos casos siempre es que la inteligencia humana es superior salvo que se demuestre lo contrario. Lo que se remarca de la AI no es que sea superior sino que haya sido capaz de aprender por sí misma sin necesidad de una programación específica.
Más que eso, en el mundo académico se lleva mucho tiempo usando videojuegos como campo de pruebas para investigación en IA. La principal ventaja es la facilidad y rapidez en obtener cantidades masivas de datos para el entrenamiento, que se genera durante el propio proceso en el cual entrenas a la AI. O sea, el propio entrenamiento genera a su vez datos que se pueden usar para el entrenamiento. Mientras que esto no es así si por ej. quieres entrenar a una AI para reconocer tumores en radiografías.
Los militares no necesitan a google para tener sus propias IA. Con conocer la idea general de lo que funciona y lo que no es suficiente para que desarrollen sus propias versiones. Todo el mundo se está apuntando al carro, militares o no.
Esto lo ha aplicado EA al Battlefield y hay videos de como lo hacen los bots, al principio son erráticos y tienden a juntarse para esperar un objetivo, pero al final del vídeo se ve como aprenden tácticas y se dividen en grupos para acabar con el resto.
Miedo, y muy mucho.
Me estaré volviendo viejo, o entrando en el momento en que dejó de ser chévere como dice el abuelo Simpson, o que simplemente soy ignorando en el tema y por eso pienso así.
Pero todo esto me da un miedo tremendo. Creo que la IA debería ser uno de esos terrenos del conocimiento humano en los que no se debería avanzar. Sobre todo en la parte del autoaprendizaje de la máquina. Por muy cautivadora que sea la idea de acelerar procesos.
Acaso no podría por si sola en algún momento esta tecnologia mutar? Lo que aumentaría más aún el endeble control sobre ella. Nosotros no evolucionamos tan rápido para seguirle el paso a una entidad así.
La vida se abre camino.
Pd: probablemente pensé mucha mierda. Quizás mañana en un estado menos soporoso reviso el comentario y me avergüenzo xD.
A pesar de los grandes avances de tiempos recientes se está muy muy lejos de llegar a un escenario estilo Terminator. La capacidad de una máquina programandose a sí misma es sorprendente y puede superar a humanos en tareas en las que hasta hace poco se consideraba impensable que pudiese ocurrir pero no deja de haber limitaciones muy importantes.
Como ejemplo, la AI que aplastó en Go al campeón humano requirió un superordenador funcionando durante bastantes días para su entrenamiento, y aún así, aunque es capaz de reaccionar adecuadamente a situaciones nuevas extrapolando su experiencia pasada, esto es siempre dentro del contexto del entrenamiento realizado. En este caso, si por ejemplo cambias el tablero de 19×19 a 17×17 o 21×21 la IA no sabría que hacer y requeriría ser entrenada de cero, mientras que un humano no tendría mucho problema en adaptar su juego.
En resumen, las nuevas IAs suponen un salto cualitativo importante pero son necesarios varios saltos cualitativos más de gran magnitud para acercarse siquiera a lo que entenderíamos por una IA generalista.