Usuario:JavaVB/Aprendizaje de maquina en vídeo juegos

En los videojuegos, varias técnicas de inteligencia artificial han sido utilizadas de muchas maneras, que van desde el control de personajes no jugadores (NPC) hasta la generación de contenido procesal (PCG). El Aprendizaje de maquina es un subconjunto de inteligencia artificial que se centra en el uso de algoritmos y modelos estadísticos para hacer que máquinas actúen sin programación especifica. Esto en fuerte contraste a métodos tradicionales de inteligencia artificial como árboles de búsqueda y sistemas expertos.

La información sobre las técnicas de aprendizaje de maquina en el campo de los juegos es mayoritariamente conocida por público a través de proyectos de investigación ya que la mayoría de las compañías de juegos escogen no publicar información concreta sobre su propiedad intelectual. La aplicación públicamente mas conocida de aprendizaje de máquina en juegos es probablemente el uso de agentes de aprendizaje profundo que compiten con jugadores humanos profesionales en juegos de estrategia complejos. Ha Habido una aplicación significativa de aprendizaje de máquina en juegos como Atari/ALE, Doom, Minecraft, Starcraft, y car racing.[1]​ Otros juegos que originalmente no existían como vídeo juegos, tal como chess y go que también han sido afectado por el aprendizaje de máquina.[2]

Visión general de las técnicas relevantes de aprendizaje de maquina editar

 
Una red neuronal artificial es un grupo interconectado de nodos, semejantes a la vasta red de neuronas en un cerebro. Aquí, cada nodo circular representa una neurona artificial y una flecha representa la salida de una neurona artificial a la entrada de otra.

Aprendizaje profundo editar

El aprendizaje profundo es un subconjunto de aprendizaje de maquina el cuál se centra fuertemente en el uso de redes neuronales artificiales (ANN) que aprenden a solucionar tareas complejas. El aprendizaje profundo utiliza multiples capas de ANN y otras técnicas para extraer progresivamente información de una entrada. Debido a este enfoque complejo de capas , los modelos de aprendizaje profundo a menudo requieren máquinas potentes para entrenarse y correr.

Redes neuronales convolucionales editar

Las Redes neuronales Convolucionales (CNN) son ANN que a menudo se utilizan para analizar datos de imágenes. Estos tipos de redes son capaces de aprender patrones invariables de traducción, los cuales son patrones que no dependen de la ubicación. Las CNN son capaz de aprender estos patrones en una jerarquía, lo que significa que las capas convolucionales anteriores aprenderán patrones locales más pequeños mientras las capas posteriores aprenderán los patrones más grandes basados en los patrones anteriores.[3]​ La capacidad de una CNN de aprender datos visuales la han hecho una herramienta comúnmente utilizada para aprendizaje profundo en los juegos.[4][5]

Red neuronal recurrente editar

Las redes neuronales recurrentes son un tipo de ANN que estan diseñadas para procesar secuencias de datos en orden, una parte a la vez en lugar de todas. Un RNN recorre cada parte de una secuencia, utilizando la parte actual de la secuencia junto con la memoria de partes anteriores de la secuencia actual para producir una salida. Estos tipos de ANN son altamente eficaces en tareas como reconocimiento de voz y otros problemas que depende fuertemente del temporal. Hay varios tipos de RNN con diferentes configuraciones internas; la implementación básica sufre una carencia de memoria de plazo largo debido al gradiente de desvanecimiento, por lo que raramente se utiliza en implementaciones más nuevas.[3]

Memoria de plazo corto larga editar

Una red de memoria a largo plazo (LSTM) es una implementación concreta de un RNN que está diseñado para tratar el problema del gradiente de desaparición visto en los RNN simples,lo que llevaría a "olvidarse" gradualmente de las partes anteriores de un secuencia ingresada al calcular la salida de una parte actual. Los LSTM solucionan este problema con la adición de un sistema elaborado utiliza una entrada/adicional para mantener pista de los datos a plazo largo.[3]​ Los LSTM ha conseguido resultados muy fuertes en varios campos, y estuvo utilizado por varios agentes de aprendizaje profundos monumentales en juegos.[6][4]

Aprendizaje de refuerzo editar

El Aprendizaje de refuerzo es el proceso de entrenar un agente que utiliza recompensas y/o castigos. La manera en que un agente es premiado o castigado depende en gran medida del problema; como dar a un agente una recompensa positiva por ganar un juego o un negativa por perder. El Aprendizaje de refuerzo se utiliza mucho en el campo del aprendizaje de máquina y puede ser visto en métodos como Q-learning, búsqueda de política, Deep Q-networks y otros. Se ha visto un fuerte rendimiento en el campo de juegos y robótica.[7]

Neuroevolution editar

Neuroevolution Implica el uso de ambas redes neuronales y algoritmos evolutivos. En vez de utilizar a descenso de gradiente le gustan redes más neuronales, neuroevolution uso de marca de los modelos de algoritmos evolutivos para actualizar neuronas en la red. Los investigadores reclaman que este proceso es menos probablemente para conseguir enganchado en un mínimo local y es potencialmente más rápido que estado del arte técnicas de aprendizaje profundo.[8]

Agentes de aprendizaje profundo editar

La máquina que aprende los agentes han solido tomar el sitio de un jugador humano más que funcionar tan NPCs, los cuales son intencionadamente añadidos a videojuegos cuando parte de diseñado gameplay. Agentes de aprendizaje profundo han conseguido los resultados impresionantes cuándo utilizados en competición con ambos humanos y otros agentes de inteligencia artificiales.[2][9]

Ajedrecístico editar

Ajedrecístico es una vuelta-juego de estrategia basada que está considerado un difícil AI problema debido a la complejidad computacional de su espacio de tablero. Juegos de estrategia similar son a menudo solucionados con alguna forma de un Minimax Búsqueda de Árbol. Estos tipos de AI los agentes han sido sabidos para batir jugadores humanos profesionales, como el históricos 1997 Profundos Azules versus Garry Kasparov partido. Desde entonces, la máquina que aprende los agentes han mostrado nunca éxito más grande que anterior AI agentes.

Va editar

Va es otra vuelta-juego de estrategia basada qué está considerado un aún más difícil AI problema que Ajedrez. El espacio estatal de es Va es alrededor 10^170 tablero posible los estados compararon al 10^120 tablero estados para Ajedrecísticos. Con anterioridad a modelos de aprendizaje profundos recientes, AI Ir los agentes eran sólo capaces de jugar en el nivel de un aficionado humano.[5]

AlphaGo editar

Google 2015 AlphaGo era el primer AI agente para batir un profesional Va jugador.[5]​ AlphaGo Utilizado un modelo de aprendizaje profundo para entrenar los pesos de un Monte Búsqueda de Árbol del Carlo (MCTS). El modelo de aprendizaje profundo constó de 2 ANN, una red de política para pronosticar las probabilidades de movimientos potenciales por adversarios, y una red de valor para pronosticar el ganar posibilidad de un estado dado. El modelo de aprendizaje profundo deja el agente para explorar el juego potencial declara más efficiently que una vainilla MCTS. La red era inicialmente entrenada en juegos de jugadores de humanos y entonces era más allá entrenado por juegos en contra él.

AlphaGo Cero editar

AlphaGo Cero, otra implementación de AlphaGo, era capaz de entrenar enteramente por jugar en contra él. Sea capaz a deprisa tren hasta las capacidades del agente anterior.[10]

Starcraft 2 editar

Starcraft Y Starcraft 2 es estrategia de tiempo real (RTS) videojuegos que ha devenido entornos populares para AI búsqueda. Blizzard Y Deepmind ha trabajado junto de liberar un público Starcraft 2 entorno para AI búsqueda para ser hecha encima.[11]​ Varios métodos de aprendizaje profundos han sido probados en ambos juegos, aunque la mayoría de agentes normalmente tienen problema outperforming el default AI con las trampas habilitan o jugadores especializados del juego.[12]

Alphastar editar

Alphastar Era el primer AI agente para batir profesional Starcraft 2 jugadores sin cualquier en-ventajas de juego. La red de aprendizaje profunda del agente entrada recibida inicialmente de un simplificado zoomed fuera versión del gamestate, pero era más tarde actualizado para jugar utilizando un cámara como otros jugadores humanos. Los desarrolladores han no públicamente liberó el código o arquitectura de su modelo, pero ha listado varios estado de la máquina de arte que aprende técnicas como aprendizaje de refuerzo profundo relacional, mucho tiempo memoria de plazo corto, coche-regressive cabezas de política, redes de puntero, y valor centralizado baseline.[4]​ Alphastar Era inicialmente entrenado con aprendizaje supervisado, mire replays de muchos juegos humanos para aprender estrategias básicas. Él entonces entrenado contra versiones diferentes de él y estuvo mejorado a través de aprendizaje de refuerzo. La versión final era mucho exitosa, pero sólo entrenado para jugar en un mapa concreto en un protoss espejo matchup.

Dota 2 editar

Dota 2 es un multiplayer #arena de batalla on-line (MOBA) juego. Como otros juegos complejos, tradicionales AI los agentes no han sido capaces de competir en el mismo nivel como humano profesional. La información publicada ampliamente única en AI los agentes intentaron en Dota 2 es OpenAI aprendizaje profundo Cinco agente.

OpenAI Cinco editar

OpenAI Cinco utilizó separado LSTM redes para aprender cada héroe. Entrene utilizar una técnica de aprendizaje del refuerzo sabida como Aprendizaje de Política Proximal que corre en un sistema que contiene 256 GPUs y 128,000 CPU núcleos.[6]​ Cinco entrenado para meses, acumulando 180 años de juego experimentan cada día, antes de afrontar fuera con jugadores profesionales.[13][14]​ Sea finalmente capaz de batir el 2018 Dota 2 esports equipo de campeón en unas 2019 series de juegos.

Aniquilación planetaria editar

La aniquilación planetaria es un juego de estrategia de tiempo real qué foco en guerra de escala masiva. El uso de desarrolladores ANNs en su default AI agente.[15]

Generalizó juegos editar

Ha Habido intentos de hacer la máquina que aprende agentes que es capaz de jugar más de un juego. Estos "general" gaming los agentes están entrenados para entender los juegos basaron encima compartió propiedades entre ellos.

AlphaZero editar

AlphaZero Es una versión modificada de AlphaGo Cero cuál es capaz de jugar Shogi, Ajedrez, e Ir. Los inicios de agente modificados sin información única reglas básicas del juego, y es también entrenado enteramente a través de self-aprendiendo. Deepmind Era capaz de entrenar este agente generalizado para ser competitivo con versiones anteriores de él encima Ir, así como agentes superiores en los otros 2 juegos.[16]

Fuerzas y debilidades de agentes de aprendizaje profundo editar

La máquina que aprende los agentes son a menudo no cubiertos en muchos cursos de diseño del juego. Uso anterior de la máquina que aprende agentes en los juegos no pueden haber sido muy prácticos, tan incluso la 2015 versión de AlphaGo tomó centenares de CPUs y GPUs para entrenar a un nivel fuerte.[2]​ Esto potencialmente limita la creación de altamente agentes de aprendizaje profundos eficaces a empresas grandes o extremadamente @individual ricos. El tiempo de formación extenso de red neuronal basó las aproximaciones también pueden tomar semanas en estas máquinas potentes.[4]

El problema de eficazmente entrenando ANN basó los modelos extiende allende entornos de hardware potente; encontrando una manera buena de representar dato y aprender las cosas significativas de él es también a menudo un problema difícil. ANN modelos a menudo overfit a dato muy concreto y actuar mal en más generalizó casos. AlphaStar Muestra esta debilidad, a pesar de ser capaz de batir jugadores profesionales, es sólo capaz de hacer tan en un mapa solo cuándo jugando un espejo protoss matchup.[4]​ OpenAI Cinco también muestra esta debilidad, sea sólo capaz de batir jugador profesional cuando de frente a un héroe muy limitado piscina fuera del juego entero.[14]​ Este ejemplo muestra qué difícil lo puede ser para entrenar un agente de aprendizaje profundo para actuar en más generalizó situaciones.

La máquina que aprende los agentes han mostrado éxito grande en una variedad de juegos diferentes.[13][2][4]​ Aun así, agentes que es demasiado competente también arriesga hacer juegos demasiado difíciles para jugadores nuevos o casuales. La búsqueda ha mostrado que reto que es demasiado lejos por encima del nivel de habilidad de un jugador arruinará diversión de jugador más bajo.[17]​ Estos altamente entrenaron los agentes probablemente pueden sólo deseables en contra muy especializados jugadores humanos quiénes tienen muchos de horas de experiencia en un juego dado. Dado estos factores, altamente agentes de aprendizaje profundos eficaces probablemente pueden sólo una elección deseada en juegos que tiene una escena competitiva grande, donde pueden funcionar como una opción de práctica alternativa a un jugador humano especializado.

Visión de ordenador para juegos editar

Foco de visión del ordenador encima entrenando ordenadores para obtener un altos-nivela entender de vídeos o imágenes digitales. Muchas técnicas de visión del ordenador también incorporan formas de aprendizaje de máquina, y ha sido aplicado en varios videojuegos. Esta aplicación de foco de visión del ordenador encima interpretando acontecimientos de juego que utilizan dato visual. En algunos casos, uso de agentes de inteligencia artificial visión de ordenador para jugar juegos sin directamente interfacing con un videojuego API.

El hado es un primer-persona shooter (FPS) juego. Investigadores estudiantiles de Carnegie Mellon Universidad técnicas de visión de ordenador utilizadas para crear un agente que podría jugar el juego que utiliza entrada de píxel de imagen única del juego. El alumnado utilizó convolutional red neuronal (CNN) capas para interpretar incoming dato de imagen y producción información válida a una red neuronal recurrente qué era responsable para outputting movimientos de juego.[18]

Aprendizaje de máquina para generación de contenido procesal en juegos editar

Aprendizaje de máquina ha visto búsqueda para uso en recomendación de contenido y generación. Generación de contenido procesal es el proceso de crear dato algorithmically más que manualmente. Este tipo de contenido suele añadir replayability a juegos sin confiar en adiciones constantes por desarrolladores humanos. PCG Ha sido utilizado en varios juegos para tipos diferentes de generación de contenido, ejemplos del cual incluye armas en Borderlands 2[19]​, todo diseños mundiales en Minecraft[20]​, y universos enteros en el cielo de Ningún Hombre[21]​. Aproximaciones comunes a PCG incluir técnicas que implica gramáticas, búsqueda-basó algoritmos, y programación de lógica.[22]​ Estas aproximaciones requieren humanos a manualmente definir la gama de contentar posible, significando que un desarrollador humano decide lo que las características hacen una pieza válida de contenido generado. Aprendizaje de máquina es teóricamente capaz de aprender estas características cuándo ejemplos dados para entrenar fuera de, así mucho reduciendo el paso complicado de los desarrolladores que especifican los detalles de diseño de contenido.[23]​ La máquina que aprende las técnicas utilizaron para generación de contenido incluye Mucho tiempo Memoria de Plazo Corto (LSTM) Redes Neuronales Recurrentes (RNN), Generative Adversarial redes (GAN), y K-medios clustering. No todo de este uso de marca de las técnicas de ANNs, pero el desarrollo rápido de aprendizaje profundo ha mucho aumentó el potencial de técnicas que hacer.

Carrera de Armas galácticas editar

Carrera de Armas galácticas (GAR) es un espacial shooter videojuego que usos neuroevolution powered PCG para generar armas únicas para el jugador. Este juego era un finalista en el 2010 Juego Indie el reto y su papel de búsqueda relacionado ganaron el Premio de Papel Mejor en la 2009 Conferencia de IEEE en Juegos e Inteligencia Computacionales. Los desarrolladores utilizan una forma de neuroevolution llamó cgNEAT para generar el contenido nuevo basado en las preferencias personales de cada jugador.[24]

Cada cual el elemento generado está representado por una ANN especial sabida como Compositional el patrón que Produce Red (CPPNs). Durante la fase evolutiva del juego cgNEAT calcula la forma física de elementos actuales basó encima uso de jugador y otro gameplay metrics, esta puntuación de forma física es entonces utilizada decidir qué CPPNs reproducirá para crear un elemento nuevo. El resultado de final es la generación de efectos de arma nueva basaron en la preferencia del jugador.

Super Mario Bros. editar

Super Mario Bros. Ha sido utilizado por varios investigadores para simular PCG creación de nivel. Varios intentos habiendo utilizado métodos diferentes. Una versión en 2014 utilizó n-gramos para generar los niveles similares a los entrene encima, el cual era más tarde mejorado por hacer uso de MCTS para guiar generación.[25]​ Estas generaciones eran a menudo no optimal cuándo tomando gameplay metrics como movimiento de jugador a cuenta, un proyecto de búsqueda separado en 2017 probado para resolver este problema por generar los niveles basaron encima movimiento de jugador que utiliza Markov Cadenas.[26]​ Estos proyectos no fueron sometidos a testaje humano y no puede conocer humano playability estándares.

La Leyenda de Zelda editar

PCG Creación de nivel para La Leyenda de Zelda ha sido intentada por investigadores en la Universidad de California, Santa Cruz. Este intento uso hecho de una Red bayesiana para aprender conocimiento de nivel alto de existir niveles, mientras Análisis de Componente Principal (PCA) solió representa las características de nivel bajas diferentes de estos niveles.[27]​ Los investigadores utilizaron PCA para comparar generado nivela al humano hizo niveles y encontrados que estuvieron considerados muy similares. Esta prueba no incluyó playability o testaje humano del generó niveles.

Generación de música editar

La música es a menudo vista en videojuegos y puede ser un elemento crucial para influir el humor de historia y situaciones diferentes puntos. Aprendizaje de máquina ha visto uso en el campo experimental de generación de música; es singularmente convenido a procesar crudo unstructured dato y formando representaciones de nivel alto que podría ser aplicado al campo diverso de música.[28]​ La mayoría intentó los métodos han implicado el uso de ANN en alguna forma. Los métodos incluyen el uso de básico feedforward redes neuronales, autoencoders, restringidos boltzmann máquinas, redes neuronales recurrentes, convolutional redes neuronales, generative adversarial redes (GANs), y arquitecturas compuestas que uso métodos múltiples.

VRAE Melodía de videojuego sistema de generación de música simbólico editar

El 2014 papel de búsqueda en "Variational Coche Recurrente-Encoders" intentado para generar la música basada en canciones de 8 videojuegos diferentes. Este proyecto es uno del pocos conducido puramente encima música de videojuegos. La red neuronal en el proyecto era capaz de generar dato que era muy similar al dato de los juegos entrene fuera de.[29]​ Desafortunadamente, el dato generado no tradujo a música de calidad buena.

Referencias editar

  1. Justesen, Niels; Bontrager, Philip; Togelius, Julian; Risi, Sebastian (2019). «Deep Learning for Video Game Playing». IEEE Transactions on Games: 1. ISSN 2475-1502. arXiv:1708.07902. doi:10.1109/tg.2019.2896986. 
  2. a b c d Silver, David; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent et al. (6 de diciembre de 2018). «A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play». Science 362 (6419): 1140-1144. ISSN 0036-8075. PMID 30523106. doi:10.1126/science.aar6404. 
  3. a b c Chollet, Francois, Verfasser. (28 de octubre de 2017). Deep learning with Python. ISBN 9781617294433. OCLC 1019988472. 
  4. a b c d e f «AlphaStar: Mastering the Real-Time Strategy Game StarCraft II». DeepMind. Consultado el 4 de junio de 2019. 
  5. a b c Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; van den Driessche, George; Schrittwieser, Julian; Antonoglou, Ioannis et al. (January 2016). «Mastering the game of Go with deep neural networks and tree search». Nature 529 (7587): 484-489. ISSN 0028-0836. PMID 26819042. doi:10.1038/nature16961. 
  6. a b «OpenAI Five». OpenAI. 25 de junio de 2018. Consultado el 4 de junio de 2019. 
  7. Russell, Stuart J. (Stuart Jonathan). Artificial intelligence : a modern approach. Norvig, Peter (Third Indian edición). Noida, India. ISBN 9789332543515. OCLC 928841872. 
  8. Clune, Jeff; Stanley, Kenneth O.; Lehman, Joel; Conti, Edoardo; Madhavan, Vashisht; Such, Felipe Petroski (18 de diciembre de 2017). Deep Neuroevolution: Genetic Algorithms Are a Competitive Alternative for Training Deep Neural Networks for Reinforcement Learning. arXiv:1712.06567v3. 
  9. Zhen, Jacky Shunjie; Watson, Ian (2013), «Neuroevolution for Micromanagement in the Real-Time Strategy Game Starcraft: Brood War», Lecture Notes in Computer Science (Springer International Publishing): 259-270, ISBN 9783319036793, doi:10.1007/978-3-319-03680-9_28 .
  10. Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas et al. (October 2017). «Mastering the game of Go without human knowledge». Nature 550 (7676): 354-359. ISSN 0028-0836. doi:10.1038/nature24270. 
  11. Tsing, Rodney; Repp, Jacob; Ekermo, Anders; Lawrence, David; Brunasso, Anthony; Keet, Paul; Calderone, Kevin; Lillicrap, Timothy et al. (16 de agosto de 2017). StarCraft II: A New Challenge for Reinforcement Learning. arXiv:1708.04782v1. 
  12. Justesen, Niels; Bontrager, Philip; Togelius, Julian; Risi, Sebastian (2019). «Deep Learning for Video Game Playing». IEEE Transactions on Games: 1. ISSN 2475-1502. arXiv:1708.07902. doi:10.1109/tg.2019.2896986. 
  13. a b «OpenAI Five». OpenAI. Consultado el 4 de junio de 2019. 
  14. a b «How to Train Your OpenAI Five». OpenAI. 15 de abril de 2019. Consultado el 4 de junio de 2019. 
  15. xavdematos. «Meet the computer that's learning to kill and the man who programmed the chaos». Engadget. Consultado el 4 de junio de 2019. 
  16. Silver, David; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent et al. (6 de diciembre de 2018). «A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play». Science 362 (6419): 1140-1144. ISSN 0036-8075. PMID 30523106. doi:10.1126/science.aar6404. 
  17. Sweetser, Penelope; Wyeth, Peta (1 de julio de 2005). «GameFlow». Computers in Entertainment 3 (3): 3. ISSN 1544-3574. doi:10.1145/1077246.1077253. 
  18. Lample, Guillaume; Chaplot, Devendra Singh (2017). «Playing FPS Games with Deep Reinforcement Learning». Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence. AAAI'17 (San Francisco, California, USA: AAAI Press): 2140-2146. 
  19. Yin-Poole, Wesley (16 de julio de 2012). «How many weapons are in Borderlands 2?». Eurogamer. Consultado el 4 de junio de 2019. 
  20. «Terrain generation, Part 1». The Word of Notch. Consultado el 4 de junio de 2019. 
  21. Parkin, Simon. «A Science Fictional Universe Created by Algorithms». MIT Technology Review. Consultado el 4 de junio de 2019. 
  22. Togelius, Julian; Shaker, Noor; Nelson, Mark J. (2016), «Introduction», Procedural Content Generation in Games (Springer International Publishing): 1-15, ISBN 9783319427140, doi:10.1007/978-3-319-42716-4_1 .
  23. Summerville, Adam; Snodgrass, Sam; Guzdial, Matthew; Holmgard, Christoffer; Hoover, Amy K.; Isaksen, Aaron; Nealen, Andy; Togelius, Julian (September 2018). «Procedural Content Generation via Machine Learning (PCGML)». IEEE Transactions on Games 10 (3): 257-270. ISSN 2475-1502. arXiv:1702.00539. doi:10.1109/tg.2018.2846639. 
  24. Hastings, Erin J.; Guha, Ratan K.; Stanley, Kenneth O. (September 2009). «Evolving content in the Galactic Arms Race video game». 2009 IEEE Symposium on Computational Intelligence and Games (IEEE): 241-248. ISBN 9781424448142. doi:10.1109/cig.2009.5286468. 
  25. Summerville, Adam. «MCMCTS PCG 4 SMB: Monte Carlo Tree Search to Guide Platformer Level Generation». www.aaai.org. Consultado el 4 de junio de 2019. 
  26. Snodgrass, Sam; Ontañón, Santiago (August 2017). «Player Movement Models for Video Game Level Generation». Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (California: International Joint Conferences on Artificial Intelligence Organization): 757-763. ISBN 9780999241103. doi:10.24963/ijcai.2017/105. 
  27. Summerville, James. «Sampling Hyrule: Multi-Technique Probabilistic Level Generation for Action Role Playing Games». www.aaai.org. Consultado el 4 de junio de 2019. 
  28. Pachet, François-David; Hadjeres, Gaëtan; Briot, Jean-Pierre (5 de septiembre de 2017). Deep Learning Techniques for Music Generation - A Survey. arXiv:1709.01620v3. 
  29. van Amersfoort, Joost R.; Fabius, Otto (20 de diciembre de 2014). Variational Recurrent Auto-Encoders. arXiv:1412.6581v6. 

[[Categoría:Aprendizaje automático]]