Z proceduralnym generowaniem światów w grach mamy już do czynienia od dość dawna. Żeby wspomnieć tylko o Dead Cells czy No Man’s Sky. Jednak w klasycznych retro grach, takich jak uwielbiany przez większość społeczeństwa Mario, nie spotyka się tego zjawiska zbyt często. A jednak zespół z Uniwersytetu IT w Kopenhadze, postanowił spróbować swoich sił i stworzyć wersję Mario, w której generowane światy będą tworzone z pomocą modelu językowego GPT-2.
MarioGPT to klasyczny Super Mario Bros. Z jednym małym wyjątkiem. Od teraz ilość poziomów jest nieskończona, ponieważ generowanie ich oparte jest na modelu językowym GPT-2.
Nintendo Direct – znamy listę nadchodzących tytułów oraz nowości dla subskrybentów NSO
Klasyczny Super Mario Bros pomimo swojego wieku (30 lat!), nadal cieszy się popularnością. Szczególnie na scenie “speedrunnerów”, którzy opanowali przejście całej gry w mniej niż 5 minut. Jednak klasyczny Mario miał swoją wadę, jak każda inna gra – w końcu dochodziliśmy do ostatniego poziomu. Gry generowane proceduralnie mają swój urok o tyle, że za każdym razem możemy trafić na ciut inny poziom i przechodzić grę setki razy bez znudzenia. Zespół ze wspomnianej uczelni w Kopenhadze postanowił wcielić ten pomysł w życie, również w stosunku do takiego klasyka branży gier. MarioGPT jest oparty na modelu językowym GPT-2. Jako jego “trening” posłużyły poziomy z Super Mario Bros oraz Super Mario Bros: The Lost Levels. Posłużono się modelem GPT-2 na próbę, żeby zobaczyć, jak całość będzie funkcjonować. Okazało się, że model ten jest wystarczający i dodatkowo łatwiejszy do nauki niż GPT-3.
Uwielbiana przez graczy Zelda: A Link to the Past stała się właśnie grywalna na Nintendo Switch oraz PC
Oczywiście nawet duże modele językowe (LLM), nie są w stanie przetwarzać poziomów Mario w sposób natywny, więc musiano się opierać na interpretacji tekstowej poziomów. Jako że poszczególne elementy zostały określone w taki sposób, każdy znak ma swoje znaczenie. Można zauważyć, że “Q” oznacza blok ze znakiem zapytania, a “E” Goombę. Dzięki temu oraz zastosowaniu kilku funkcji, GPT-2 jest w stanie przetwarzać te dane wejściowe w poziomy, a także interpretować polecenie z użyciem naturalnego języka. Jeśli więc “powiemy”, aby generowany świat zawierał więcej rur, to model językowy przetworzy to w odpowiedni sposób. Na ten moment jedyne ograniczenia to woda, której nie ma w zbiorze danych, oraz inni przeciwnicy niż wspomniany wcześniej Goomba. Projekt dostępny jest na GitHub i miejmy nadzieję, że tym razem Big N odpuści i nie będzie kolejnego pozwu.
Funnily, without any coordination whatsoever,
Graham Todd, @Smearle_RH, @utheprodigyn, @Bumblebor, and @togelius come out with a great paper on Level Generation through LLMs on the same day! Check it out: https://t.co/BRYhTPybFy— Sebastian Risi (@risi1979) February 14, 2023
Źródło: Tech Crunch
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS