Generatory obrazów z biegiem czasu stają się coraz wydajniejsze, a obecnie stworzenie wysokiej jakości grafiki trwa zazwyczaj od kilku do kilkunastu sekund. Oczywiście pojawiają się modele, które pozwalają skrócić ten czas do dużo mniejszych wartości, a jednym z nich jest Stable Diffusion XL Turbo. Jednak badacze z Instytutu Technologicznego w Massachusetts opracowali metodę, która znacząco przyspiesza działanie praktycznie każdego dostępnego rozwiązania.
Generatory obrazów mogą znacznie szybciej wykonywać swoje zadanie dzięki metodzie, którą opracowali badacze z MIT. Rozwiązanie opiera się na nauce funkcjonowania bazowego modelu i zmniejszeniu liczby wymaganych procesów do zaledwie jednego. Czas operacji jest niemal 30-krotnie krótszy.
Stable Diffusion 3 – oficjalna prezentacja nowego modelu AI. Jeszcze lepsza jakość obrazów i generowanie dokładnego tekstu
Metoda o nazwie Distribution Matching Distillation (DMD) została opracowana przez wielu badaczy z MIT CSAIL (Computer Science and Artificial Intelligence Laboratory). Pozwala ona wykorzystać konkretny model, który służy do generowania obrazów w relacji nauczyciel-uczeń. Wybrany model (w tym przypadku Stable Diffusion 1.5) staje się więc nauczycielem dla nowego rozwiązania, czyli ucznia, który poznaje jego zasady funkcjonowania. Po tej nauce może skrócić wszystkie poznane kroki do jednego, a mimo to osiąga bardzo podobne rezultaty. Modele dyfuzyjne opierają się bowiem na stopniowym odszumianiu pierwszej grafiki, aż do uzyskania docelowego efektu. Cały proces składa się z wielu etapów, które następują po sobie.
Stable Diffusion XL Turbo – generowanie obrazów w czasie rzeczywistym jest już możliwe. Stability AI wyprzedza rynek
DMD jest więc bardzo ciekawym rozwiązaniem, które wykorzystując model Stable Diffusion, jest w stanie wygenerować obraz w 90 zamiast 2590 ms (a więc w krótszym czasie niż trwa mrugnięcie okiem – od 100 do 400 ms). Jak już wspomniano, same efekty w wielu przypadkach są bardzo podobne, a czasami nawet lepsze niż w bazowym modelu. Zasada jest tutaj dość prosta: im bardziej zaawansowany jest model, który służy jako wzór, tym lepsze rezultaty można później uzyskać. Poniżej możemy zobaczyć przykłady wygenerowanych grafik, które praktycznie w każdym wariancie wyglądają po prostu korzystniej z użyciem metody DMD. Omawiane badanie znajdziemy pod tym adresem. Alternatywnie możemy wypróbować wspomniany na początku model Stable Diffusion XL Turbo, który także skraca kroki potrzebne do stworzenia obrazu do 1, natomiast korzysta z metody Adversarial Diffusion Distillation (ADD).
Źródło: MIT News
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS