A A+ A++

Generatory obrazów z biegiem czasu stają się coraz wydajniejsze, a obecnie stworzenie wysokiej jakości grafiki trwa zazwyczaj od kilku do kilkunastu sekund. Oczywiście pojawiają się modele, które pozwalają skrócić ten czas do dużo mniejszych wartości, a jednym z nich jest Stable Diffusion XL Turbo. Jednak badacze z Instytutu Technologicznego w Massachusetts opracowali metodę, która znacząco przyspiesza działanie praktycznie każdego dostępnego rozwiązania.

Generatory obrazów mogą znacznie szybciej wykonywać swoje zadanie dzięki metodzie, którą opracowali badacze z MIT. Rozwiązanie opiera się na nauce funkcjonowania bazowego modelu i zmniejszeniu liczby wymaganych procesów do zaledwie jednego. Czas operacji jest niemal 30-krotnie krótszy.

Stable Diffusion stworzy grafikę w ułamku sekundy. Badacze z MIT przedstawili metodę, która usprawni każdy model AI [1]

Stable Diffusion 3 – oficjalna prezentacja nowego modelu AI. Jeszcze lepsza jakość obrazów i generowanie dokładnego tekstu

Metoda o nazwie Distribution Matching Distillation (DMD) została opracowana przez wielu badaczy z MIT CSAIL (Computer Science and Artificial Intelligence Laboratory). Pozwala ona wykorzystać konkretny model, który służy do generowania obrazów w relacji nauczyciel-uczeń. Wybrany model (w tym przypadku Stable Diffusion 1.5) staje się więc nauczycielem dla nowego rozwiązania, czyli ucznia, który poznaje jego zasady funkcjonowania. Po tej nauce może skrócić wszystkie poznane kroki do jednego, a mimo to osiąga bardzo podobne rezultaty. Modele dyfuzyjne opierają się bowiem na stopniowym odszumianiu pierwszej grafiki, aż do uzyskania docelowego efektu. Cały proces składa się z wielu etapów, które następują po sobie. 

Stable Diffusion stworzy grafikę w ułamku sekundy. Badacze z MIT przedstawili metodę, która usprawni każdy model AI [2]

Stable Diffusion XL Turbo – generowanie obrazów w czasie rzeczywistym jest już możliwe. Stability AI wyprzedza rynek

DMD jest więc bardzo ciekawym rozwiązaniem, które wykorzystując model Stable Diffusion, jest w stanie wygenerować obraz w 90 zamiast 2590 ms (a więc w krótszym czasie niż trwa mrugnięcie okiem – od 100 do 400 ms). Jak już wspomniano, same efekty w wielu przypadkach są bardzo podobne, a czasami nawet lepsze niż w bazowym modelu. Zasada jest tutaj dość prosta: im bardziej zaawansowany jest model, który służy jako wzór, tym lepsze rezultaty można później uzyskać. Poniżej możemy zobaczyć przykłady wygenerowanych grafik, które praktycznie w każdym wariancie wyglądają po prostu korzystniej z użyciem metody DMD. Omawiane badanie znajdziemy pod tym adresem. Alternatywnie możemy wypróbować wspomniany na początku model Stable Diffusion XL Turbo, który także skraca kroki potrzebne do stworzenia obrazu do 1, natomiast korzysta z metody Adversarial Diffusion Distillation (ADD). 

Stable Diffusion stworzy grafikę w ułamku sekundy. Badacze z MIT przedstawili metodę, która usprawni każdy model AI [3]

Stable Diffusion stworzy grafikę w ułamku sekundy. Badacze z MIT przedstawili metodę, która usprawni każdy model AI [4]

Stable Diffusion stworzy grafikę w ułamku sekundy. Badacze z MIT przedstawili metodę, która usprawni każdy model AI [5]

Źródło: MIT News

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykuł15 zawodników, trenerów i działaczy sportowych dostało nagrody starosty chrzanowskiego
Następny artykułCondor – nowe oblicze uniwersum Control. Remedy zdradza szczegóły