A A+ A++

Obecne modele językowe sztucznej inteligencji podążają różną drogą w zakresie dostępności dla szerszej publiki. Niektóre – tak jak słynny ChatGPT od OpenAI i Microsoftu – wprowadzono w ogólnym dostępie i każdy może się z nimi zapoznać. Nie jest to jednak jedyna możliwość. Mark Zuckerberg ograniczył Large Language Model Meta AI autorstwa swojej firmy do węższego grona odbiorców. W tym przypadku trzeba posiadać odpowiednie zaproszenie, by móc skorzystać z narzędzi.

3 marca 2023 roku do Internetu dostał się model sztucznej inteligencji korporacji Meta. Nieznany użytkownik umieścił na forum 4chan odnośnik do torrenta zawierającego odpowiednie pliki. Dotychczas z dzieła firmy można było skorzystać tylko po odpowiedniej weryfikacji (w postaci pakietu z wolnym dostępem do kodu źródłowego).

Meta z wyciekiem narzędzi sztucznej inteligencji. Korporacyjny Large Language Model Meta AI pojawił się na forum 4chan [1]

Meta prezentuje swój duży model językowy. Zuckerberg zdradził, jakiej spodziewać się wydajności względem ChatGPT

Dziennikarzom udało się potwierdzić prawdziwy charakter wycieku, to jest zgodność narzędzi udzielonych badaczom z tym, co można pobrać z Internetu. Meta udostępniło LLaMA (który tak naprawdę nie jest pojedynczym systemem, ale zespołem różnych modeli) na niekomercyjnej licencji skupionej na badaniach naukowych – z dostępem dla grup takich jak uniwersytety, organizacje pozarządowe i laboratoria przemysłowe. Takie podejście prędzej czy później musiało zakończyć się wyciekiem. Należy podkreślić, że rozwiązanie LLaMA nie opiera się na chatbocie i dialogowaniu z użytkownikiem. W praktyce przypomina raczej piaskownicę różnych narzędzi. W przeciwieństwie do produktów internetowych z pełnym API, dzieło Mety wymaga potężnego sprzętu i dużej wiedzy do uruchomienia go.

Meta z wyciekiem narzędzi sztucznej inteligencji. Korporacyjny Large Language Model Meta AI pojawił się na forum 4chan [2]

Kosmos-1 – multimodalny duży model językowy od Microsoftu. Jest dużo bardziej zaawansowany od GPT-3

Trudno w tej chwili określić skutki wycieku. Nie wiadomo bowiem, jakie są pełne możliwości ujawnionego kodu. Istnieje prawdopodobieństwo, że LLaMA zostanie użyte do przeprowadzania wiarygodnych oszustw w Internecie, pisania spamu bądź generowania szkodliwego kodu. Eksperci podkreślają również, że model nie przeszedł jeszcze fazy “nastrajania” (fine-tuning), to jest specjalizacji do pewnych określonych obowiązków (na przykład rozmów z użytkownikami). Stanowi to kolejną barierę dla zwykłego internauty, który chciałby zaprząc sztuczną inteligencję do rozwiązywania narzuconych jej zadań.

Źródło: The Guardian, Vice

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułNiesamowicie trudne gry, które nie są soulsami. Tylko dla lubiących wyzwania…
Następny artykułPierwszoklasiści z 'Ósemki' wzięli udział w lekcji bibliotecznej