Sztuczna inteligencja – podobnie jak naturalna – do rozwoju potrzebuje intensywnie stymulującego środowiska. Na drodze mogą jednak stanąć prawa autorskie oraz artyści, którzy czują się pokrzywdzeni przez kreatywne naśladownictwo modelu Stable Diffusion. Z jednej strony można to interpretować jako walkę o etyczne AI. Z drugiej – jako wątłą próbę powstrzymania nieuniknionego postępu. Rozstrzygnięcia sporu na razie podejmie się amerykański sąd.
Futurystyczny sen o beztroskim rozwoju sztucznej inteligencji może zostać zakłócony przez proces sądowy wytoczony Stability AI, DeviantArt i Midjourney, czyli podmiotom korzystającym z technologii Stable Diffusion.
ChatGPT rośnie w siłę. Model 4.0, integracja z produktami Microsoftu, wejście w świat nauki i płatny pakiet premium
Modele sztucznej inteligencji uczą się na danych bez oglądania się na ich autorów. Zachłanność AI może budzić sprzeciw osób, na których dziełach buduje się cyfrowe mistrzostwo. W ten sposób w ostatnich dniach Internet obiegła wieść o pozwie przeciwko firmom korzystającym ze Stable Diffusion – technologii tworzenia obrazów na podstawie podanych zapytań. Krytycy określają ją odmiennie: narzędziem do tworzenia kolaży. Autorzy skargi precyzyjnie analizują sposób postępowania modelu Stable Diffusion, wskazując, że algorytm dyfuzji tworzy dzieła pochodne względem obrazów źródłowych poprzez takie interpolacje, która z punktu widzenia prawa autorskiego są bezprawne (oprócz wersji www dostępna jest także pełna treść pozwu).
Technika i niepodległość. Polska sztuka w Google Arts & Culture
Nie jest to pierwszy pozew wymierzony w AI przez wskazany wyżej zespół. W listopadzie 2022 roku przedmiotem sporu stał się model Copilot dostępny na platformie Github – wewnętrzne narzędzie potrafiące tworzyć samodzielnie kod. W zamierzeniu stanowi uzupełnienie pracy programisty. Umiejętności Copilota powstały oczywiście na bazie analiz miliardów linijek kodu. Wywołało to poruszenie w niektórych kręgach, które zarzuciły Microsoftowi żerowanie na cudzej pracy intelektualnej pod płaszczykiem niewinnego pojęcia treningu AI. Warto podkreślić, że Github należy właśnie do Microsoftu od 2018 roku. Ku zaskoczeniu, pozew nie oskarża o bezpośrednie naruszenie praw autorskich. Przyjął inną strategię – firmy przekroczyły własne warunki korzystania z serwisu (i politykę prywatności), a także prawo, które wymaga wyświetlania informacji o prawach autorskich w chwili wykorzystywania danych materiałów.
ChatGPT – popularny bot jest w stanie napisać także złośliwe oprogramowanie. Każdy może stać się hakerem?
Kod typu open-source nie należy przecież do domeny publicznej. Często jest objęty prawami autorskimi. Istnieje wiele licencji open-source z różnymi warunkami. Może na przykład wymagać, by oprogramowanie zbudowane na podstawie kodu open-source zawierało nazwisko twórcy. W grę wchodzą zarówno straty materialne, jak i niematerialne. Otwarty kod stanowi świetną promocję dla twórcy, nawet jeśli nie zarabia na nim bezpośrednio.
Deepfake – sztuczna inteligencja sfałszuje nam rzeczywistość?
Pod wpływem krytyki organizacje tworzące modele AI same zaczęły dostrzegać problem. W grudniu 2022 roku pojawiła się możliwość wyłączenia własnej pracy ze zbiorów Stable Diffusion 3. Ze strony artystów pojawiła się oddolna inicjatywa strony HaveIBeenTrained, która pozwala wyszukać swoje dzieła w repozytoriach treningowych AI. Napięcie między różnymi grupami kreatywnymi a modelami sztucznej inteligencji będzie rosnąć (wyjątkiem pozostaje branża muzyczna, szczególnie że na generowane dźwięki jest relatywnie niewielki popyt). Na razie rzecznicy interesów obu grup przedstawią swoje argumenty przed amerykańskim systemem sprawiedliwości. Niewykluczone, że problem w najbliższym czasie zawita także do sądów Unii Europejskiej. Trzeba podkreślić, że poczynione ustalenia będą mieć fundamentalne znaczenie dla podstaw projektowych następnych generacji AI, a możliwe rozstrzygnięcia mogą skłaniać się zarówno ku infoanarchizmowi, jak też i tradycyjnemu pojęciu własności intelektualnej.
Źródło: Stable Diffusion Litigation, New York Times, Computer World, MIT
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS