Unia Europejska opublikowała pierwszy projekt Kodeksu Postępowania dla modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI). Dokument ten, który ma zostać ostatecznie sfinalizowany w maju 2025 roku, zawiera wytyczne dotyczące zarządzania ryzykiem i zapewnia firmom plan działania, aby uniknąć wysokich kar finansowych. Choć Ustawa o AI UE weszła w życie 1 sierpnia 2024 roku, pozostawiono w niej miejsce na późniejsze doprecyzowanie zasad dotyczących modeli GPAI. Opublikowany projekt jest pierwszą próbą wyjaśnienia, czego oczekuje się od bardziej zaawansowanych modeli AI, dając interesariuszom czas na przesłanie opinii i sugestii przed ich wprowadzeniem.
Co obejmuje Kodeks Postępowania dla GPAI?
Modele ogólnego przeznaczenia sztucznej inteligencji (GPAI) to takie, które zostały wytrenowane przy użyciu mocy obliczeniowej przekraczającej 10²⁵ FLOP-ów. Wśród firm, które najprawdopodobniej zostaną objęte nowymi wytycznymi, znajdują się OpenAI, Google, Meta, Anthropic oraz Mistral, ale lista ta może się wydłużyć w miarę rozwoju regulacji.
Projekt dokumentu koncentruje się na kilku kluczowych obszarach dla twórców GPAI:
- Transparentność
- Zgodność z prawami autorskimi
- Ocena ryzyka
- Zarządzanie ryzykiem technicznym i zarządczym
- Kluczowe aspekty projektu kodeksu
36-stronicowy dokument obejmuje szeroki zakres zagadnień, a przed ostatecznym zatwierdzeniem prawdopodobnie zostanie jeszcze rozszerzony. Kilka kluczowych elementów projektu już teraz zasługuje na uwagę.
Transparentność i zgodność z prawami autorskimi
Kodeks podkreśla znaczenie transparentności w rozwoju AI i wymaga od firm ujawnienia informacji na temat narzędzi do zbierania danych, takich jak roboty internetowe (web crawlers), używane do trenowania modeli. Jest to kluczowa kwestia z punktu widzenia twórców i właścicieli praw autorskich, którzy często obawiają się, że ich prace mogą być wykorzystywane bez odpowiedniej zgody.
Ocena ryzyka i zapobieganie zagrożeniom
Część dotycząca oceny ryzyka skupia się na zapobieganiu cyberprzestępstwom, rozpowszechnianiu dyskryminacji oraz utracie kontroli nad AI (tzw. “moment zbuntowanej AI” znany z filmów science fiction). Twórcy AI będą zobowiązani do przyjęcia Ram Bezpieczeństwa i Ochrony (SSF), które szczegółowo przedstawią ich polityki zarządzania ryzykiem oraz proporcjonalne środki zaradcze dostosowane do potencjalnych zagrożeń systemowych.
Ochrona danych i kontrola dostępu
Regulacje obejmują również aspekty techniczne, takie jak ochrona danych modelu, zapewnienie bezpiecznych systemów kontroli dostępu oraz regularna ocena skuteczności stosowanych środków bezpieczeństwa. Firmy będą musiały systematycznie monitorować ryzyko i w razie potrzeby wprowadzać poprawki.
Odpowiedzialność i nadzór
Część dotycząca zarządzania kładzie nacisk na odpowiedzialność wewnątrz firm zajmujących się AI. Przewiduje się stałe oceny ryzyka oraz konieczność angażowania zewnętrznych ekspertów tam, gdzie to konieczne, aby zapewnić zgodność z regulacjami i minimalizować ryzyko.
Wysokie kary za naruszenie regulacji
Podobnie jak w przypadku innych regulacji technologicznych UE, firmy, które nie dostosują się do zapisów Ustawy o AI, mogą spodziewać się wysokich kar. Mogą one wynosić nawet 35 milionów euro lub do 7 procent rocznych globalnych przychodów firmy, w zależności od tego, która wartość jest wyższa.
Konsultacje publiczne do 28 listopada
Interesariusze są zaproszeni do przesyłania opinii za pośrednictwem dedykowanej platformy Futurium do 28 listopada 2024 roku. Ma to pomóc w dopracowaniu kolejnej wersji projektu kodeksu. Ostateczne przepisy mają zostać zatwierdzone 1 maja 2025 roku.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS