W miarę jak generatywna AI coraz bardziej rozprzestrzenia się w branży technologicznej, rządy na całym świecie zaczynają rozważać wprowadzenie regulacji w celu zwalczania jej potencjału do wspomagania przestępczości i promowania stronniczości.
Podczas gdy USA i Chiny są zaciekłymi rywalami w handlu technologiami, wydaje się, że łączy je coś nowego: obawy dotyczące odpowiedzialności za sztuczną inteligencję i jej ewentualne niewłaściwe wykorzystanie. We wtorek rządy obu krajów wydały komunikaty związane z regulacjami dotyczącymi rozwoju AI.
National Telecommunications and Information Administration (NTIA), oddział amerykańskiego Departamentu Handlu, wystosował formalne publiczne zapytanie o to, jakie polityki powinny kształtować ekosystem odpowiedzialności za sztuczną inteligencję. Chodzi m.in. o kwestie dostępu do danych, pomiaru odpowiedzialności i tego, jak podejście do AI może się różnić w różnych sektorach przemysłu, takich jak zatrudnienie czy opieka zdrowotna. Pisemne komentarze w odpowiedzi na wniosek muszą być dostarczone do NTIA do 10 czerwca 2023 r., czyli 60 dni od daty publikacji w Rejestrze Federalnym.
Zobacz również:
Wiadomość pojawiła się w tym samym dniu, w którym Administracja Cyberprzestrzeni Chin (CAC) ujawniła szereg projektów środków dotyczących zarządzania usługami generatywnej AI, w tym uczynienia dostawców odpowiedzialnymi za ważność danych używanych do szkolenia narzędzi generatywnej AI.
CAC powiedział, że dostawcy powinni być odpowiedzialni za ważność danych używanych do szkolenia narzędzi AI i że należy podjąć środki w celu zapobiegania dyskryminacji podczas projektowania algorytmów i zestawów danych szkoleniowych, zgodnie z raportem agencji Reutera. Firmy będą również zobowiązane do przedstawienia rządowi ocen bezpieczeństwa przed uruchomieniem swoich narzędzi AI dla społeczeństwa.
Jeśli nieodpowiednie treści zostaną wygenerowane przez ich platformy, firmy muszą zaktualizować technologię w ciągu trzech miesięcy, aby zapobiec ponownemu generowaniu podobnych treści, zgodnie z projektem zasad. Nieprzestrzeganie zasad spowoduje, że dostawcy zostaną ukarani grzywną, ich usługi zostaną zawieszone lub będą musieli stawić czoła dochodzeniom karnym.
Wszelkie treści generowane przez generatywną AI muszą być zgodne z podstawowymi wartościami socjalistycznymi kraju, powiedział CAC.
Chińskie giganty technologiczne mają AI rozwoju dobrze w toku. Komunikat CAC został wydany w tym samym dniu, w którym Alibaba Cloud ogłosił nowy duży model językowy, zwany Tongyi Qianwen, który będzie rozwijany jako front end w stylu ChatGPT do wszystkich swoich aplikacji biznesowych. W zeszłym miesiącu inny chiński gigant usług internetowych i AI, Baidu, ogłosił chińskojęzyczną alternatywę dla ChatGPT, czyli bota Ernie.
Regulacja AI a innowacje
Podczas gdy chiński rząd określił jasny zestaw wytycznych regulacyjnych, inne rządy na całym świecie przyjmują inne podejście. W marcu 2023 rząd Wielkiej Brytanii powiedział, że w celu „uniknięcia ostrych przepisów, które mogłyby stłumić innowacje”, zdecydował się nie przekazywać odpowiedzialności za zarządzanie AI nowemu pojedynczemu regulatorowi, zamiast tego wzywając istniejących regulatorów do wymyślenia własnych podejść, które najlepiej pasują do sposobu, w jaki AI jest wykorzystywana w ich sektorach.
Podejście to zostało jednak skrytykowane przez niektórych, przy czym eksperci branżowi twierdzili, że istniejące ramy mogą nie być w stanie skutecznie regulować AI ze względu na złożony i wielowarstwowy charakter niektórych narzędzi AI, co oznacza, że nieuniknione będzie łączenie różnych systemów.
Ponadto brytyjski organ regulacyjny ds. danych wydał ostrzeżenie dla firm technologicznych dotyczące ochrony danych osobowych podczas opracowywania i wdrażania modeli AI o dużym zasięgu językowym i generatywnym, a włoski organ regulacyjny ds. prywatności danych zakazał ChatGPT z powodu domniemanych naruszeń prywatności. Grupa 1100 liderów technologicznych i naukowców wezwała również do sześciomiesięcznej przerwy w rozwijaniu systemów potężniejszych niż nowo uruchomiony przez OpenAI ChatGPT-4.
Jeśli chodzi o innowacje technologiczne i regulacje, istnieje pewna naturalna ścieżka, którą zazwyczaj podążają rządy lub ustawodawcy, powiedział Frank Buytendijk, analityk z firmy Gartner.
„Kiedy na rynku pojawia się nowa technologia, uczymy się, jak używać jej w sposób odpowiedzialny, popełniając błędy” – powiedział. „To właśnie tam jesteśmy teraz z AI”. Po tym, powiedział Buytendijk, zaczynają się pojawiać regulacje – pozwalające deweloperom, użytkownikom i systemom prawnym uczyć się o odpowiedzialnym użytkowaniu poprzez interpretację prawa i orzecznictwa – a następnie ostatnia faza, w której technologie mające wbudowane odpowiedzialne użytkowanie. „Uczymy się o odpowiedzialnym użytkowaniu poprzez te wbudowane najlepsze praktyki, więc jest to proces” – powiedział Buytendijk.
Źródło: Computerworld.com
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS