A A+ A++

Prezydent Biden ma ogłosić nowe zasady wymagające od agencji rządowych pełniejszej oceny narzędzi sztucznej inteligencji, aby zapewnić, że są one bezpieczne i nie ujawniają poufnych informacji. Oczekuje się również, że rząd poluzuje politykę imigracyjną dla pracowników znających się na technologii.

Po tym, jak wcześniejsze wysiłki zmierzające do opanowania sztucznej inteligencji generatywnej (genAI) zostały skrytykowane jako zbyt niejasne i nieskuteczne, administracja Bidena ma teraz ogłosić nowe, bardziej restrykcyjne zasady korzystania z tej technologii przez pracowników federalnych. Rozporządzenie wykonawcze, które ma zostać ujawnione w poniedziałek, zmieniłoby również standardy imigracyjne, aby umożliwić większy napływ pracowników technologicznych, którzy pomogliby przyspieszyć wysiłki USA w zakresie rozwoju. Według The Washington Post, we wtorek wieczorem Biały Dom wysłał zaproszenia na poniedziałkowe wydarzenie “Bezpieczna, pewna i godna zaufania sztuczna inteligencja”, którego gospodarzem będzie prezydent Joseph R. Biden Jr.

Generatywna sztuczna inteligencja, która rozwija się w zawrotnym tempie i wywołuje poważny niepokój wśród ekspertów branżowych, skłoniła Bidena do wydania “wytycznych” w maju ubiegłego roku. Wiceprezydent Kamala Harris spotkała się również z dyrektorami generalnymi Google, Microsoft i OpenAI – twórcą popularnego chatbota ChatGPT – aby omówić potencjalne problemy związane z generatywną sztuczną inteligencją, w tym problemy związane z bezpieczeństwem, prywatnością i kontrolą. Jeszcze przed uruchomieniem ChatGPT w listopadzie 2022 r. administracja przedstawiła plan tak zwanej “AI Bill of Rights”, a także ramy zarządzania ryzykiem związanym ze sztuczną inteligencją. Oczekuje się, że nowe rozporządzenie wykonawcze podniesie krajową obronę cyberbezpieczeństwa, wymagając, aby duże modele językowe (LLM) – podstawa generatywnej sztucznej inteligencji – zostały poddane ocenie, zanim będą mogły zostać wykorzystane przez agencje rządowe USA. Agencje te obejmują Departament Obrony USA, Departament Energii i agencje wywiadowcze.

Zobacz również:

Nowe zasady wzmocnią to, co było dobrowolnym zobowiązaniem 15 firm zajmujących się rozwojem sztucznej inteligencji, aby zrobić wszystko, co w ich mocy, aby zapewnić ocenę systemów genAI, która jest zgodna z odpowiedzialnym użytkowaniem.

“Obawiam się, że nie mamy zbyt dużych osiągnięć w tej dziedzinie; szczegóły można znaleźć na Facebooku” – powiedział Tom Siebel, dyrektor generalny dostawcy aplikacji AI dla przedsiębiorstw C3 AI i założyciel Siebel Systems, publiczności na konferencji MIT EmTech w maju ubiegłego roku. “Chciałbym wierzyć, że samoregulacja zadziała, ale władza deprawuje, a władza absolutna deprawuje absolutnie”.

Podczas gdy genAI oferuje szerokie korzyści dzięki możliwości automatyzacji zadań i tworzenia zaawansowanych odpowiedzi tekstowych, obrazów, wideo, a nawet kodu oprogramowania, technologia ta znana jest również z anomalii znanej jako halucynacje. “Halucynacje zdarzają się, ponieważ LLM nie mają wewnętrznej reprezentacji świata” – powiedział Jonathan Siddharth, dyrektor generalny Turing, firmy z Palo Alto w Kalifornii, która wykorzystuje sztuczną inteligencję do zdalnego wyszukiwania, zatrudniania i wdrażania inżynierów oprogramowania. “Nie zna pojęcia faktów. Przewiduje następne słowo na podstawie tego, co widziała do tej pory – to szacunek statystyczny”. GenAI może również nieoczekiwanie ujawnić dane wrażliwe lub umożliwiające identyfikację jakiejś osoby. Na najbardziej podstawowym poziomie narzędzia te mogą gromadzić i analizować ogromne ilości danych z internetu, korporacji, a nawet źródeł rządowych, aby dokładniej i głębiej oferować treści użytkownikom.

Wadą jest to, że informacje zebrane przez sztuczną inteligencję niekoniecznie są bezpiecznie przechowywane. Aplikacje i sieci AI mogą sprawić, że te wrażliwe informacje będą podatne na wykorzystanie przez osoby trzecie. Na przykład smartfony i autonomiczne samochody śledzą lokalizację użytkowników i ich nawyki związane z jazdą. Podczas gdy oprogramowanie śledzące ma pomóc technologii lepiej zrozumieć nawyki, aby skuteczniej służyć użytkownikom, gromadzi ono również dane osobowe jako część dużych zbiorów danych, wykorzystywanych do szkolenia modeli sztucznej inteligencji.

Według Adnana Masooda, głównego architekta AI w firmie UST, zajmującej się usługami transformacji cyfrowej, dla firm rozwijających sztuczną inteligencję zarządzenie wykonawcze może wymagać zmiany podejścia do ich praktyk. Nowe zasady mogą również początkowo zwiększyć koszty operacyjne. “Jednak dostosowanie się do standardów krajowych może również usprawnić federalne procesy zamówień na ich produkty i zwiększyć zaufanie wśród konsumentów prywatnych” – powiedział Masood. “Ostatecznie, chociaż regulacja jest niezbędna do złagodzenia zagrożeń związanych ze sztuczną inteligencją, musi być delikatnie zrównoważona z utrzymaniem środowiska sprzyjającego innowacjom. “Jeśli zbytnio przechylimy szalę w kierunku restrykcyjnego nadzoru, szczególnie w zakresie badań, rozwoju i inicjatyw typu open source, ryzykujemy stłumienie innowacji i ustąpienie miejsca łagodniejszym jurysdykcjom na całym świecie” – kontynuował Masood.

“Kluczem jest stworzenie przepisów, które chronią interesy publiczne i krajowe, a jednocześnie napędzają kreatywność i postęp w sektorze sztucznej inteligencji”. Masood powiedział, że nadchodzące regulacje Białego Domu były “długo oczekiwane i jest to dobry krok [w] krytycznym momencie w podejściu rządu USA do wykorzystania i powstrzymania technologii AI. “Mam zastrzeżenia co do rozszerzenia zasięgu regulacji na sferę badań i rozwoju” – powiedział Masood. “Charakter badań nad sztuczną inteligencją wymaga poziomu otwartości i zbiorowej kontroli, które mogą zostać stłumione przez nadmierne regulacje. W szczególności sprzeciwiam się wszelkim ograniczeniom, które mogłyby utrudnić inicjatywy AI typu open source, które były siłą napędową większości innowacji w tej dziedzinie. Te platformy współpracy pozwalają na szybką identyfikację i naprawę błędów w modelach sztucznej inteligencji, wzmacniając ich niezawodność i bezpieczeństwo”.

GenAI jest również podatna na wbudowane uprzedzenia, takie jak wspomagane przez sztuczną inteligencję aplikacje rekrutacyjne, które mają tendencję do wybierania mężczyzn zamiast kobiet lub białych kandydatów zamiast mniejszości. A ponieważ narzędzia genAI stają się coraz lepsze w naśladowaniu języka naturalnego, obrazów i wideo, wkrótce niemożliwe będzie odróżnienie fałszywych wyników od prawdziwych; to skłania firmy do ustanowienia “barier ochronnych” przed najgorszymi wynikami, niezależnie od tego, czy są to przypadkowe, czy celowe wysiłki złych aktorów.

Wysiłki USA, mające na celu opanowanie sztucznej inteligencji, były następstwem podobnych wysiłków podejmowanych przez kraje europejskie w celu zapewnienia, że technologia nie generuje treści naruszających prawo UE; może to obejmować pornografię dziecięcą lub, w niektórych krajach UE, zaprzeczanie Holokaustowi. Włochy wprost zakazały dalszego rozwoju ChatGPT z powodu obaw o prywatność po tym, jak aplikacja do przetwarzania języka naturalnego doświadczyła naruszenia danych obejmującego rozmowy użytkowników i informacje o płatnościach.

“Ustawa o sztucznej inteligencji” (AI Act) Unii Europejskiej była pierwszą tego rodzaju ustawą wprowadzoną przez zachodnie kraje. Proponowane przepisy w dużej mierze opierają się na istniejących zasadach, takich jak ogólne rozporządzenie o ochronie danych (RODO), ustawa o usługach cyfrowych i ustawa o rynkach cyfrowych. Ustawa o sztucznej inteligencji została pierwotnie zaproponowana przez Komisję Europejską w kwietniu 2021 roku. Poszczególne państwa rozważają wprowadzenie własnych ograniczeń dotyczących wykorzystywania botów opartych na sztucznej inteligencji do wyszukiwania, sprawdzania, przeprowadzania rozmów kwalifikacyjnych i zatrudniania kandydatów do pracy ze względu na kwestie prywatności i uprzedzeń.

W USA Niektóre stany wprowadziły już odpowiednie przepisy. Oczekuje się również, że Biały Dom oprze się na Narodowym Instytucie Standardów i Technologii w celu zaostrzenia wytycznych branżowych dotyczących testowania i oceny systemów sztucznej inteligencji – przepisów, które opierałyby się na dobrowolnych zobowiązaniach dotyczących bezpieczeństwa, ochrony i zaufania, które administracja Bidena wydobyła w tym roku od 15 głównych firm technologicznych w zakresie sztucznej inteligencji. Posunięcie Bidena jest szczególnie ważne, ponieważ genAI przeżywa ciągły boom, prowadząc do bezprecedensowych możliwości tworzenia treści, deepfake’ów i potencjalnie nowych form cyberzagrożeń, powiedział Masood. “Ten krajobraz wyraźnie pokazuje, że rolą rządu jest nie tylko regulowanie, ale także ułatwianie i konsumowanie technologii AI” – dodał. “Nakazując federalne oceny sztucznej inteligencji i podkreślając jej rolę w cyberbezpieczeństwie, rząd USA uznaje podwójną naturę sztucznej inteligencji zarówno jako strategicznego zasobu, jak i potencjalnego ryzyka”. Masood powiedział, że jest zagorzałym zwolennikiem zniuansowanego podejścia do regulacji AI, ponieważ nadzorowanie wdrażania produktów AI jest niezbędne, aby zapewnić, że spełniają one standardy bezpieczeństwa i etyki. “Na przykład zaawansowane modele sztucznej inteligencji wykorzystywane w opiece zdrowotnej lub pojazdach autonomicznych muszą przejść rygorystyczne testy i kontrole zgodności w celu ochrony interesu publicznego” – powiedział.

Artykuł pochodzi z Computerworld.com

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułGKS Jastrzębie tuż nad strefą spadkową
Następny artykułKoncert zespołu Zakazik