A A+ A++

Nie ustają dyskusje dotyczące regulacji obecnych i przyszłych modeli sztucznej inteligencji. Do problemu można podejść z wielu różnych perspektyw, co okazało się przy ostatnich problemach zgodności ChatGPT z unijnymi regulacjami dotyczącymi ochrony danych osobowych, czyli RODO. Oczekuje się jednak, że wkrótce regulatorzy wystąpią z propozycjami kompleksowych rozwiązań zaprojektowanych od początku z myślą o sztucznej inteligencji.

Liderzy projektu OpenAI – czyli Sam Altman, Greg Brockman i Ilya Sutskever – w ostatniej notce na blogu przedsiębiorstwa odnieśli się do tego, w jaki sposób można zaprojektować przyszłą strukturę nadzoru nad rozwojem sztucznej inteligencji. Skorzystali przy tym z dobrze znanego wzorca, czyli zarządzania niebezpieczeństwem związanym z atomową energią.

Kierownictwo OpenAI proponuje powołać organ regulacyjny dotyczący AI na wzór Międzynarodowej Agencji Energii Atomowej [1]

Google DeepMind będzie rywalizować z OpenAI. Google tworzy jednostkę badawczą, aby przyspieszyć rozwój sztucznej inteligencji

Najważniejsze osoby w OpenAI odniosły się we wpisie do Międzynarodowej Agencji Energii Atomowej, czyli wyspecjalizowanej struktury Organizacji Narodów Zjednoczonych utworzonej w roku 1957. W ten sposób organ nadzorczy nad rozwojem AI miałby szerokie uprawnienia, jednocześnie pozostając w ramach międzynarodowego dialogu. Można byłoby również liczyć na precyzyjne regulacje i audyty, jak to ma miejsce obecnie w przypadku energii atomowej. W pewnym sensie to porównanie ma sens z uwagi na poczucie zagrożenia, jakie wywołuje sztuczna inteligencja (choć niewątpliwie mniejsza niż niepokój atomowy po II wojnie światowej). Z drugiej strony – AI w przeciwieństwie do energii atomowej pozostaje raczej domeną prywatnych przedsiębiorstw i wolnego rynku niż skoordynowanych działań państwowych (trudno bowiem wyobrazić sobie prywatną elektrownię atomową lub broń produkowaną komercyjnie). 

Kierownictwo OpenAI proponuje powołać organ regulacyjny dotyczący AI na wzór Międzynarodowej Agencji Energii Atomowej [2]

ChatGPT vs RODO. Kolejny urząd ochrony danych osobowych w Europie przygląda się sztucznej inteligencji OpenAI

Kolejną problematyczną kwestią w kontekście takiego międzynarodowego organu pozostaje tempo reakcji. Agencje ONZ nie są znane ze szczególnie szybkiego trybu procedowania spraw, podczas gdy AI rozwija się w błyskawicznym tempie. Trzeba jednak zwrócić uwagę, że to kolejny głos z branży wzywający do stworzenia regulacji. Jak zauważają sami przedsiębiorcy, rynek samodzielnie nie stworzy spójnych zasad, które pozwolą w sposób odpowiedzialny kontynuować i rozwijać działalność polegającą na opracowywaniu kolejnych modeli sztucznej inteligencji – szczególnie tych stworzonych do codziennych interakcji z użytkownikami i innymi urządzeniami operującymi w codziennym życiu.

Źródło: TechCrunch

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułDiamenty PLS: Tomasz Fornal siatkarzem sezonu 2022/2023!
Następny artykułBachanalia na półmetku? Co w środę? [PROGRAM]