Eksperci z branży IT napisali list otwarty do społeczeństwa, w którym nalegają na wstrzymanie prac nad rozwojem modeli językowych AI. W USA organizacja pozarządowa prosi o przyjrzenie się GPT-4 w kwestiach prawnych.
Źródło fot. CC BY 2.0 | Daniel Oberhaus (2018).
i
Dynamiczny rozwój sztucznej inteligencji sprawił, że niektórzy zaczynają mieć obawy o skutki, jakie może on przynieść. Pod otwartym listem nawołującym do spowolnienia prac nad AI podpisali się eksperci z branży.
Elon Musk chce wstrzymania rozwoju AI
1123 osoby z branży technologicznej podpisały się w liście otwartym, w którym wzywają do wstrzymania rozwoju systemów AI na okres co najmniej sześciu miesięcy. Oczekują w nim dobrowolnego zaprzestania prac nad bardziej zaawansowanymi systemami niż GPT-4 w celu przygotowania odpowiednich regulacji prawnych oraz metod kontroli tego typu produktów.
Potężne systemy AI powinny być rozwijane wyłącznie jeśli będziemy pewni ich pozytywnego oddziaływania. Natomiast ryzyko będzie możliwe do opanowania. – napisano w liście.
Wśród zagrożeń wyróżnia się zabieranie miejsc pracy oraz szerzenie dezinformacji przez AI. Elon Musk i Steve Wozniak, wraz z pracownikami firm takich jak Qualcomm, Apple czy Google oczekują reakcji rządów w przypadku braku społecznej współpracy.
GPT-4 łamie prawo w USA
To nie jest jedyny tego typu apel. Organizacja pozarządowa Center for Artificial Intelligence and Digital Policy napisała pismo skierowane do amerykańskiej Federalnej Komisji Handlu, by ta przyjrzała się rozwojowi systemów takich jak GPT-4. Ten model stosowany w ChatGPT został określony jako stronniczy i zwodniczy produkt będący zagrożeniem dla prywatności i bezpieczeństwa publicznego, który powinien zostać poddany niezależnej ekspertyzie przez amerykański urząd.
Potężne narzędzie jest na wyciągnięcie ręki. Źródło: Unsplash | Emiliano Vittoriosi.
CAIDP oczekuje „niezależnego nadzoru i oceny komercyjnych produktów AI oferowanych w Stanach Zjednoczonych”. Według jej osądu modele AI nie są typowymi rzeczami przeznaczonymi dla konsumentów, które zostały odpowiednio zidentyfikowane. Wydano również osąd, iż GPT-4 nie spełnia norm prawnych FTC. Ponadto OpenAI będące twórcą miało nie ujawnić wystarczająco dużo szczegółów odnośnie technicznej strony swojego narzędzia.
Sprawa jest o tyle ciekawa, że samo FTC wcześniej opublikowało artykuł ostrzegający twórców modeli AI przed spowodowaniem problemów u użytkowników. Powodem miały być zagrożenia związane z używaniem narzędzi automatyzujących różne zadania. Podobnie postąpił Europol, który przedstawia modele językowe jako rzecz mogąca służyć cyberprzestępcom do dokonywania oszustw i siania nieprawdziwych informacji.
W obliczu tylu kontrowersji sprawa może słusznie budzić niepokój. Warto się przy tym zastanowić, czy modele językowe AI nie rozwijają się zbyt szybko. Swoim zdaniem można podzielić się w komentarzach.
- Strona internetowa CAIDP
- Strona internetowa FTC
Może Cię zainteresować:
Zapraszamy Was na nasz nowy kanał na YouTube – tvtech, który jest poświęcony zagadnieniom związanym z nowymi technologiami. Znajdziecie tam liczne porady dotyczące problemów z komputerami, konsolami, smartfonami i sprzętem dla graczy.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS