A A+ A++

Sygnatariusze listu proszą programistów pracujących nad sztuczną inteligencją, by ci “natychmiast wstrzymali na co najmniej sześć miesięcy prace nad systemami SI potężniejszymi niż GPT-4”.

SI niebezpieczna dla ludzi?

List otwarty został wydany przez Instytut Przyszłości Życia i podpisany przez ponad tysiąc osób, w tym dyrektora technicznego “SpaceX” Elona Muska. Musk argumentował, że aby kierować przyszłością systemów sztucznej inteligencji protokoły bezpieczeństwa muszą zostać opracowane przez niezależnych nadzorców.

GPT-4 to najnowszy uczący się model, który powstał w amerykańskim laboratorium “OpenAI” (otwarta sztuczna inteligencja). Na stronie firmy czytamy, że ten model “wykazuje wydajność na poziomie człowieka w różnych profesjonalnych i akademickich testach porównawczych”.

W liście otwartym zaś jego autorzy napisali, że “potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania”. Znajdziemy tam również ostrzeżenia, że na tym etapie “nikt nie może zrozumieć, przewidzieć ani niezawodnie kontrolować” nowych potężnych narzędzi opracowanych w laboratoriach sztucznej inteligencji.

Eksperci techniczni, którzy podpisali się pod listem powołują się na ryzyko propagandy i kłamstw rozpowszechnianych za pośrednictwem artykułów generowanych przez sztuczną inteligencję, które wyglądają na prawdziwe. Zdaniem sygnatariuszy istnieje możliwość, że programy SI mogą przewyższyć pracowników i sprawić, że niektóre zawody staną się zbędne.

Protokoły bezpieczeństwa

W liście otwartym czytamy ponadto, że “laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać sugerowaną sześciomiesięczną przerwę, aby wspólnie opracować i wdrożyć zestaw protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji”.

“Równolegle programiści SI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania SI” – głoszą autorzy listu. Sygnatariusze zaznaczają jednak, że ogólnie rozwój sztucznej inteligencji nie powinien być wstrzymywany.

Autorzy listu twierdzą, że apelują “jedynie o wycofanie się z niebezpiecznego wyścigu między coraz większymi, nieprzewidywalnymi modelami, których możliwości stale się zwiększają”.

Komu przeszkadza SI?

Według danych rejestru przejrzystości Unii Europejskiej Instytut Przyszłości Życia jest finansowany głównie przez Fundację Muska, a także przez londyńską grupę Founders Pledge i Fundację Społeczności Doliny Krzemowej.

Musk, właściciel firmy produkującej samochody elektryczne Tesla wykorzystującej sztuczną inteligencję w swoich systemach autopilota, już wcześniej wyrażał obawy dotyczące szybkiego rozwoju sztucznej inteligencji.

ChatGPT, produkt firmy OpenAI wspieranej przez Microsoft, od czasu swojej premiery w zeszłym roku napędza wyścig programistów. Skłania swoich rynkowych konkurentów do przyspieszenia prac nad podobnymi dużymi modelami językowymi, a firmy do wprowadzania sztucznej inteligencji do swoich produktów.

Czytaj też:
Watykan ostrzega: Sztucznej inteligencji nie można powierzać kontroli nad bronią
Czytaj też:
NASK walczy z dezinformacją poprzez manipulację

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułНовое мошенничество при обмене валют разоблачили в Украине
Następny artykuł“Warszawa jest miastem dwóch powstań. To dowodzi, jak silny jest polski imperatyw w dążeniu do wolności”