A A+ A++

Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych – powiedział szef OpenAI podczas spotkania na Uniwersytecie Warszawskim.

Szef OpenAI, twórca ChatGPT: Sztuczna inteligencja też może być wykorzystana w zły sposób
fot. ELIZABETH FRANTZ / /  Reuters / Forum

Szef OpenAI – Sam Altman, Wojciech Zaręba – współzałożyciel firmy Open AI, oraz Szymon Sidor – naukowiec, wybrali się w podróż po świecie, by – jak sami zrelacjonowali – porozmawiać z użytkownikami, programistami i przedstawicielami instytucji rządowych o możliwościach i zagrożeniach wynikających z rozwoju sztucznej inteligencji (SI). Stworzone przez nich narzędzie – ChatGPT4, zyskało ogromną popularność na całym świecie i stało się przedmiotem poważnych debat.

Spotkanie na Uniwersytecie Warszawskim obyło się w ramach inicjatywy IDEAS NCBiR. Prowadząca spotkanie dziennikarka zapytała, czy twórcy ChatGPT nie żałują, że udostępnili narzędzie szerokiemu gronu odbiorców zbyt szybko, jeszcze przed wprowadzeniem jakichkolwiek regulacji szykowanych, np. przez Unię Europejską.

„Częściej spotykaliśmy się z zarzutem, że działamy zbyt wolno; że zbyt długo – bo aż 8 miesięcy trzymamy ChatGPT w laboratorium. Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych. Ten proces uczenia się musi odbywać się w ścisłej współpracy ze społeczeństwem” – powiedział szef OpenAI Sam Altman.

Podkreślił też, że „jak każda znacząca dla rozwoju ludzkości technologia, SI też może być wykorzystana w zły sposób”. Jako przykład podał energię atomową.

„Na całym świecie musimy pochylić się nad szukaniem rozwiązań, żeby się zabezpieczyć. Może SI nie będzie aż tak niebezpieczna jak energia atomowa, która wpadnie w niepowołane ręce, ale dopóki nie poznamy jej bliżej, powinniśmy się zachowywać tak, jakby była podobnie niebezpieczna” – przestrzegał Altman.

Zapytany, czy nie boi się, że stworzone przez firmę OpenAI rozwiązanie oparte na sztucznej inteligencji może zagrażać demokracji przez szerzenie dezinformacji podczas kampanii wyborczych w różnych krajach, przytaknął.

„Obawiamy się. Jedną z rzeczy, którą staramy się robić podczas naszej podróży po świecie, są rozmowy z ludźmi, którzy tworzą regulacje prawne. Potrzebny jest system monitorowania firm takich jak nasza, by użytkownicy wiedzieli, że rozmawia z nimi sztuczna inteligencja, a nie człowiek” – zaznaczył. Dodał, że jednocześnie część pracy zawsze będzie w tzw. otwartym dostępie (open access) i „tego nie da się zatrzymać”, więc „trzeba pomyśleć o adaptacji społeczeństw do tego stanu rzeczy”.

Na pytanie publiczności: „skąd czerpiecie wiedzę na temat – co jest etyczne w obszarze sztucznej inteligencji?” – Altman, Zaręba i Sidor nie potrafili odpowiedzieć żadnym konkretem.

„Chcemy, żeby jakość życia ludzi na świecie zmieniała się na lepsze. Robimy też wszystko, by rozwiązywać problemy związane z bezpieczeństwem, dlatego rozmawiamy z wieloma instytucjami” – powiedział Altman.

Autorka: Urszula Kaczorowska

Źródło:PAP
Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułNiwa zdobyła Trzebinię po raz pierwszy w historii (WIDEO, ZDJĘCIA)
Następny artykułDolphin Emulator znika ze Steama tuż przed swoją premierą. Wszystkiemu jak zwykle winne… Nintendo