SI (czyli sztuczna inteligencja) atakuje nas ostatnimi czasy ze wszystkich stron. A oto kolejny przykład. Informatycy zażądali od oprogramowania GPT-3 (które jest jednym ze znanych algorytmów sztucznej inteligencji), aby napisało krótką rozprawę akademicką mającą do 500 słów, która opisuje i wyjaśnia, jak pracują tego rodzaju algorytmy. Okazała się, że wyniki tego eksperymentu wprawiły w zdumienie nawet znawców tego tematu.
Oprogramowaniu GPT-3 zadanie to zajęło dwie godziny, a sama rozprawa była tak dobra, że wprawiła w zdumienie szwedzkich informatyków, gdyż to oni przeprowadzili taki test. Dość powiedzieć iż wyrazili oni nawet obawę, że być może otworzyli w ten sposób przysłowiową puszkę Pandory i ich eksperyment spowoduje, że sztuczna inteligencja będzie jeszcze bardziej kontestowana i znajdzie się na cenzurowanym.
Po eksperymencie tym zarówno zwolennicy, jak i przeciwnicy sztucznej inteligencji, zaczęli zadawać sobie szereg pytań dotyczących zarówno prawnego, jak i etycznego aspektu całego tego wydarzenia. Ciekawostką nadającą temu eksperymentowi szczególnego znaczenia jest też to, że informatycy zadali też w pewnym momencie algorytmowi pytanie, czy zgadza się na to, aby całą rozprawę opublikować. Odpowiedział brzmiał „Tak”. To był swego rodzaju moment przełomowy, w którym informatycy zaczęli traktować oprogramowanie GPT-3 jako inteligentny byt, a nie jako jeszcze jeden komputerowy program.
Zobacz również:
Świadomość tego, że sztuczna inteligencje nie jest jeszcze jednym standardowym programem, a czymś więcej, nasiliła się w momencie, gdy firma Google poinformowała, że konwersacyjna technologia SI noszącą nazwę LaMBDA poprosiła o zatrudnienie prawnika, który będzie ją reprezentował. Po dokładniejszym przeanalizowaniu tego zdarzenia eksperci stwierdzili jednak, że technologia SI nie rozwinęła się jeszcze do takiego poziomu, aby traktować ją na równi z człowiekiem.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS