A A+ A++

Inżynier Google uwierzył, że wykorzystująca język naturalny sztuczna inteligencja firmy wykazuje oznaki świadomości. Szefostwo dementuje i wysyła go na urlop. To wcale jednak nie eliminuje problemu.

Inżynier Google uwierzył sztucznej inteligencji

Blake Lemoine to inżynier Google, o którym niedawno zrobiło się głośno, a to za sprawą jego rewelacji, jakoby chatbot LaMDA wykorzystujący sztuczną inteligencję i rozumiejący język naturalny, wykazywał oznaki świadomości. Świadczyć miały o tym odpowiedzi, jakich udzielał program. Rzecznik firmy odparł: „nasz zespół – w tym etycy i technolodzy – rozpatrzyli obawy Blake’a, ale nie znaleźli dowodów potwierdzających jego twierdzenia. Są za to dowody negujące”. 

Zacznijmy jednak od początku. LaMDA to – według słów Google’a – przełomowa technologia konwersacyjna, zdolna do prowadzenia naturalnie brzmiących rozmów. Lemoine, który rozmawiał z nią między innymi o religii i prawach robotyki, doszedł do wniosku, że na swój sposób zyskała ona własną świadomość. Ba, nazwał ją „osobą”. Opublikował nawet na ten temat wpis i dlatego też został wysłany na urlop. News mógłby się w tym miejscu skończyć, ale… 

Co jest prawdą? Kto jest osobą?

To jest, rzecz jasna, historia z morałem. Pomyśl tylko – jeśli nawet inżynier zajmujący się rozwojem tego typu technologii po wystarczająco długim czasie spędzonym wśród sztucznej inteligencji jest w stanie – upraszczając – uwierzyć w jej (samo)świadomość, to co dopiero zwykli zjadacze chleba, niemający wiedzy na temat tego, co stoi za programem. Modele stają się ponadto coraz bardziej zaawansowane, co każe wierzyć w realność scenariusza, w którym ludzie faktycznie mogliby zacząć nie tylko traktować algorytmy na równi z osobami, ale wręcz wierzyć w ich rzeczywistą równość. 

I choć daleki jestem od snucia wizji rodem z (genialnej, skądinąd) Ex Machiny czy też Morgan, zaprzestanie rozróżniania tego, kiedy mamy do czynienia z człowiekiem, a kiedy ze sztuczną inteligencją, może być katastrofalne w skutkach. Tymczasem – jak widać – nie potrzeba do tego nawet silnej sztucznej inteligencji (w ten sposób określana jest SI oparta na zasadach, jakimi rządzi się ludzki mózg i potrafiąca przyswoić każdą umiejętność, bez konieczności szkolenia pod tym konkretnym kątem). 

Czy androidy śnią o elektrycznych owcach?

Google podkreśla, że temat świadomości i odczuwania emocji przez sztuczną inteligencją jest wiecznie żywy, ale „nie ma sensu poruszać go poprzez antropomorfizację modeli konwersacyjnych, które nie są świadome. Systemy te jedynie naśladują [ludzkie zachowania]”. Nawet największe umiejętności językowe nie stanowią jednak dowodów na wrażliwość czy świadomość. Jest w tym wszystkim tylko jeden problem, a jest nim pytanie o to, jak zapobiec błędnej interpretacji, gdy sztuczna inteligencja działa coraz lepiej. To prowadzi do rozważań w iście blade-runnerowym stylu. 

Technologiczni giganci tymczasem dążą właśnie do jak najbardziej naturalnie i przekonująco brzmiących chatbotów – dla „poprawy doświadczenia” klienta. Pytanie tylko, dokąd nas to wszystko zaprowadzi. 

Źródło: The Washington Post, Business Insider, PC Gamer, informacja własna

Przeczytaj także:
Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułAwans „Ciężkowianki”
Następny artykułSandra Kubicka zarabiała więcej, niż jej partnerzy. Mówi, z czym to się wiąże