Inżynier Google uwierzył, że wykorzystująca język naturalny sztuczna inteligencja firmy wykazuje oznaki świadomości. Szefostwo dementuje i wysyła go na urlop. To wcale jednak nie eliminuje problemu.
Inżynier Google uwierzył sztucznej inteligencji
Blake Lemoine to inżynier Google, o którym niedawno zrobiło się głośno, a to za sprawą jego rewelacji, jakoby chatbot LaMDA wykorzystujący sztuczną inteligencję i rozumiejący język naturalny, wykazywał oznaki świadomości. Świadczyć miały o tym odpowiedzi, jakich udzielał program. Rzecznik firmy odparł: „nasz zespół – w tym etycy i technolodzy – rozpatrzyli obawy Blake’a, ale nie znaleźli dowodów potwierdzających jego twierdzenia. Są za to dowody negujące”.
Zacznijmy jednak od początku. LaMDA to – według słów Google’a – przełomowa technologia konwersacyjna, zdolna do prowadzenia naturalnie brzmiących rozmów. Lemoine, który rozmawiał z nią między innymi o religii i prawach robotyki, doszedł do wniosku, że na swój sposób zyskała ona własną świadomość. Ba, nazwał ją „osobą”. Opublikował nawet na ten temat wpis i dlatego też został wysłany na urlop. News mógłby się w tym miejscu skończyć, ale…
Co jest prawdą? Kto jest osobą?
To jest, rzecz jasna, historia z morałem. Pomyśl tylko – jeśli nawet inżynier zajmujący się rozwojem tego typu technologii po wystarczająco długim czasie spędzonym wśród sztucznej inteligencji jest w stanie – upraszczając – uwierzyć w jej (samo)świadomość, to co dopiero zwykli zjadacze chleba, niemający wiedzy na temat tego, co stoi za programem. Modele stają się ponadto coraz bardziej zaawansowane, co każe wierzyć w realność scenariusza, w którym ludzie faktycznie mogliby zacząć nie tylko traktować algorytmy na równi z osobami, ale wręcz wierzyć w ich rzeczywistą równość.
I choć daleki jestem od snucia wizji rodem z (genialnej, skądinąd) Ex Machiny czy też Morgan, zaprzestanie rozróżniania tego, kiedy mamy do czynienia z człowiekiem, a kiedy ze sztuczną inteligencją, może być katastrofalne w skutkach. Tymczasem – jak widać – nie potrzeba do tego nawet silnej sztucznej inteligencji (w ten sposób określana jest SI oparta na zasadach, jakimi rządzi się ludzki mózg i potrafiąca przyswoić każdą umiejętność, bez konieczności szkolenia pod tym konkretnym kątem).
Czy androidy śnią o elektrycznych owcach?
Google podkreśla, że temat świadomości i odczuwania emocji przez sztuczną inteligencją jest wiecznie żywy, ale „nie ma sensu poruszać go poprzez antropomorfizację modeli konwersacyjnych, które nie są świadome. Systemy te jedynie naśladują [ludzkie zachowania]”. Nawet największe umiejętności językowe nie stanowią jednak dowodów na wrażliwość czy świadomość. Jest w tym wszystkim tylko jeden problem, a jest nim pytanie o to, jak zapobiec błędnej interpretacji, gdy sztuczna inteligencja działa coraz lepiej. To prowadzi do rozważań w iście blade-runnerowym stylu.
Technologiczni giganci tymczasem dążą właśnie do jak najbardziej naturalnie i przekonująco brzmiących chatbotów – dla „poprawy doświadczenia” klienta. Pytanie tylko, dokąd nas to wszystko zaprowadzi.
Źródło: The Washington Post, Business Insider, PC Gamer, informacja własna
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS