A A+ A++

W Acta Astronautica ukazał się interesujący artykuł, którego autor – Michael A. Garrett, dyrektor Jodrell Bank Centre for Astrophysics na University of Manchester – zastanawia się czy to nie sztuczna inteligencja jest przyczyną, dla której nie odkryliśmy dotychczas sygnałów wysłanych przez obcą cywilizację. Uczony zastanawia się, czy SI nie jest wąskim gardłem rozwoju, które w rzeczywistości zagraża długoterminowemu przetrwaniu cywilizacji technicznej.

Garrett bada hipotezę, że szybki rozwój sztucznej inteligencji (AI), którego kulminacją jest pojawienie się sztucznej superinteligencji (ASI – artificial superintelligence), działa jak „Wielki Filtr”, który jest odpowiedzialny za niewielką liczbę zaawansowanych cywilizacji technologicznych we wszechświecie. Taki filtr mógłby pojawiać się, zanim cywilizacje rozwiną stabilną obecność na kolejnych planetach, co sugeruje, że typowy czas życia cywilizacji technicznej wynosi mniej niż 200 lat.

Koncepcja „Wielkiego Filtra” jest próbą rozwiązania Paradoksu Fermiego. Został on sformułowany przez Enrico Fermiego, a dotyczy rzucającej się w oczy sprzeczności pomiędzy wiekiem wszechświata i liczbą gwiazd, a faktem, że dotychczas nie wykryliśmy żadnych dowodów na istnienie innej cywilizacji. Dotychczas zaproponowano kilka „Wielkich Filtrów”, uniwersalnych barier mających uniemożliwiać rozprzestrzenianie się inteligentnego życia we wszechświecie, a od niedawna pojawiają się koncepcje mówiące, że filtrem takim może być SI.

Uczony z Manchesteru przychyla się do opinii, że „Wielkim Filtrem” może być rozwój sztucznej inteligencji. Przypomina, że najnowsze dokonania w dziedzinie SI pozwalają maszynom na uczenie się, dostosowywanie i wykonywanie zadań, które do niedawna uważano za wyłączną ludzką domenę. Sztuczna inteligencja jest w coraz większym stopniu włączana w nasze codzienne życie, wpływa na kształt interakcji międzyludzkich, sposobów współpracy, interakcji z technologią oraz na postrzeganie świata. Zmienia sposoby komunikacji i doświadczenia osobiste. Ma wpływ na handel, opiekę zdrowotną, pojazdy autonomiczne, prognozy gospodarcze, badania naukowe, prace badawczo-rozwojowe, edukację, przemysł, politykę, bezpieczeństwo i obronę. Trudno jest znaleźć dziedzinę życia, która nie byłaby już naznaczona obecnością sztucznej inteligencji, stwierdza Garrett.

W związku z rozwojem SI pojawiają się kolejne obawy wiązane z miejscami pracy, prywatnością danych, etycznym podejmowaniem decyzji czy odpowiedzialnością za nie. Sztuczna inteligencja ma też wpływ na środowisko naturalne, chociażby poprzez olbrzymie moce obliczeniowe, jakich potrzebuje i związane z tym zużycie energii.

W 2014 roku Stephen Hawking ostrzegał, że AI może doprowadzić do zagłady ludzkości. Uważał, że w pewnym momencie może ona zacząć rozwijać się samodzielni, w coraz szybszym tempie. Obecnie coraz częściej pojawiają się głosy o konieczności opracowania metod lepszej kontroli nad AI czy też propozycje wprowadzenia moratorium na jej używanie, dopóki takie metody kontroli nie powstaną.

Z jednej strony rządy wielu państw próbują znaleźć równowagę pomiędzy korzyściami, jakie daje rozwój sztucznej inteligencji, a potencjalnymi zagrożeniami. Z drugiej zaś zdają sobie sprawę, że szybkie wdrażanie i rozwój AI daje przewagę nad innymi państwami, a ponadto może zabezpieczać przed ryzykiem stwarzanym przez państwa z rozwiniętą sztuczną inteligencją. Szczególnie dotyczy to kwestii bezpieczeństwa narodowego i obrony.

Sztuczna inteligencja rozwija się błyskawicznie w porównaniu z naturalnym tempem ewolucji, tymczasem nic w naszej historii nie przygotowało nas na pojawienie się innej wysoko rozwiniętej inteligencji. I można przypuszczać, że uwagi te dotyczą każdej cywilizacji, która mogła powstać we wszechświecie. Zanim jeszcze AI stanie się superinteligentna i potencjalnie autonomiczna, prawdopodobnie zostanie uzbrojona przez konkurujące ze sobą grupy w ramach jednej cywilizacji biologicznej. Szybkość podejmowania decyzji przez sztuczną inteligencję może prowadzić do niezamierzonej eskalacji konfliktów […], które przyniosą zagładę zarówno technologicznej, jak i biologicznej cywilizacji, stwierdza Garrett.

Uczony dodaje, że o ile AI może wymagać do istnienia wsparcia ze strony cywilizacji biologicznej, to ASI nie będzie tego potrzebowała. Punktem zwrotnym będzie osiągnięcie osobliwości technologicznej, punktu, w którym rozwój SI stanie się tak szybki, że przewyższy naszą inteligencję i będzie ewoluował w takim tempie, iż wszelkie nasze prognozy na ten temat staną się nieaktualne. To może doprowadzić do nieprzewidzianych konsekwencji, które prawdopodobnie nie będą miały nic wspólnego z naszymi biologicznymi interesami czy ludzką etyką. Z punktu widzenia ASI, skupionej na osiągnięciu jak największej wydajności obliczeniowej, zniknie potrzeba istnienia istot biologicznych, których obecność związana jest ze zużyciem przestrzeni i energii. Nasze istnienie będzie czymś kłopotliwym, czytamy w Acta Astronautica.

Ryzyko zaistnienia takiej sytuacji można by zmniejszyć, kolonizując inne planety. Jeśli bowiem ASI doprowadziłaby do zagłady na jednej planecie, mieszkańcy innych ciał niebieskich mieliby szansę nie powtórzyć tych samych błędów. Co więcej, kolonizacja innych planet stwarzałaby możliwość prowadzenia eksperymentów z różnymi drogami rozwoju sztucznej inteligencji, bez ryzyka, że cała ludzkość wyginie.

Jednak, mimo takiego możliwego scenariusza, nie wykrywamy obcych cywilizacji, co może sugerować, że ich nie ma lub nie osiągają poziomu rozwoju pozwalającego na ich wykrycie. Przyczyną – i to właśnie z tego powodu rozwój AI może być „Wielkim Filtrem” – jest tempo rozwoju sztucznej inteligencji w porównaniu z tempem rozwoju technologicznego, pozwalającego na dotarcie i trwałe zasiedlenie innych planet. Zdaniem niektórych badaczy, sztuczna inteligencja może osiągnąć punkt osobliwości technologicznej w ciągu kilku najbliższych dekad. Tymczasem zasiedlenie innych planet to zadanie na setki lat. Przyczyną takiego stanu rzeczy jest różna natura rozwoju sztucznej inteligencji i możliwości podróży w przestrzeni kosmicznej. O ile rozwój SI to głównie wyzwanie obliczeniowe i informatyczne, które jest napędzane przez wykładniczy wzrost ilości danych oraz możliwości obliczeniowych, to eksploracja kosmosu wiąże się z licznymi ograniczeniami fizycznymi, takimi jak znalezienie odpowiednich źródeł energii, stworzenie napędów, nowych materiałów, poradzenie sobie z warunkami panującymi w przestrzeni kosmicznej itp. itd. Do tego dochodzą kwestie medyczne, biologiczne, logistyczne czy polityczne. A więc wszystkie te ograniczenia, które nie istnieją w przypadku rozwoju sztucznej inteligencji.

Swoje hipotezy Garrett przetestował korzystając z równania Drake’a, które jest próbą zrozumienia mechanizmów wpływających na szanse powstania cywilizacji w Drodze Mlecznej. Okazało się, że jeśli rzeczywiście negatywne strony rozwoju sztucznej inteligencji ujawniają się zanim cywilizacja osiągnie zdolność do kolonizacji innych planet, to czas istnienia cywilizacji zdolnej do komunikowania się z innymi wynosi 100–200 lat.

To wyjaśniałoby, dlaczego dotychczas nie mamy żadnych dowodów na istnienie innych cywilizacji. Warto tutaj przypomnieć, że cywilizacją zdolną do komunikowania się z innymi, staliśmy się w latach 60. ubiegłego wieku. Okienko czasowe, w którym cywilizacja techniczna jest w stanie angażować się w możliwą do wykrycia komunikację radiową, jest więc niezwykle ograniczone. Dodatkowo, jeśli weźmiemy pod uwagę sygnaturę radiową ludzkiej cywilizacji – czyli wszelką transmisję odbywającą się na Ziemi, która może zostać potencjalnie zauważona i rozpoznana przez obce cywilizacje – to do jej wykrycia potrzebny jest znacznie wyższy poziom zaawansowania technologicznego niż nasze. Możliwe jest, oczywiście, zarejestrowanie silnych sygnałów celowo wysyłanych w przestrzeń kosmiczną. Jeśli jednak w danym momencie w Drodze Mlecznej istnieje zaledwie kilka cywilizacji prowadzących takie działania, to szansa na znalezienie tego typu sygnału jest minimalna.

Zauważmy, że post-biologiczna cywilizacja techniczna byłaby bardzo dobrze dostosowana do eksploracji kosmosu i mogłaby rozprzestrzenić się po naszej Galaktyce, nie zwracając uwagi na długi czas podróży czy niekorzystne warunki panujące w kosmosie. Wielu przewiduje, że jeśli w ogóle natkniemy się na pozaziemską inteligencję, będzie miała ona formę maszyn. […] Brak wykrywalnych sygnałów istnienia cywilizacji typu II czy III w skali Kardaszowa wskazuje, że cywilizacje takie są niezwykle rzadkie lub nie istnieją, a to wzmacnia hipotezę o istnieniu „Wielkiego Filtra” zatrzymującego postęp cywilizacji technicznej w ciągu kilku wieków od jej pojawienia się, podsumowuje Garrett.

Sztuczna inteligencja Wielkim Filtrem? To z jej powodu nie możemy wykryć obcych cywilizacji?

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułPrzez oko Tower Bridge
Następny artykułCzy mikroplastik zagraża uprawom zbóż?