Jak daleko zajdzie sztuczna inteligencja w bliższej lub dalszej przyszłości? Czy powinniśmy się martwić potencjalnymi zagrożeniami związanymi z tą technologią, czy też eksperci znajdą sposób na skuteczne jej kontrolowanie? Czy sztuczna inteligencja może być świadoma swojego istnienia?
W ostatnich latach w Internecie pełno jest takich nagłówków jak: Sieć neuronowa nauczyła się rysować portrety! Sieć neuronowa nauczyła się wymyślać żarty primaaprilisowe! Sieci neuronowe biją ludzi w go, szachach i StarCrafcie! Sieć neuronowa nauczyła się pisać muzykę! Patrząc na takie nagłówki, przeciętny człowiek może odnieść wrażenie, że być może dzisiaj lub jutro SkyNet wyśle armię biorobotów, by zabiły wszystkich ludzi.
Wszystkie te zmiany, choć mają duże znaczenie praktyczne, nie zbliżają nas zbytnio do stworzenia prawdziwej sztucznej inteligencji ze samoświadomością i inteligencją w takim sensie, w jakim posiada ją osoba. Istnieją dwa kierunki rozwoju inteligentnych systemów, które nazywane są słabą i silną sztuczną inteligencją.
Słaba sztuczna inteligencja to inteligentny system przeznaczony do rozwiązywania pojedynczego zadania, takiego jak rozpoznawanie tekstu na zdjęciu lub tworzenie dobrych portretów ludzi. Silna sztuczna inteligencja to sztuczna inteligencja, która ma inteligencję i samoświadomość. Około 99% wszystkich informacji prasowych o sukcesie sztucznej inteligencji jest związanych z sukcesem słabej sztucznej inteligencji. Podaliśmy powyżej przykłady tego, czego nauczyły się sieci neuronowe, ale ważne jest, aby zrozumieć, że są to różne sieci neuronowe.
Sieć neuronowa, która rysuje obrazki, jest bezużyteczna do grania w szachy, a sieć neuronowa, która dobrze gra w szachy, nie napisze muzyki. Co więcej, często sieć neuronowa wykazuje całkowity brak zrozumienia problemu, który rozwiązuje. Tak więc na przykład AlphaStar, stworzony przez DeepMind, który gra w StarCrafta 2 lepiej niż 99% ludzkich graczy, czuje się mniej lub bardziej pewnie w grach, które rozwijają się według standardowego scenariusza, ale gdy tylko napotka jakąś kreatywną strategię, natychmiast zaczyna akceptować absurdalne decyzje. Nie należy oczekiwać, że w takiej sieci neuronowej pewnego dnia obudzi się samoświadomość.
Silne systemy sztucznej inteligencji to zupełnie inna sprawa. Większość badaczy jest skłonna wierzyć, że silna sztuczna inteligencja będzie świadoma swojego istnienia i będzie inteligentna w takim samym sensie jak człowiek. Jednym z najbardziej obiecujących obszarów w tej dziedzinie jest tworzenie komputerowego modelu ludzkiego mózgu. Uważa się, że w wystarczająco złożonym i dokładnym modelu ludzkiego mózgu nieuchronnie pojawi się samoświadomość. Jednak w chwili obecnej nasze możliwości techniczne nie pozwalają nam budować modeli ludzkiego mózgu nawet na poziomie prostego modelowania połączeń nerwowych i synaptycznych. Nowoczesna moc obliczeniowa pozwala symulować sieć neuronową porównywalną złożonością do mózgu kota.
Ale mózg to nie tylko zbiór neuronów przypadkowo połączonych ze sobą. Niezwykle ważna jest również jego struktura funkcjonalna, dlatego do stworzenia pełnoprawnego modelu mózgu kota jest jeszcze bardzo daleko. Kiedy nauczymy się modelować funkcjonalną strukturę mózgu ssaków, takich jak koty, psy itp., znacznie lepiej zrozumiemy, jak realistyczne jest osiągnięcie samoświadomości opartej na komputerowym modelu mózgu. Jednocześnie takie podejście ma dość oczywiste wady. Po pierwsze, nie ma gwarancji, że inteligencja i samoświadomość rzeczywiście pojawią się w wystarczająco złożonym modelu mózgu. Po drugie, niektórzy badacze wyznają zasadę, że modelowanie ludzkiego mózgu jako sposobu na tworzenie silnej sztucznej inteligencji jest złym sposobem.
To mniej więcej tak samo, jak gdybyśmy potrzebowali pojazdu, zamiast projektować koło, wózki, samochody, długo i mozolnie próbować stworzyć idealny model mechanicznych ludzkich nóg. Możliwe, że powinniśmy pomyśleć o fundamentalnie innym sposobie tworzenia sztucznej inteligencji. Na zakończenie muszę wspomnieć o kilku ważnych głosach ludzi takich jak Stephen Hawking i Elon Musk, którzy wyrazili obawy, że sztuczna inteligencja może potencjalnie zagrozić przyszłości ludzkości.
Nie oznacza to, że sprzeciwiają się postępowi technologicznemu AI, ale wyrazili opinię, że przed wypuszczeniem takiej technologii powinniśmy być dobrze przygotowani. Jak powiedział kiedyś Stephen Hawking, nie ma gwarancji, czy sztuczna inteligencja pomoże nam w przyszłości, czy zwróci się przeciwko nam. Istnieje realne potencjalne ryzyko, że sztuczna inteligencja mogłaby niszczyć globalną gospodarkę. Z kolei Elon Musk wyraził opinię, że sztuczna inteligencja może spowodować III wojnę światową.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS