Specjaliści z DeepMind zwracają uwagę na zagrożenia płynące z niekontrolowanego rozwoju sztucznej inteligencji. Ich zdaniem może to doprowadzić do “katastrofy egzystencjalnej”.
To właśnie spod skrzydeł DeepMind wyszły algorytmy sztucznej inteligencji odpowiedzialne za tworzenie wspaniałych obrazów, odtwarzanie starożytnych tekstów czy diagnozowanie chorób. Jednak eksperci są też świadomi zagrożenia płynącego z niekontrolowanego rozwoju SI.
W swojej analizie opublikowanej na łamach AI Magazine, Michael Cohen z DeepMind wskazuje, że ludzkość może czekać “katastrofa egzystencjalna”, jeśli nie zaprzestaniemy rozwoju niektórych form sztucznej inteligencji. “Katastrofa egzystencjalna jest nie tylko możliwa, ale prawdopodobna” – podkreśla.
Dyskusje na temat sztucznej inteligencji zdają się nie mieć końca. Wraz z jej rozwojem pojawiają się zarówno głosy zachwytu, jak i ostrzegawcze. W 2018 r. szef firmy, Demis Hassabis, podkreślał zaś, że to od nas zależeć będzie, czy sztuczna inteligencja stanie się dumą ludzkości, czy też może jej przekleństwem. O zagrożeniach wielokrotnie wspominał również Elon Musk.
Jedno z badań opublikowanych w Journal of Artificial Intelligence Research jasno określa zagrożenie: nie da się stworzyć takiego algorytmu sztucznej inteligencji, który zabezpieczałby interesy człowieka. To może stanowić poważne zagrożenie zwłaszcza w przypadku superinteligentnych SI, które będą w stanie sięgać po różnorodne zasoby, by osiągnąć własne cele, podobnie jak ludzie.
Dalsza część artykułu pod materiałem wideo
Zobacz też: 10 porad bezpiecznego korzystania z internetu [Wideo]
Specjaliści z DeepMind przyznają, że stanęli u progu podjęcia jednej z najważniejszych dla nich decyzji – czy kontynuować rozwój SI ze względu na korzyści, jakie niesie jej wykorzystanie chociażby w przypadku diagnozowania chorób? Czy lepiej będzie porzucić prace, dopóki nie znajdą rozwiązania na potencjalne zagrożenie ze strony sztucznej inteligencji.
Klaudia Stawska, współpracownik WP Tech
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS