A A+ A++

Sekretarz Generalny Organizacji Narodów Zjednoczonych (ONZ), António Guterres, w wygłoszonym przemówieniu do członków Towarzystwa Kontroli Zbrojeń (ACA), wyraził głębokie zaniepokojenie wzrostem zagrożenia użyciem broni jądrowej, na poziomie niewidzianym od czasów Zimnej Wojny.

Przekazał, że świat stanął na krawędzi przepaści, w obliczu wyścigu zbrojeń nowej generacji, którego nieodłącznym elementem staje się sztuczna inteligencja. W świetle tych zagrożeń, Guterres zaapelował o światowe rozbrojenie i przestrzegł przed powierzaniem AI decyzji o ewentualnym użyciu broni nuklearnej.

Technologia a światowa stabilność

W trakcie swojego wystąpienia, Sekretarz Generalny podkreślił, że renegocjacja oraz pełna realizacja traktatu New START między Stanami Zjednoczonymi a Federacją Rosyjską jest kluczowa dla światowego bezpieczeństwa. Dodał, że do czasu całkowitej eliminacji broni jądrowej, konieczne jest uzgodnienie, iż o jej użyciu mogą decydować wyłącznie ludzie, nie zaś maszyny czy algorytmy. Taki postulat, choć może wydawać się odległy, ma swoje uzasadnienie w historycznych wydarzeniach, jak choćby “martwa ręka” – radziecki system automatycznego odwetu nuklearnego, który na szczęście nigdy nie został aktywowany.

Martwa ręka

“Dead hand” (ang. martwa ręka) to określenie mechanizmu będącego kluczowym elementem strategii atomowego odstraszania. Podczas zimnej wojny, dwa główne mocarstwa – Związek Radziecki i Stany Zjednoczone – stworzyły scenariusz, w którym wzajemne zniszczenie było pewne dzięki posiadaniu broni atomowej.

Aby zagwarantować, że ewentualny atak nuklearny wroga nie pozostanie bez odpowiedzi, opracowano systemy umożliwiające przeprowadzenie odwetowego uderzenia nawet wtedy, gdyby nie pozostał nikt zdolny do podjęcia takiej decyzji.

Cień zimnej wojny

Przypadek z 26 września 1983 roku, gdy radziecki oficer wojskowy Stanisław Pietrow zbagatelizował fałszywy alarm o ataku nuklearnym, spowodowany odbiciem światła słonecznego od chmur, pokazuje, jak blisko ludzkość była niegdyś zagłady spowodowanej błędami systemów. To wydarzenie, jak podaje IFLScience, stanowi poważne ostrzeżenie przed nadmierną automatyzacją procesów decyzyjnych w kontekście użycia broni jądrowej. Podsumowując, Guterres wzywa do ostrożności w implementacji sztucznej inteligencji w decyzjach o tak ogromnym znaczeniu, przypominając, że w grę wchodzi los całej ludzkości.

źródło: IFLScience

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułUczniowie Szkoły Podstawowej nr 4 odwiedzili siedzibę Straży Miejskiej [FOTO]
Następny artykułDecyzja, która podzieliła moje życie na przed i po [ Szkoły i uczelnie ]