A A+ A++

Departament Obrony USA wydał 24 lutego pięć zasad dotyczących wykorzystania sztucznej inteligencji, w tym systemów biometrycznych, takich jak rozpoznawanie twarzy. Systemy muszą być odpowiedzialne, sprawiedliwe, identyfikowalne, nadzorowane i niezawodne.

Cztery dni później, pod koniec watykańskich warsztatów analizujących etykę i prawo sztucznej inteligencji, papież Franciszek, Microsoft Corp., IBM Corp. i inne zaproszone organizacje wezwały do ​​„nowych form regulacji” i sześciu zasad pokrywających się z listą Departamentu Obrony USA.

Dokument, zatytułowany „Rzymskie wezwanie do etyki AI” i poparty przez papieża, mówi, że każdy etap i aspekt sztucznej inteligencji musi być zgodny z ideałami przejrzystości, włączenia, odpowiedzialności, bezstronności, niezawodności, bezpieczeństwa i prywatności.

Watykan i Pentagon martwią się o wpływ sztucznej inteligencji na ludzkość. Pentagon przede wszystkim martwi się o przyszłość z bezwzględnymi, nieobliczalnymi wojownikami maszynowymi. W dokumencie Departamentu Obrony, w którym ogłoszono stanowisko wojska, zauważono: „Te zasady opierają się na długiej historii departamentu dotyczącej etycznego wdrażania nowych technologii”.

Był to wynik piętnastu miesięcy dyskusji prowadzonych przez Obronną Radę Innowacji, dotyczących wykorzystania sztucznej inteligencji w walce i poza walką. Zarząd zalecił staraniom departamentu:

1. Odpowiedzialność: Personel zachowa odpowiedni poziom osądu i ostrożności, pozostając odpowiedzialny za rozwój, wdrażanie i wykorzystanie sztucznej inteligencji

2. Dokładność: Departament podejmie celowe kroki, aby zminimalizować niezamierzone odchylenie w zdolnościach AI

3. Identyfikację: Możliwości zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednie zrozumienie technologii, procesów rozwojowych i metod operacyjnych mających zastosowanie do zdolności AI, w tym przejrzystych i kontrolowanych metodologii, źródeł danych oraz procedur projektowych i dokumentacji

4. Niezawodność: zdolności AI działu będą miały wyraźne, dobrze określone zastosowania, a bezpieczeństwo i skuteczność takich możliwości będą podlegały testom i zapewnieniu w ramach tych określonych zastosowań przez cały cykl życia

5. Zarządzanie: Personel zaprojektuje i opracuje zdolności AI w celu spełnienia zamierzonych funkcji, mając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do wyłączania lub dezaktywacji wdrożonych systemów wykazujących niezamierzone zachowanie

Watykańska grupa, w skład której wchodzi również dyrektor generalny Organizacji Narodów Zjednoczonych ds. Wyżywienia i Rolnictwa Qu Dongyu, jest godnością człowieka. Grupa już teraz widzi, jak sztuczna inteligencja, szczególnie rozpoznawanie twarzy, zaczyna osłabiać godność i zdradzać zasady sprawiedliwości. Dokument grupy określa zasady zgodne z określonymi wartościami społecznymi Kościoła Katolickiego. Dokument wzywa do przejrzystości, mówiąc, że systemy sztucznej inteligencji muszą być proste do wyjaśnienia, zaoferować najlepsze możliwe warunki wyrażania siebie i rozwoju, odpowiedzialności.

Podobnie ci, którzy projektują i wdrażają sztuczną inteligencję, muszą ponosić odpowiedzialność i przejrzystość, bezstronność, czyli nie tworzą ani nie działają zgodnie z uprzedzeniami, oznacza to, że systemy muszą działać niezawodnie i bezpiecznie w sposób, który szanuje prywatność.

Te dwa listy są punktami docelowymi, nad którymi przemysł i rządy muszą współpracować w ramach nieustającego wysiłku.

Źródło oryginalne: Biometricupdate.com
Źródło polskie: Wolna-Polska.pl

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułPonad 13 milionów dzieci nie otrzymało żadnego szczepienia
Następny artykułMinister Szumowski ostrzega. Szczyt zachorowań możliwy jesienią