Project Nimbus to wspólny wysiłek Google, Amazona i rządu izraelskiego, który zapewnia futurystyczne możliwości nadzoru dzięki wykorzystaniu zaawansowanych modeli uczenia maszynowego.
Przeciwko projektowi, który wyceniany jest na 1,2 mld USD, protestowała ostatnio grupa palestyńskich, żydowskich i arabskich pracowników. Według raportu The Intercept, Google oferuje izraelskiemu rządowi zaawansowaną sztuczną inteligencję i uczenie maszynowe, co może zwiększyć wykorzystanie cyfrowego nadzoru na okupowanych terytoriach palestyńskich. Umowa podobno uniemożliwia również Google odmawiania usług określonym izraelskim podmiotom rządowym, takim jak Izraelskie Siły Obronne (IDF).
Project Nimbus to zaawansowane algorytmy sztucznej inteligencji, które Google opracowuje dla izraelskiego wojska. System pozwala na prowadzenie skutecznej inwigilacji, rozpoznawania twarzy i emocji, a nawet może wykrywać kłamstwa. Przeciw Nimbusowi protestuje wielu pracowników, wliczając w to Palestyńczyków i Żydów.
Dokumenty szkoleniowe Nimbus podkreślają „możliwości wykrywania twarzy, punktów orientacyjnych na twarzy, emocji w Google Cloud Vision API”, a w jednym z seminariów szkoleniowych Nimbus inżynier Google potwierdził dla izraelskiego klienta, że możliwe będzie „przetwarzanie danych za pośrednictwem Nimbusa, aby ustalić, czy ktoś kłamie”. Nad podobnym rozwiązaniem pracował Microsoft, jednak problemy wiążące się z taką technologią przewyższały potencjalne korzyści. Google uważa jednak inaczej, jednocześnie uciszając pracowników, którzy wyrażają swoje zaniepokojenie kierunkiem, w którym podąża Nimbus. Oczywiste jest, że narzędzia dostarczone przez Nimbus mają potencjał, by rozwinąć izraelski wzorzec nadzoru, profilowania rasowego i innych form naruszeń praw człowieka wspomaganych technologicznie.
Obserwatorzy uważają, że cały projekt został zaprojektowany tak, aby izraelski rząd mógł ukryć swoje działania. Według Jacka Poulsona, byłego szefa Security for Google Enterprise, jednym z głównych celów Project Nimbus jest „uniemożliwienie rządowi Niemiec żądania danych dotyczących Izraelskich Sił Obronnych dla Międzynarodowego Trybunału Karnego”. Niezależnie od motywacji, taka technologia w rękach jakiegokolwiek rządu nie jest dobrym pomysłem.
Zgodnie z zasadami działu sztucznej inteligencji Google, firma nie będzie wdrażać sztucznej inteligencji w celu wyrządzania szkód, opracowywania broni ani prowadzenia nadzoru, który narusza międzynarodowe normy. Ale członkowie żydowskiej diaspory w Google uważają, że Project Nimbus narusza te statuty. „Musimy zadać sobie pytanie: czy chcemy dać nacjonalistycznym armiom świata naszą technologię? A może musimy trzymać się oryginalnej teorii stojącej za Google: że możemy zarabiać pieniądze bez czynienia zła” – powiedział żydowski pracownik Google, Gabriel Schubiner.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS