Anthropic, firma wspierana przez Amazon, wprowadziła nową funkcję w swoim narzędziu Claude AI, pozwalającą sztucznej inteligencji na przejmowanie kontroli nad komputerem użytkownika.
Funkcja, określona jako „użycie komputera”, umożliwia Claude wykonywanie autonomicznych działań, takich jak przesuwanie kursora, wpisywanie tekstu, otwieranie stron internetowych czy pobieranie plików. Choć narzędzie to może stanowić przełom w automatyzacji, niektórzy eksperci ostrzegają, że jego potencjał może równie dobrze przyczynić się do wzrostu cyberzagrożeń i zagrożeń prywatności.
Eksperci ds. bezpieczeństwa sugerują, że hakerzy mogliby oszukać nowe funkcje Claude’a i nakłonić go do zainstalowania złośliwego oprogramowania.
Jak działa nowa funkcja Claude’a i jakie są jej cele?
Aktualizacja, obecnie dostępna dla deweloperów za pośrednictwem API i zawarta w wersji beta Claude 3.5 Sonnet, ma umożliwić sztucznej inteligencji wykonanie złożonych zadań, zwykle wymagających licznych operacji, w jednym procesie. Już teraz narzędzie testują takie firmy, jak Asana, Canva czy DoorDash, wykorzystując Claude AI do automatyzacji zadań, które dotychczas angażowały dziesiątki kroków. Może to prowadzić do większej efektywności i oszczędności czasu w pracy, ale także budzi pytania o przyszłość zatrudnienia w niektórych sektorach, ponieważ przyśpieszenie procesów może ograniczyć potrzebę pracy ludzkiej.
Mimo deklarowanej wygody i funkcjonalności, Anthropic podkreśla, że funkcja „użycia komputera” jest we wczesnej fazie rozwoju i może zawierać błędy, dlatego firma zachęca do stosowania tej funkcji wyłącznie pod ścisłym nadzorem człowieka.
Eksperci alarmują: Cyberzagrożenia i brak zabezpieczeń
Nowa funkcja wzbudziła szeroką dyskusję wśród specjalistów ds. bezpieczeństwa. Jonas Kgomo, założyciel organizacji zajmującej się bezpieczeństwem sztucznej inteligencji Equianas Institute, określił narzędzie jako „nieprzetestowane terytorium bezpieczeństwa AI” i ostrzegł, że jego potencjalne nadużycia mogą przyczynić się do wzrostu cyberprzestępczości.
Inni podkreślają, że, „istnieje ogromne ryzyko zarówno celowych, jak i niezamierzonych problemów z bezpieczeństwem” oraz że może być wykorzystywane do wdrażania złośliwych narzędzi typu AI RAT (zdalnego dostępu).
Rachel Tobac, CEO firmy SocialProof Security i specjalistka od cyberbezpieczeństwa, wyraziła niepokój: „Myśl o tym, jak cyberprzestępcy mogą wykorzystać to narzędzie, budzi we mnie ogromne obawy”. Tobac zwraca uwagę, że Claude może nieświadomie wykonywać złośliwe polecenia, na przykład pobierać niebezpieczne pliki lub udostępniać poufne informacje, gdy napotka odpowiednio spreparowane monity.
Czy Claude może być łatwym celem dla cyberprzestępców?
Specjaliści zauważają, że automatyzacja wykonywana przez Claude’a może w rzeczywistości uprościć procedury hakerskie. Tobac wskazuje na możliwość projektowania stron internetowych w sposób, który celowo skieruje AI do pobrania złośliwego oprogramowania lub odsłonięcia poufnych informacji. To prowadzi do poważnych konsekwencji związanych z potencjalnymi naruszeniami danych i wzmaga ryzyko mniejszych nakładów na nadzór człowieka, co mogłoby ułatwić zrzucenie odpowiedzialności na AI.
„Anthropic musi wdrożyć potężne bariery ochronne, by zapobiec możliwym nadużyciom,” ostrzega Tobac. Tymczasem Simon Willison, twórca Datasette, zauważa, że firma uprzedza użytkowników, iż obecnie funkcja nie dysponuje odpowiednimi zabezpieczeniami, które zapobiegałyby przejęciu AI przez złośliwe podmioty w określonych sytuacjach.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS