A A+ A++

Anthropic, firma wspierana przez Amazon, wprowadziła nową funkcję w swoim narzędziu Claude AI, pozwalającą sztucznej inteligencji na przejmowanie kontroli nad komputerem użytkownika.

Funkcja, określona jako „użycie komputera”, umożliwia Claude wykonywanie autonomicznych działań, takich jak przesuwanie kursora, wpisywanie tekstu, otwieranie stron internetowych czy pobieranie plików. Choć narzędzie to może stanowić przełom w automatyzacji, niektórzy eksperci ostrzegają, że jego potencjał może równie dobrze przyczynić się do wzrostu cyberzagrożeń i zagrożeń prywatności.

Eksperci ds. bezpieczeństwa sugerują, że hakerzy mogliby oszukać nowe funkcje Claude’a i nakłonić go do zainstalowania złośliwego oprogramowania. 

Jak działa nowa funkcja Claude’a i jakie są jej cele?

Aktualizacja, obecnie dostępna dla deweloperów za pośrednictwem API i zawarta w wersji beta Claude 3.5 Sonnet, ma umożliwić sztucznej inteligencji wykonanie złożonych zadań, zwykle wymagających licznych operacji, w jednym procesie. Już teraz narzędzie testują takie firmy, jak Asana, Canva czy DoorDash, wykorzystując Claude AI do automatyzacji zadań, które dotychczas angażowały dziesiątki kroków. Może to prowadzić do większej efektywności i oszczędności czasu w pracy, ale także budzi pytania o przyszłość zatrudnienia w niektórych sektorach, ponieważ przyśpieszenie procesów może ograniczyć potrzebę pracy ludzkiej.

Mimo deklarowanej wygody i funkcjonalności, Anthropic podkreśla, że funkcja „użycia komputera” jest we wczesnej fazie rozwoju i może zawierać błędy, dlatego firma zachęca do stosowania tej funkcji wyłącznie pod ścisłym nadzorem człowieka.

Eksperci alarmują: Cyberzagrożenia i brak zabezpieczeń

Nowa funkcja wzbudziła szeroką dyskusję wśród specjalistów ds. bezpieczeństwa. Jonas Kgomo, założyciel organizacji zajmującej się bezpieczeństwem sztucznej inteligencji Equianas Institute, określił narzędzie jako „nieprzetestowane terytorium bezpieczeństwa AI” i ostrzegł, że jego potencjalne nadużycia mogą przyczynić się do wzrostu cyberprzestępczości.

Inni podkreślają, że, „istnieje ogromne ryzyko zarówno celowych, jak i niezamierzonych problemów z bezpieczeństwem” oraz że może być wykorzystywane do wdrażania złośliwych narzędzi typu AI RAT (zdalnego dostępu).

Rachel Tobac, CEO firmy SocialProof Security i specjalistka od cyberbezpieczeństwa, wyraziła niepokój: „Myśl o tym, jak cyberprzestępcy mogą wykorzystać to narzędzie, budzi we mnie ogromne obawy”. Tobac zwraca uwagę, że Claude może nieświadomie wykonywać złośliwe polecenia, na przykład pobierać niebezpieczne pliki lub udostępniać poufne informacje, gdy napotka odpowiednio spreparowane monity.

Czy Claude może być łatwym celem dla cyberprzestępców?

Specjaliści zauważają, że automatyzacja wykonywana przez Claude’a może w rzeczywistości uprościć procedury hakerskie. Tobac wskazuje na możliwość projektowania stron internetowych w sposób, który celowo skieruje AI do pobrania złośliwego oprogramowania lub odsłonięcia poufnych informacji. To prowadzi do poważnych konsekwencji związanych z potencjalnymi naruszeniami danych i wzmaga ryzyko mniejszych nakładów na nadzór człowieka, co mogłoby ułatwić zrzucenie odpowiedzialności na AI.

„Anthropic musi wdrożyć potężne bariery ochronne, by zapobiec możliwym nadużyciom,” ostrzega Tobac. Tymczasem Simon Willison, twórca Datasette, zauważa, że firma uprzedza użytkowników, iż obecnie funkcja nie dysponuje odpowiednimi zabezpieczeniami, które zapobiegałyby przejęciu AI przez złośliwe podmioty w określonych sytuacjach.





Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułKontrowersyjne sceny z udziałem Turczynki. Trener nie wytrzymał [wideo]
Następny artykułФрази, які категорично не говорять батькам