A A+ A++

W ostatnim czasie pojawiły się doniesienia o wycieku rozmów internautów z chatbotem AI od Google’a. Sprawa wywołała ogromne kontrowersje. Pod znakiem zapytania stanęło bezpieczeństwo użytkowników, związane z ich prywatnością.

Źródło obrazu: flickr.com

Bard w poważnym kryzysie

Gagan Ghorta, konsultant ds. SEO, opublikował na swoim koncie, na platformie X informację o wycieku rozmów. Załączył do posta zrzut ekranu z wynikami wyszukiwania w najpopularniejszej przeglądarce. Ukazały się w nich rozmowy użytkowników z Bardem. Po kliknięciu w wyświetlane przez wyszukiwarkę linki, użytkownicy byli przenoszeni do archiwalnych zapisów czatów. 

– Google zaczęło indeksować udostępnianie adresów URL konwersacji Barda. Nie udostępniaj Bardowi żadnych danych osobowych w rozmowie, zostanie to zindeksowane i może ktoś dotrze do tej rozmowy z wyszukiwania i zobaczy Twoje informacje. Również adresy URL konwersacji Barda są również klasyfikowane jako fragmenty niektórych zapytań” – czytamy we wpisie Gagana Ghorty.

Dlaczego do tego doszło?

Od tego momentu w internecie wylała się lawina pytań dotyczących bezpieczeństwa danych i prywatności, w związku z korzystaniem z chatbotów AI. Głos w tej sprawie zabrał Peter Liu, pracownik naukowy w Google DeepMind. Powiedział, że rozmowy na czacie, które pojawiły się w wynikach wyszukiwania, były wcześniej wysyłane innemu użytkownikowi za pomocą funkcji udostępnij.

Stworzono ją, by użytkownicy mogli dzielić się ciekawymi rozmowami z najbliższymi osobami. Jak twierdzi Liu, żadne rozmowy, które nie są publicznie udostępniane, nie mogą być indeksowane. 

– Dotyczy to tylko rozmów wyraźnie udostępnionych. Twoje rozmowy domyślnie nie są publiczne – napisał na portalu X Peter Liu.

Aktualnie, rozmowy z Barda się nie wyświetlają, co może wskazywać, że problem z upublicznieniem informacji rozwiązano. 

Wycieki są jednak rzeczywistością

Podobna sytuacja miała miejsce ponad rok temu. Pracownicy Samsunga, którzy chcieli od ChatuGPT uzyskać pomoc, przekazali mu szereg informacji mających charakter poufny. Boty funkcjonują jednak na zasadzie uczenia maszynowego, przez co przekazane dane stały się dostępne dla wszystkich możliwych użytkowników. 

Tego typu sytuacje skłoniły OpenAI do stworzenia ChatuGPT Enterprise, dedykowanego firmom. Wszelkie dane wprowadzane do tej wersji mają być chronione przed wszelkim upublicznieniem.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułAmerykanie zmieniają plany modernizacji po obserwacji wojny w Ukrainie
Następny artykułWybory to nasze prawo i obywatelski obowiązek. Chcę żyć w demokracji, a nie w innej wersji PRL