A A+ A++

Wiele wskazuje na to, że Unia Europejska oskarży ponownie firmę OpenAI o to, że opracowane przez nią aplikacje AI (chodzi konkretnie o boty) nie spełniają wymogów dotyczących bezpieczeństwa i ochrony prywatności osób, które mają w swoich zasobach.

Wszystko zaczęło się od tego, że organizacja non profit nosząca nazwę noyb oskarżyła firmę o to, że jej boty ChatGPT nie potrafią korygować błędnych, wygenerowanych przez nią wcześniej informacji. W ten sposób chatbot potrafi np. rozpowszechnić nieprawdziwe informacje godzące w prywatność osób, o które pytają użytkownicy korzystający z ich usług.

O tym, że boty AI potrafią podawać nieprawdziwe informacje, wiadomo nie od dzisiaj. Jest to nieraz spowodowane tym, że AI ma tzw. halucynacje. Halucynacje stanowią poważne wyzwanie, z którym twórcy botów zmagają się od momentu ich stworzenia. Sztuczna inteligencja wpada czasami w stan halucynacji, generując wtedy fałszywe informacje. Badania wykazały, że chatboty nadal mogą podawać nieprawdziwe odpowiedzi 3 procentach odpowiedzi. I taką właśnie sytuacją mamy do czynienia w tym przypadku.

Zobacz również:

Problem w tym i użytkownik otrzymujący takie błędne – zawierające niekiedy poufne informacje – może oskarżyć twórców bota o to, że działa niezgodnie z rozporządzeniem o ochronie danych (RODO). A kary za nieprzestrzeganie RODO mogą być dotkliwe i sięgać nawet do 4% globalnego rocznego obrotu firmy będącej właściciele bota.

Z sytuacją taką mieliśmy do czynienia w zeszłym roku we Włoszech, gdy jeden z organów regulacyjnych tego kraju doprowadził do tego, że firma OpenAI musiała zamknąć bota ChatGPT. Teraz w ślady tego organu poszła wspomniana wcześniej organizacja noyb, która wniosła do austriackiego organu ochrony danych (działając w imieniu anonimowego skarżącego), pozew przeciwko firmie OpenAI oskarżając ją o to iż jej chatbot podał nieprawidłową datę urodzenia tej osoby.

Wcześniej firma odrzuciła prośbę skarżącego o poprawienie nieprawidłowej daty urodzenia, odpowiadając iż poprawienie jej jest technicznie niemożliwe. Zamiast tego OpenAI oferowało rozwiązanie polegające na filtrowaniu lub blokowaniu danych zawartych w odpowiedziach, takich jak imię i nazwisko osoby składającej skargę. OpenAI twierdziło też iż nie jest w stanie powiedzieć, skąd pochodzą błędne dane, które chatbot generuje na temat osób fizycznych.

Sugeruje też użytkownikom, aby poprosili o całkowite usunięcie ich danych osobowych z wyników ChatGPT, co mogą zrobić wypełniając odpowiedni formularz internetowy.

Komentując skargę, organizacja nyod wydała oświadczenie, w którym czytamy, „Tłumaczenie się firmy OpenAI jest mocno problematyczne. Podawania fałszywych informacji na temat konkretnych osób może skutkować poważnymi konsekwencjami. Oczywiste jest, że firmy nie są obecnie w stanie zapewnić zgodności chatbotów takich jak ChatGPT z prawem UE podczas przetwarzania danych osobowych. Jeśli system AI nie może podawać dokładnych i przejrzystych wyników, nie można go używać do generowania danych o poszczególnych osobach. Technologia musi spełniać wymogi prawne, a nie odwrotnie”.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułPrzyszłość HR: Automatyzacja w zarządzaniu zasobami ludzkimi
Następny artykułBędzie film dokumentalny o krowie uciekinierce