Wiele wskazuje na to, że Unia Europejska oskarży ponownie firmę OpenAI o to, że opracowane przez nią aplikacje AI (chodzi konkretnie o boty) nie spełniają wymogów dotyczących bezpieczeństwa i ochrony prywatności osób, które mają w swoich zasobach.
Wszystko zaczęło się od tego, że organizacja non profit nosząca nazwę noyb oskarżyła firmę o to, że jej boty ChatGPT nie potrafią korygować błędnych, wygenerowanych przez nią wcześniej informacji. W ten sposób chatbot potrafi np. rozpowszechnić nieprawdziwe informacje godzące w prywatność osób, o które pytają użytkownicy korzystający z ich usług.
O tym, że boty AI potrafią podawać nieprawdziwe informacje, wiadomo nie od dzisiaj. Jest to nieraz spowodowane tym, że AI ma tzw. halucynacje. Halucynacje stanowią poważne wyzwanie, z którym twórcy botów zmagają się od momentu ich stworzenia. Sztuczna inteligencja wpada czasami w stan halucynacji, generując wtedy fałszywe informacje. Badania wykazały, że chatboty nadal mogą podawać nieprawdziwe odpowiedzi 3 procentach odpowiedzi. I taką właśnie sytuacją mamy do czynienia w tym przypadku.
Zobacz również:
Problem w tym i użytkownik otrzymujący takie błędne – zawierające niekiedy poufne informacje – może oskarżyć twórców bota o to, że działa niezgodnie z rozporządzeniem o ochronie danych (RODO). A kary za nieprzestrzeganie RODO mogą być dotkliwe i sięgać nawet do 4% globalnego rocznego obrotu firmy będącej właściciele bota.
Z sytuacją taką mieliśmy do czynienia w zeszłym roku we Włoszech, gdy jeden z organów regulacyjnych tego kraju doprowadził do tego, że firma OpenAI musiała zamknąć bota ChatGPT. Teraz w ślady tego organu poszła wspomniana wcześniej organizacja noyb, która wniosła do austriackiego organu ochrony danych (działając w imieniu anonimowego skarżącego), pozew przeciwko firmie OpenAI oskarżając ją o to iż jej chatbot podał nieprawidłową datę urodzenia tej osoby.
Wcześniej firma odrzuciła prośbę skarżącego o poprawienie nieprawidłowej daty urodzenia, odpowiadając iż poprawienie jej jest technicznie niemożliwe. Zamiast tego OpenAI oferowało rozwiązanie polegające na filtrowaniu lub blokowaniu danych zawartych w odpowiedziach, takich jak imię i nazwisko osoby składającej skargę. OpenAI twierdziło też iż nie jest w stanie powiedzieć, skąd pochodzą błędne dane, które chatbot generuje na temat osób fizycznych.
Sugeruje też użytkownikom, aby poprosili o całkowite usunięcie ich danych osobowych z wyników ChatGPT, co mogą zrobić wypełniając odpowiedni formularz internetowy.
Komentując skargę, organizacja nyod wydała oświadczenie, w którym czytamy, „Tłumaczenie się firmy OpenAI jest mocno problematyczne. Podawania fałszywych informacji na temat konkretnych osób może skutkować poważnymi konsekwencjami. Oczywiste jest, że firmy nie są obecnie w stanie zapewnić zgodności chatbotów takich jak ChatGPT z prawem UE podczas przetwarzania danych osobowych. Jeśli system AI nie może podawać dokładnych i przejrzystych wyników, nie można go używać do generowania danych o poszczególnych osobach. Technologia musi spełniać wymogi prawne, a nie odwrotnie”.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS