A A+ A++

Część prawników twierdzi, że pewne kontrowersje budzi sama definicja AI, zawarta w unijnym rozporządzeniu – jest ona bowiem niezbyt precyzyjna i posiada wiele niejasnych zwrotów, co z kolei może powodować trudności w określeniu, czy dany system należy uznać za sztuczną inteligencję, czy też nie. Eksperci z PwC zauważają, że w konsekwencji zakres stosowania przepisów może być znacznie szerszy niż to wygląda na pierwszy rzut oka. Ich zdaniem „pomocy w próbie lepszego zrozumienia definicji będzie trzeba szukać w decyzjach krajowych i unijnych organów, które będą dokonywać jej interpretacji na potrzeby prowadzonych postępowań”.

Dla firm wdrażających systemy sztucznej inteligencji (przy założeniu, że dotyczy to kategorii niskiego ryzyka), kluczowe będzie zapewnienie odpowiedniego poziomu transparentności. W praktyce ma się to sprowadzać np. do tego, by użytkownicy (osoby fizyczne) tych rozwiązań AI były informowane, że system z którego korzystają, jest sztuczną inteligencją. Z kolei w przypadku kategorii wysokiego ryzyka dostawcy będą zobligowani do spełnienia licznych wymogów, w tym przeprowadzenia analizy i oceny przewidywanych zagrożeń, bądź wdrożenia systemu zarządzania ryzykiem. Firmy muszą zdawać sobie sprawę, że za naruszenie rozporządzenia grożą im sankcje – maksymalnie kary mogą sięgać nawet 35 mln euro lub do 7 proc. całkowitego rocznego obrotu.

Ryzyka dla firm związane z AI

Korzystanie ze sztucznej inteligencji w polskich firmach wciąż przypomina trochę Dziki Zachód. Tymczasem ryzyka dla firm są wcale niemałe – utrata poufności danych, rozproszona odpowiedzialność za podejmowanie błędnych decyzji, naruszenia własności intelektualnej, niezgodność z regulacjami oraz problemy z międzynarodowym transferem danych, to tylko kilka z nich. Problem w tym, że – jak wyjaśnia Aleksandra Maciejewicz, rzeczniczka patentowa i prawniczka w kancelarii Lawmore, niektóre firmy nawet nie wiedzą, jakie narzędzia AI są używane przez ich pracowników. – A przecież jedną z kluczowych kwestii jest regularne sprawdzanie regulaminów tych narzędzi. Transparentność w komunikacji z klientami na temat wykorzystania AI w obsłudze i innych procesach również nie jest taka oczywista w wielu firmach – podkreśla Maciejewicz.

Narzędzia sztucznej inteligencji upowszechniły się wraz z wydaniem w 2022 r. usług i modeli AI do generowania grafiki Dall-e, StableDiffusion oraz chatu ChatGPT. Jednak wdrożenie zasad bezpieczeństwa, określenie zasad korzystania z AI, w tym lista dozwolonych i zabronionych zastosowań AI w firmie, jest wciąż rzadkością. – Dla właścicieli firm ważne jest nie tylko zrozumienie, jak AI może zwiększyć efektywność i innowacyjność, ale także to, jak mogą zapewnić bezpieczne i odpowiedzialne jej użyc … czytaj dalej

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułZapach orientalnych przypraw i bajeczne pustynie. Tanie wakacje za granicą na wyciągnięcie ręki
Następny artykułGdybyś mogła/mógł wysłać alert RCB z jedną informacją, to jaką?