A A+ A++

Nieodpowiednie i niewystarczające przygotowanie do wykorzystywania rozwiązań bazujących na sztucznej inteligencji może prowadzić do naruszenia zasad etyki pracy i niepożądanych skutków w postaci szkód reputacyjnych. Eksperci KPMG wskazują 5 obszarów związanych z wykorzystaniem AI w biznesie, szczególnie narażonych na ryzyko.

„Procesy biznesowe, niezależnie od ich stopnia skomplikowania, otwierają przed nami perspektywę optymalizacji dzięki zastosowaniu sztucznej inteligencji. Jednakże efektywność AI w pełni zależy od jakości dostarczanych danych oraz warunków brzegowych ustalanych przez osoby odpowiedzialne za wdrażanie rozwiązań opartych na sztucznej inteligencji w strukturach organizacyjnych. Poszukiwanie i implementacja etycznych oraz pragmatycznych strategii optymalizacyjnych wykorzystujących potencjał AI, stawiają przed kadrą zarządzającą znaczące wyzwanie, doskonale wpisujące się w dynamiczną rzeczywistość biznesową” – mówi Łukasz Dylewski, Dyrektor, Lider Data Science & AI w KPMG w Polsce.

Jakie obszary szczególnie powinny znaleźć się pod lupą zarządów, by zminimalizować ryzyko biznesowe?

Zobacz również:

1. Prywatność i bezpieczeństwo danych osobowych

Modele generatywnej sztucznej inteligencji są zasilane i uczą się na obszernych zbiorach danych, w tym zawierających informacje osobowe lub poufne, co budzi zastrzeżenia dotyczące zgodności z przepisami RODO.

2. Własność intelektualna

GenAI korzysta z obszernej bazy istniejących dzieł, co skutkuje możliwością generowania treści przypominających istniejące, chronione prace. Niesie to za sobą obawy o naruszanie praw autorskich.

3. Precyzja dokonywanych analiz

Ryzyko tworzenia błędnych wniosków, znanych również jako „halucynacje”, wzrasta szczególnie w sytuacjach, gdy modele AI generują znaczną ilość danych lub wykorzystywane są w wysoko specjalistycznych branżach, w których nie są dostatecznie przeszkolone i brakuje im dostępu do adekwatnych źródeł informacji.

4. Dyskryminacja na tle praw obywatelskich

Wzrost zainteresowania modelami AI oraz ich coraz powszechniejsze zastosowanie w procesach biznesowych wywołuje pytania dotyczące etyki i sprawiedliwości społecznej. Generatywna sztuczna inteligencja niesie ze sobą ryzyko naruszania praw obywatelskich, gdy tworzone treści wykazują tendencje do dyskryminacji określonych grup społecznych.

5. Odpowiedzialność prawna

W ramach obowiązującej w Unii Europejskiej Dyrektywy w sprawie odpowiedzialności za produkty wadliwe oraz projektu Dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję, operator systemu AI może ponosić odpowiedzialność za szkody wyrządzone przez ten system osobom trzecim.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułSZKOŁA POLICEALNA PASCAL: MASAŻYSTA – DROGA DO ZAWODOWEJ DOSKONAŁOŚCI
Następny artykułPrzez lata dbał o płockie skarby, powiększał zbiory secesji. Dziś można podziwiać jego dorobek