Najpierw duże firmy AI wykazały, jak nieodpowiedzialnie i bezwzględnie mogą wykorzystywać algorytmy uczenia maszynowego do generowania zysków finansowych dla członków zarządu i akcjonariuszy. Teraz te same firmy proszą cały świat technologiczny o zaufanie, że będą działać odpowiedzialnie, gdy ostatecznie stworzą faktycznie niebezpieczne modele AI.
Niektóre z najważniejszych firm pracujących z algorytmami i usługami AI podpisały nowe dobrowolne porozumienie, mające na celu promowanie bezpieczeństwa AI, czyniąc ich operacje bardziej przejrzystymi i godnymi zaufania. Porozumienie, wprowadzone przed niedawnym szczytem AI w Seulu, nie zawiera egzekwowalnych środków kontroli nad niebezpiecznymi usługami AI, ale wydaje się wystarczająco dobre, aby zadowolić rządy Wielkiej Brytanii i Korei Południowej.
Porozumienie w sprawie AI
Nowe porozumienie objęło gigantów technologicznych i AI takich jak Microsoft, OpenAI, xAI (Elon Musk i jego przedsięwzięcie Grok), Google, Amazon, Meta oraz chińską firmę Zhipu AI. Wszystkie strony przedstawią i opublikują swoje plany klasyfikacji ryzyka związanego z AI i wydają się gotowe na to, aby powstrzymać się od opracowywania modeli, które mogłyby mieć poważne skutki dla społeczeństwa.
Zobacz również:
Porozumienie stanowi kontynuację wcześniejszych zobowiązań dotyczących bezpieczeństwa AI, zatwierdzonych przez organizacje międzynarodowe i 28 krajów podczas szczytu bezpieczeństwa AI organizowanego przez Wielką Brytanię w listopadzie 2023 r. Te zobowiązania, znane jako Deklaracja z Bletchley, wzywały do międzynarodowej współpracy w zarządzaniu ryzykiem związanym z AI oraz potencjalnej regulacji najpotężniejszych systemów AI (Frontier AI).
Według premiera Wielkiej Brytanii, Rishi Sunaka, nowe zobowiązania powinny zapewnić światu, że największe firmy AI “zapewnią przejrzystość i odpowiedzialność” w swoich planach tworzenia bezpiecznych algorytmów AI. Sunak stwierdził, że porozumienie mogłoby służyć jako nowy globalny standard dla bezpieczeństwa AI, pokazując drogę do czerpania korzyści z tej potężnej, “transformacyjnej technologii”.
Firmy AI powinny teraz ustalić progi, po przekroczeniu których systemy Frontier AI mogą stanowić ryzyko, o ile nie zostaną wdrożone odpowiednie środki zaradcze, i opisać, jak te środki zostaną zaimplementowane. Porozumienia podkreślają współpracę i przejrzystość. Według przedstawicieli Wielkiej Brytanii, Deklaracja z Bletchley, która wzywa do międzynarodowej współpracy w zarządzaniu ryzykiem związanym z AI, sprawdziła się dotychczas dobrze, a nowe zobowiązania będą nadal przynosić korzyści.
Aby AI nie wymknęła się spod kontroli
Firmy, którym powierzono ochronę świata przed ryzykiem związanym z AI, to te same organizacje, które wielokrotnie udowodniły, że w ogóle nie powinno się im ufać. Dla przykładu OpenAI, wspierana przez Microsoft, poprosiła aktorkę Scarlett Johansson o pozwolenie na użycie jej głosu dla najnowszego bota ChatGPT, a następnie i tak użyła jej głosu, gdy ta odmówiła.
Badacze również wykazali, że chatboty są niezwykle potężnymi maszynami do rozprzestrzeniania złośliwego oprogramowania, nawet bez modeli “Frontier AI”.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS