Różnorodność poglądów wśród ludzi jest tym co czyni nas z jednej strony kreatywnymi, ale też przyczynia się do spowolnienia rozwoju, ze względu na trudność w osiągnieciu zgody w często podstawowych kwestiach. A jak to wygląda w przypadku Sztucznej Inteligencji?
Z początku, gdy AI było bardziej fantazją niż rzeczywistością, często przedstawiano jej wizję jako zagrożenie dla istnienia ludzkości. Wielokrotnie poruszany był temat wrogiej Sztucznej Inteligencji, która traktuje człowieka jako zagrożenie nie tylko dla siebie, ale też dla pozostałej części świata. Każdy chyba zna film Terminator (o randze kultowego), który przedstawia perspektywę świata, gdzie człowiek jest stopniowo eliminowany przez roboty. Roboty, którym w pewnym momencie zbyt duże kompetencje nadał sam człowiek.
Dziś, gdy AI nie jest już tylko zagadnieniem akademickim, ale z impetem weszło w nasze życie, traktujemy je również jako zagrożenie, choć rzadziej nawiązując do Skynetu, a po prostu dostrzegając jego przewagę w rozwiązywaniu zadań. I to nie tylko takich typowo koncepcyjnych (AI osiągnęło poziom pozwalający mu konkurować z najlepszymi ludzkimi umysłami), ale poprzez możliwość zintegrowania AI z maszynami, także tymi wymagających umiejętności manualnych (budowanie robotów przypominających ludzi może, ale nie musi, przyczynić się do bardziej przyjaznego traktowania AI).
AI jest już na etapie, gdy ma zdolność do prostego udoskonalania, ucząc się na własnych błędach, a nie tylko poprzez obserwacje przedstawionych mu przykładów. Jednak wciąż to człowiek ma możliwość decydowania o tym jakie ono będzie w przyszłości, bo nadal od nas zależy, jak duże kompetencje nadamy AI. Jednak nawet bez samoświadomości, pełnej kontroli nad zasobami, AI ma przewagę, którą będzie trudno człowiekowi zniwelować. Przewagę, która z jednej strony ma zalety i bardzo kusi, z drugiej jest bardzo niepokojąca, bo nie mamy gwarancji, że AI zawsze rozumuje poprawnie.
Modele AI potrafią dobrze się ze sobą dogadać
Ilu ludzi, tyle zdań – często nawiązujemy do tej myśli Terencjusza ze starożytnego Rzymu. To powiedzenie wciąż doskonale opisuje ludzką społeczność, w której zgoda często jest tylko pozorna, a hejt pokazuje jak trudno nam o ugodowość. Człowiek kieruje się często emocjami, czymś czego AI jeszcze (chyba) nie wykształciła. Emocje sprawiają, że rozum idzie w odstawkę i nie zawsze człowiek jest tego świadomy, ale też czyni podejmowanie zgodnych decyzji w większym gronie bardzo trudnym.
A jak to wygląda w przypadku modeli AI, które kierują się w pewnym sensie wyłącznie rozumem? Zespół naukowców – Giordano De Marzo, Claudio Castellano, David Garcia – z uczelni w Niemczech, Austrii i Włoszech, podjął się zadania oceny, jak potrafią ze sobą współpracować duże modele AI (LLM). Taka współpraca ma już miejsce jak przypominają naukowcy i objawia się w formie takich narzędzi jak AutoGPT czy Microsoft AutoGen.
Eksperyment polegał na zadaniu wielu kopiom danego modelu AI problemu, który ma dwa rozwiązania, a potem skonfrontowania tych modeli, przedstawiając możliwość uzgodnienia odpowiedzi lub pozostania przy swojej.
Jaki był wynik eksperymentu? Okazuje się, że prostsze i mniej wydajne modele, takie jak Claude 3 Haiku oraz GPT-3.5 Turbo, nie były jeszcze w stanie osiągnąć zgodności w grupie 50 takich konfrontowanych modeli. Za to te nowocześniejsze, Claude 3 Opus oraz GPT-4 Turbo, do takiej zgody dochodziły już za każdym razem. A ponieważ interakcja cyfrowych tworów jest znacznie szybsza niż interakcja między ludźmi, nawet wyposażonymi w cyfrowe narzędzia, do zgody dochodziło bardzo szybko.
Jak duże grupy modeli AI są w stanie osiągnąć zgodę?
To istotne pytanie, zakładając, że choćby jedna przeciwstawna opinia ma prawo poddać w wątpliwość rozwiązanie danego problemu. Naukowcy badający umiejętność oddzielnych modeli AI do zgodnego rozwiązywania problemów, sprawdzili jak duże grupy modeli potrafią być zgodne. Te proste mają z tym problem, ale wspomniany tu GPT-4 Turbo nie miał problemów nawet w przypadku konfrontacji z 1000. swoich kopii (kopia nie oznacza tu oczywiście identycznego działania, bo AI nie da się powielić tak jak pliku komputerowego, choć ze względu na brak dostatecznej wiedzy jak naprawdę funkcjonuje AI, gdy się rozwinie, łatwo poddać ten pogląd w wątpliwość). W przypadku ludzi grupy 1000. osób są traktowane jako reprezentatywne dla całej społeczności podczas oceny różnorodności poglądów na dany temat.
Skąd taka umiejętność AI do uzyskania zgody? Badania sugerują, że najważniejszą rolę odgrywa tu pamięć. Podejmowanie decyzji lub wnioskowanie wiąże się z umiejętnością uwzględnienia jak największej liczby informacji. Człowiek z im większą liczbą ludzi rozmawia tym bardziej wybiórczo zapamiętuje te dyskusje. Pod tym względem AI ma ogromną przewagę i dlatego tez jest traktowana jako użyteczne wsparcie np. w medycynie. Ludzkiej pamięci nie można zwiększyć, można człowieka wyćwiczyć, nauczyć by lepiej zapamiętywał szczegóły, ale nie działa to tak jak w filmie Matrix, gdzie bohaterka jest w stanie w ciągu sekund nauczyć się np. latać śmigłowcem. AI możemy z kolei udostępnić większe zasoby pamięciowe, zapewnić dostęp do nowych baz danych.
Im więcej wiemy, tym łatwiej nam zrozumieć rozumowanie innych jednostek, dostrzec sens lub błędy, a potem skutecznie je wypunktować. Brak dostatecznej wiedzy (pomińmy tu już zwykłą ignorancję problemu), umiejętności spojrzenia się na zagadnienie z perspektywy czasowej, utrudnia ludziom podejmowanie zgodnych decyzji lub przynajmniej dążenie do kompromisu.
W przypadku ludzi uzyskanie pełnego konsensusu możliwe jest jak przypominają naukowcy w grupach średnio do około 150 osób (to tak zwana liczba Dumbara, określa liczbę osób, z którymi jesteśmy w stanie utrzymywać relacje i mieć nad nimi kontrolę). A pewne zadania, przed którymi staje lub może w przyszłości stanąć ludzkość wymagają zgodnej współpracy dużo większych grup. Dlatego umiejętność uzgodnienia wyniku działań w grupie nawet 1000 modeli AI, czyni je tak produktywnymi.
Jak mógłby wyglądać spór AI z perspektywy człowieka?
W przypadku braku zgody wśród ludzi często do konwersacji zakradają się negatywne emocje, które łatwiej nam wyrazić niż wdać się w polemikę. Wyjaśnienia takiego postępowania ludzi można szukać między innymi we wspomnianej niedostatecznie pojemnej pamięci człowieka, choć to tylko powierzchowne ujęcie problemu.
Modele AI prawdopodobnie mogą być niezgodne, ale czy w przypadku konfliktu interesów doszłoby do rękoczynów? Brytyjska firma Enginereed Arts, która od lat tworzy humanoidalne roboty dysponujące choćby twarzami zdolnymi do mimicznej ekspesji, przygotowała przykładowe wideo z dyskusją swoich takich dwóch robotów – Ameca i Azi, które reprezentują wizualnie i po części emocjonalnie, rozmowę dwóch modeli AI bazujących na Chat-GPT. Poniżej krótkie wideo z zapisem takiej dyskusji.
Trudno powyższą rozmowę uznać za kłótnię, ale widać, że pewne zachowania reprezentowane przez robotyczne twarze sugerują brak wzajemnej akceptacji. Kto wie jak wyglądałby spór AI, gdyby umożliwić jej ekspresję w stopniu większym niż tylko poprzez mimikę twarzy. I to prawdopodobnie tego powinniśmy się najbardziej obawiać – sytuacji, gdy AI ma moc sprawczą, a jej „poglądy” są niezgodne z naszymi i co gorsza niekoniecznie dla nas korzystne.
Źródło: inf. własna, iflscience, Scientific American, arXiv:2409.02822
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS