A A+ A++

Firma o nazwie Koko chciała wesprzeć swoich użytkowników przy pomocy sztucznej inteligencji. Nie wszystkim eksperyment się spodobał – negatywne głosy pojawiły się przede wszystkim na Twitterze.

Sztuczna inteligencja jako wsparcie zdrowia psychicznego

ChatGPT to narzędzie, które może wiele – udziela odpowiedzi na złożone pytania, wyjaśnia koncepcje naukowe (niekiedy niestety z błędami), a także, jak twierdzą naukowcy, pewnego dnia będzie mógł wspomagać lekarzy w wykrywaniu wczesnych objawów Alzheimera. Chatbot OpenAI wzbudza też jednak poważne obawy, zarówno w takim gigancie technologicznym jak Google, jak i szkołach. Dla wielu istnienie tego typu narzędzi staje się też polem do wykonywania badań.

Firma o nazwie Koko postanowiła dowiedzieć się, jak wykorzystać sztuczną inteligencję do pomocy w opracowaniu wsparcia w kwestii zdrowia psychicznego dla ok. 4000 swoich użytkowników. Przedsiębiorstwo to oferuje usługę, która pozwala ludziom prosić o porady inne osoby.

W krótkim eksperymencie firma umożliwiła użytkownikom generowanie automatycznych odpowiedzi za pomocą „Koko Bot”, obsługiwanego przez GPT-3 OpenAI. Następnie można było je edytować, wysłać lub odrzucić. 30 000 wiadomości wysłanych przez sztuczną inteligencję podczas testu spotkało się z przeważającą pozytywną reakcją. Jednak firma zamknęła eksperyment po kilku dniach, ponieważ „wydawał się trochę sterylny”.

Współzałożyciel Koko, Rob Moriss, udzielił wywiadu dla serwisu Gizmodo, w którym powiedział:

Szczerze mówiąc, to będzie przyszłość. Będziemy myśleć, że wchodzimy w interakcje z ludźmi i nie wiemy, czy w grę wchodzi sztuczna inteligencja. Jak to wpływa na komunikację międzyludzką? Mam własne wyzwania związane ze zdrowiem psychicznym, więc naprawdę chcę, aby zostało to zrobione poprawnie.

Eksperyment wywołał oburzenie na Twitterze

Morris rozpoczął na Twitterze wątek dotyczący testu, w którym zasugerował, że użytkownicy nie wiedzieli, że sztuczna inteligencja była zaangażowana w ich opiekę. Napisał na Twitterze, że „kiedy ludzie dowiedzieli się, że wiadomości były współtworzone przez maszynę, to nie zadziałało”. Tweet wywołał burzę na temat etyki badań Koko.

Wiadomości skomponowane przez sztuczną inteligencję (i nadzorowane przez ludzi) zostały ocenione znacznie wyżej niż te napisane przez ludzi samodzielnie. Czas odpowiedzi skrócił się o 50%, do mniej niż minuty.

Morris powiedział, że te słowa spowodowały nieporozumienie: „ludźmi” w tym kontekście był on sam i jego zespół, a nie nieświadome osoby. Twierdzi on, że użytkownicy Koko wiedzieli, że wiadomości zostały napisane z pomocą bota i nie rozmawiali bezpośrednio ze sztuczną inteligencją.

Zostało to wyjaśnione podczas procesu wdrażania. Gdy w grę wchodziła sztuczna inteligencja, odpowiedzi zawierały zastrzeżenie, że wiadomość została napisana we współpracy z Koko Botem.

Morris mówi, że zamieszanie było nieporozumieniem i stwierdził, że nie powinien próbować omawiać swojego eksperymentu na Twitterze.

Jest coś w autentyczności, co zostaje utracone, gdy masz narzędzie pomocnicze, które pomaga w pisaniu, szczególnie w tego rodzaju kontekście. Na naszej platformie wiadomości wydawały się po prostu lepsze, kiedy wyczuwałem, że są bardziej napisane przez ludzi.

Eksperyment był nieetyczny?

Eksperyment rodzi pytania etyczne oraz wątpliwości co do tego, jak dobrze Koko poinformował użytkowników o wykorzystaniu AI. Istotną kwestią jest również ryzyko związane z testowaniem niesprawdzonej technologii w warunkach opieki zdrowotnej na żywo.

W kontekście akademickim lub medycznym nielegalne jest przeprowadzanie eksperymentów naukowych lub medycznych na ludziach bez ich świadomej zgody, co obejmuje dostarczanie badanym wyczerpujących informacji na temat potencjalnych szkód i korzyści wynikających z udziału.

 John Torous, dyrektor oddziału psychiatrii cyfrowej w Beth Israel Deaconess Medical Center w Bostonie, skomentował zaistniałą sytuację w następujący sposób:

Systemy takie jak Koko przyjmują nowatorskie podejście do opieki nad zdrowiem psychicznym, które może przynieść realne korzyści. Użytkownicy nie przechodzą jednak specjalistycznego szkolenia, a usługi te są zasadniczo nieprzetestowane. Gdy sztuczna inteligencja zostanie zaangażowana, problemy nasilają się jeszcze bardziej.

Normy i przepisy dotyczące badań akademickich zapewniają nie tylko bezpieczeństwo, ale też ustanawiają standardy udostępniania danych, co pozwala badaczom opierać się na innych eksperymentach, tworząc przy tym stale rosnący zasób wiedzy. John Torous podkreślił, że w branży cyfrowego zdrowia psychicznego standardy te są często ignorowane. Nieudane eksperymenty zwykle nie są publikowane, co według Torousa jest błędem – testy te mogłyby stanowić duże wsparcie w dalszym rozwoju tego typu pomocy.

Źródło: gizmodo.com

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułFerie z LOK i MOSiR
Następny artykułPodróżny przezornie ubezpieczony