A A+ A++

“Halucynacje” sztucznej inteligencji to poważne zjawisko, które może zniechęcić do korzystania z nowej technologii. Naukowcy z Oksfordu odkryli przyczynę tych problemów i znaleźli sposób na ich wyeliminowanie.

Sztuczna inteligencja rozwija się błyskawicznym tempie, wprowadzając nowości do różnych dziedzin naszego życia. Chatboty, takie jak ChatGPT, stają się coraz bardziej popularne dzięki temu, że pomagają ludziom w codziennych sprawach – to nie tylko ciekawostka, ale też cenne wsparcie w edukacji, handlu czy obsłudze klienta. 

Technologia nie jest jednak doskonała. Poważnym problemem są tzw. halucynacje, przez które chatboty generują błędne odpowiedzi. Badacze z Oksfordu postanowili zgłębić temat i w magazynie Nature opisali szczegóły nowo opracowanej metody wykrywania konfabulacji.

Uruchom wideo

Z czego biorą się “halucynacje” sztucznej inteligencji? 

Niektóre przypadki “halucynacji” są spowodowane nieprawidłowymi danymi treningowymi dużych modeli językowych (LLM), uogólnieniem lub innymi skutkami ubocznymi gromadzenia danych, ale spora część takich przypadków powstaje podczas używania słów o wielu znaczeniach (entropii semantycznej). Sztuczna inteligencja nie zawsze rozróżnia odpowiadające znaczenie, przez co generuje niepożądane odpowiedzi. 

Nowa metoda wykrywa entropię semantyczną w wynikach LLM, dzięki czemu badacze mogą ustalić prawdopodobieństwo halucynacji sztucznej inteligencji. Pozwoli to dokładniej sprawdzić odpowiedzi generowane przez chatboty, co z pewnością poprawi ich jakość i zwiększy zaufanie do nowej technologii. Dużą zaletą tej metody jest to, że działa ona bez potrzeby dodatkowego nadzoru ze strony człowieka. 

Według zespołu badawczego “nowa metoda pomaga użytkownikom zrozumieć, kiedy muszą zachować szczególną ostrożność przy korzystaniu z LLM i otwiera nowe możliwości korzystania z LLM, które w przeciwnym razie byłyby niemożliwe przez ich zawodność”.

Ograniczone zaufanie to podstawa

Warto jednak pamiętać, że sztuczna inteligencja, nawet przy użyciu najbardziej zaawansowanych narzędzi do wykrywania błędów, może się mylić i udzielać błędnych lub szkodliwych odpowidzi (przykładem jest odpowiedź Google AI, które chorym na depresję podpowiadało skok z mostu). Technologia na pewno potrafi być pomocna, ale należy jej używać z ograniczonym zaufaniem.

foto na wejście: Adobe Stock

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułKadra: Porażka z Chorwatami. Znów bez Sochana
Następny artykułWarto uczyć się w Gorzycach!!!