“Halucynacje” sztucznej inteligencji to poważne zjawisko, które może zniechęcić do korzystania z nowej technologii. Naukowcy z Oksfordu odkryli przyczynę tych problemów i znaleźli sposób na ich wyeliminowanie.
Sztuczna inteligencja rozwija się błyskawicznym tempie, wprowadzając nowości do różnych dziedzin naszego życia. Chatboty, takie jak ChatGPT, stają się coraz bardziej popularne dzięki temu, że pomagają ludziom w codziennych sprawach – to nie tylko ciekawostka, ale też cenne wsparcie w edukacji, handlu czy obsłudze klienta.
Technologia nie jest jednak doskonała. Poważnym problemem są tzw. halucynacje, przez które chatboty generują błędne odpowiedzi. Badacze z Oksfordu postanowili zgłębić temat i w magazynie Nature opisali szczegóły nowo opracowanej metody wykrywania konfabulacji.
Z czego biorą się “halucynacje” sztucznej inteligencji?
Niektóre przypadki “halucynacji” są spowodowane nieprawidłowymi danymi treningowymi dużych modeli językowych (LLM), uogólnieniem lub innymi skutkami ubocznymi gromadzenia danych, ale spora część takich przypadków powstaje podczas używania słów o wielu znaczeniach (entropii semantycznej). Sztuczna inteligencja nie zawsze rozróżnia odpowiadające znaczenie, przez co generuje niepożądane odpowiedzi.
Nowa metoda wykrywa entropię semantyczną w wynikach LLM, dzięki czemu badacze mogą ustalić prawdopodobieństwo halucynacji sztucznej inteligencji. Pozwoli to dokładniej sprawdzić odpowiedzi generowane przez chatboty, co z pewnością poprawi ich jakość i zwiększy zaufanie do nowej technologii. Dużą zaletą tej metody jest to, że działa ona bez potrzeby dodatkowego nadzoru ze strony człowieka.
Według zespołu badawczego “nowa metoda pomaga użytkownikom zrozumieć, kiedy muszą zachować szczególną ostrożność przy korzystaniu z LLM i otwiera nowe możliwości korzystania z LLM, które w przeciwnym razie byłyby niemożliwe przez ich zawodność”.
Ograniczone zaufanie to podstawa
Warto jednak pamiętać, że sztuczna inteligencja, nawet przy użyciu najbardziej zaawansowanych narzędzi do wykrywania błędów, może się mylić i udzielać błędnych lub szkodliwych odpowidzi (przykładem jest odpowiedź Google AI, które chorym na depresję podpowiadało skok z mostu). Technologia na pewno potrafi być pomocna, ale należy jej używać z ograniczonym zaufaniem.
foto na wejście: Adobe Stock
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS