OpenAI, firma stojąca za popularnym botem ChatGTP, wydała nowe narzędzie do identyfikacji tekstu wygenerowanego przez sztuczną inteligencję. Jednak jak przyznają twórcy oprogramowania – nie jest ono doskonałe.
Chat GPT to darmowy program generujący tekst w odpowiedzi na polecenie, w tym artykuły, eseje, żarty, a nawet poezję. Chatbot wydany przez OpenAI od momentu swojego debiutu w listopadzie zyskał ogromną popularność, budząc jednocześnie obawy o prawa autorskie, plagiaty, a nawet napędzenie machiny wojennej. W związku z tym jego twórcy postanowili spróbować rozwiązać ten problem.
OpenAI w nowym wpisie na swoim blogu poinformowało o uruchomieniu klasyfikatora wyszkolonego do rozróżniania tekstu pisanego przez SI od tekstu pisanego przez człowieka.
Dalsza część artykułu pod materiałem wideo
Klasyfikator SI wykryje teksty napisane przez bota
Klasyfikator SI, model językowy wyszkolony na zbiorze danych par tekstów napisanych przez człowieka i bota na ten sam temat, ma na celu odróżnienie tekstu wygenerowanego przez sztuczną inteligencję. Oprogramowanie korzysta z różnych dostawców, aby rozwiązać problemy takie jak zautomatyzowane kampanie dezinformacyjne, nieuczciwość akademicka czy pozycjonowanie chatbota SI jako człowieka. W końcu niedawno udowodniono, że Chat GPT może z powodzeniem zdać egzamin prawniczy.
OpenAI podaje, że klasyfikator w publicznej wersji beta jest bardzo zawodny w przypadku tekstów mających poniżej 1000 znaków. Natomiast tekst napisany przez SI może być edytowany, aby oszukać klasyfikator.
“Nasz klasyfikator nie jest w pełni wiarygodny” – przyznaje OpenAI. “Udostępniliśmy ten klasyfikator publicznie, aby uzyskać opinie na temat tego, czy niedoskonałe narzędzia takie jak to są przydatne. Nasza praca nad wykrywaniem tekstu wygenerowanego przez SI będzie kontynuowana i mamy nadzieję, że w przyszłości podzielimy się ulepszonymi metodami” – zapowiada firma. Warto zauważyć, że podobne narzędzia już funkcjonują w przestrzeni internetowej.
Konrad Siwik, dziennikarz dobreprogramy.pl
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS