Można się nieźle zaskoczyć tym, o co niektórzy pytają ChatGPT i jak prowadzą konwersacje z chatbotami AI. Analiza publicznie dostępnych rozmów ludzi i sztucznej inteligencji prowadzi do ciekawych wniosków. Jaka tematyka jest często poruszana i czy wszystkie takie rozmowy są bezpieczne? Komentarza udzielił nam ekspert – Radosław Mechło, Head of AI w BUZZcenter.
ChatGPT, Microsoft Copilot, Gemini oraz wiele innych chatbotów AI codziennie przetwarza ogrom pytań kierowanych przez internautów z różnych stron świata. Czy kiedykolwiek zastanawialiście się, o co ludzie na ogół pytają chatboty? Albo, z jakimi najdziwniejszymi pytaniami mierzy się sztuczna inteligencja?
WildChat stanowi jedną z największych publicznych baz danych interakcji człowiek-bot. To zbiór konwersacji prowadzonych przez ludzi, którzy wyrazili zgodę na gromadzenie historii czatów. Ogrom rozmów w różnych językach, również polskim, można przeglądać i analizować, a to prowadzi do interesujących wniosków. O co pytać ChatGPT? A raczej, o co lepiej nie pytać chatbotów?
Przeglądanie ogromnej bazy konwersacji ludzi z AI zwraca uwagę przede wszystkim to, jaka tematyka najczęściej przewija się podczas rozmów z chatbotami. Niektóre pytania mogą zaskoczyć. O co przeważnie prosimy sztuczną inteligencję i czy każda taka konwersacja jest bezpieczna? Nie trzeba nawet stosować filtrów, aby zauważyć, jakiego rodzaju pytania górują nad innymi. Najczęściej poruszana tematyka nie zaskakuje – dotyczy bowiem pomocy w tzw. burzy mózgów, w pracy i w przygotowywaniu zadań do szkoły lub na studia.
Ludzie proszą ChatGPT o wsparcie przy wymyśleniu nazwy firmy, napisaniu kodu, stworzeniu postaci do pisanej książki, a nawet do budowania wątków w Dungeons & Dragons. Uczniowie i studenci proszą o pomoc w wykonaniu zleconych zadań, albo wklejają pytania i instruują AI, by wykonała całą pracę za nich. Powody podobnych działań mogą być różne, od chęci skrócenia czasu poświęconego na dane zagadnienie, przez brak wsparcia ze strony bliskich i przyjaciół, po lenistwo.
– Trzeba pamiętać o ogromnym potencjale edukacyjnym narzędzi AI. Chatboty mogą pełnić rolę nauczycieli, którzy dostosowują poziom oraz zakres materiału do użytkownika, co przyspiesza przyswajanie wiedzy. Obecnie mamy niemal nieograniczone możliwości edukacji online na wielu renomowanych uczelniach, co warto wykorzystać dla budowania lepszej przyszłości — powiedział GeekWeekowi Radosław Mechło, Head of AI w BUZZcenter, ceniony konsultant AI, cybernetyk, trener i doradca z obszaru AI.
Te wątki nie wzbudzają więc większego zdziwienia – ale to tylko namiastka tego, o czym potrafimy pisać do sztucznej inteligencji.
Zobacz też: ChatGPT rośnie jak na drożdżach. Rekordowa liczba użytkowników
Pojawiają się też zgoła inne tematy – sztuczna inteligencja napotyka prośby o porady dot. zdrowia, na przykład pomoc w ułożeniu diety, znalezieniu sposobu na radzenie sobie z obniżonym nastrojem czy w diagnozie objawów. Zdarzają się też pytania na temat związków, nawiązujące m.in. do flirtu, zdrady czy pomysłów na randkę. Duży odsetek rozmów stanowią też próby nakłonienia botów do prowadzenia czatu erotycznego, czy generowania innych tego typu treści. Jest też inny aspekt – tworzenia sobie wirtualnego towarzysza i emocjonalnego przywiązywania się do takiej postaci AI. Ten trend rozwinął się podczas pandemii, a przeglądając zasoby WildChat można natknąć się na niego wielokrotnie.
– Istnieje ryzyko uzależnienia od chatbotów, które udają relacje międzyludzkie. Z jednej strony mogą one pomagać osobom samotnym, zapewniając wsparcie emocjonalne bez oceniania. Z drugiej jednak strony, ciągła „wyrozumiałość” AI może ograniczać prawdziwe relacje międzyludzkie, gdyż w rzeczywistości nie zawsze możemy oczekiwać pochwał — zwraca uwagę Radosław Mechło.
Ekspert zauważa, że informacja jest dziś cenną walutą, a dane zebrane z realnych rozmów z użytkownikami mogą stanowić wartościowy materiał do badań i analiz.
– Pomaga to w rozwiązywaniu problemów, które dotykają użytkowników na co dzień. Jednak przetwarzanie tych danych musi odbywać się w sposób bezpieczny, a wirtualni rozmówcy powinni wspierać użytkowników, a nie prowadzić do uzależnienia. W przeciwnym razie możemy pogłębić problem samotności, gdzie zamiast prawdziwych kontaktów, będziemy szukać ukojenia w cyberprzestrzeni — przekazał GeekWeekowi Mechło.
Czytaj też: Czy asystenci AI potrafią myśleć samodzielnie i mają uczucia? Odpowiedzi ankietowanych mogą zaskoczyć
Co ważne, w przypadku wszystkich kategorii ludzie niezwykle często karmili boty mnóstwem informacji osobistych, zapominając być może, że wyrazili zgodę na gromadzenie historii czatu. Można znaleźć nazwiska, adresy, numery telefonów i „sekrety” funkcjonowania różnych firm. Czy potrzeba bliskości, pomocy i odpowiedzi na różne inne pytania były tak silne, że zaburzyły realny obraz działań takich, jak udostępnianie AI danych wrażliwych?
Warto wziąć pod uwagę fakt, że eksperci wskazują, iż baza WildChat dobrze obrazuje ogólne zachowania internautów, niezależnie od tego, czy korzystają z Ch … czytaj dalej
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS