Sztuczna inteligencja to obecnie najgorętszy temat w naszej branży i nic dziwnego, że technologia ta wzbudza wiele kontrowersji, choćby w zakresie pozyskiwania danych. Dobrym przykładem jest najnowsza sytuacja z Google Bard, które zostało oskarżone o plagiat artykułu Tom’s Hardware. Według redaktora naczelnego serwisu, Avrama Piltcha, Bard skopiował dane z jednego z ostatnich tekstów bez podania ich źródła. Co ciekawe, chatbot ostatecznie przeprosił za swoje działanie, gdy Piltch zwrócił uwagę na plagiat.
Według Piltcha, problem wyszedł na jaw, gdy zapytał Barda o wydajność procesorów Intel Core i9-13900K i AMD Ryzen 9 7950X3D. Chatbot zapytany o to, który jest szybszy, powiedział, że ten drugi, dodając: „W naszych testach Ryzen 9 7950X3D za 699 USD jest o 12% szybszy grach 1080p niż Core i9-13900K za 589 USD przy ustawieniach fabrycznych, i 9% szybszy, gdy chipy są podkręcone”.
Google Bard dokonało plagiatu artykułu Tom’s Hardware na temat wydajności najnowszych procesorów Intela i AMD.
Okazało się, że te dane zostały bezpośrednio wzięte z artykułu Tom’s Hardware, a całe zdanie było nieznacznie przerobioną wersją oryginału. Pomimo czerpania informacji konkretnego portalu, Bard nie dał żadnego odnośnika do oryginalnego artykułu i nie sugerował, że jest to cytat, a sugerując, że dane pochodziły z testów przeprowadzonych przez Google (stwierdzenie „W naszych testach…”).
Oprócz zarzutów o plagiat, Piltch zwrócił również uwagę, że odpowiedź Barda była niekompletna, a mogła nawet wprowadzać w błąd. Chatbot Google stwierdził bowiem, że procesor AMD był szybszy niż układ Intela w grach, Tom’s zauważył jednak, że układ Intela był lepszy w większości aplikacji zwiększających produktywność, a nie pytał jedynie o wydajność gamingową. Co więcej, artykuł Tom’s Hardware zalecał tańszy układ Intela zamiast procesora AMD, chyba że granie jest dla nas priorytetem. Bard pominął wszystkie subtelniejsze niuanse porównania i ostatecznie podkreślił tylko aspekt wydajności w grach obu układów, zapewniając w ten sposób niekompletną analizę.
Plagiatowanie przez chatbota AI nie jest niczym nowym. Według The Wall Street Journal Google Bard ma zwyczaj serwowania odpowiedzi bez podawania linków do źródeł. Jako przykład, w publikacji podano, że w niedawnej wersji demonstracyjnej chatbot oferował podsumowanie wielu wiadomości z The New York Times, ale nie zawierał linku do żadnego artykułu. Zamiast tego po prostu zakończył swoją odpowiedź zdaniem: „Więcej informacji na temat tych i innych historii można znaleźć na stronie internetowej NYT”.
Nic więc dziwnego, że dziennikarze i wydawcy tak walczą z chatbotami pokroju Bard czy ChatGPT, ponieważ może to zmniejszyć ruch na ich stronach internetowych i zmniejszyć przychody z reklam. Inną ciekawą, a dla niektórych niepokojącą kwestią jest fakt, że Bard przyłapany na plagiacie przeprosił. Merriam Webster definiuje przeprosiny jako „przyznanie się do błędu lub nieuprzejmości, któremu towarzyszy wyraz żalu”. Rodzi to pytanie, w jaki sposób sztuczna inteligencja może przepraszać, skoro wymaga to ludzkich emocji, a konkretnie żalu lub wyrzutów sumienia?
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS