A A+ A++

Osoby mające złe intencje coraz częściej modyfikują obrazy wygenerowane przez sztuczną inteligencję w taki sposób, aby zawierały fałszywe przesłanie. Chcąc temu przeciwdziałać, firma OpenAI opracowała narzędzie, które może wykryć modyfikacje wprowadzone do obrazów wygenerowanych przez jej sztuczną inteligencję.

Mowa o obrazach utworzonych przez DALL-E 3. OpenAI udostępniło w tym tygodniu takie narzędzia pierwszej grupie testerów. Osoby zainteresowany prowadzeniem takich testów powinni zajrzeć na tę stronę. Będą mogli wtedy ocenić skuteczność narzędzia, sprawdzić jak się sprawuje w rzeczywistym świecie, a także przyjrzeć się czynnikom determinującym treści generowane przez sztuczną inteligencję.

OpenAI zastrzega się przy tym, że skuteczność działania narzędzia zależy od tego, jak obraz został zmodyfikowany. Jeśli są to ordynarne fałszerstwa, narzędzie wykryje je bezbłędnie, Gorzej jest, jeśli osoba modyfikująca obraz ma doświadczenie w tego rodzaju manipulacjach. Wtedy narzędzie może mieć kłopoty z wykryciem oszustwa.

Zobacz również:

Pierwsze testy wykazały, że narzędzie spełnia pokładane w nim nadzieje. I tak narzędzie potrafiło 98% przypadków potwierdzić, że zaprezentowane jej obrazy zostały stworzone przez DALL-E 3. Odsetek zmodyfikowanych obrazów, które narzędzie zakwalifikowało jako prawdziwe, wyniósł 0,5% . Narzędzia miało też kłopoty z określeniem, czy obraz jest oryginalny czy zmodyfikowany wtedy, gdy fałszerz zmienił nieznacznie odcienie kolorów. OpenAI ma nadzieję rozwiązać tego typu problemy, zapewniając zewnętrznym testerom szerszy dostęp do narzędzia.

Niewątpliwą zaletą narzędzia jest to, że narzędzie nie bada znaków wodnych. Inne firmy mające w ofercie podobne narzędzia używają znaków wodnych, aby wskazać, że obraz jest generowany przez ich własne narzędzie AI. Kłopot w tym, ż można je dość łatwo usunąć, co czyni je nieprzydatnymi. Obrazy generowane przez sztuczną inteligencję są szczególnie szkodliwe w roku wyborczym. Wrogie partie mogą bowiem z łatwością wykorzystać takie obrazy, aby przedstawić kandydatów politycznych lub sprawy polityczne w negatywnym świetle. Biorąc pod uwagę ciągły postęp w generatorach obrazów AI, ustalenie, co jest prawdziwe, a co fałszywe, staje się coraz większym wyzwaniem.

OpenAI poinformowało również, że podjęło decyzję o dołączeniu do koalicji C2PA (Coalition for Content Provenance and Authenticity). Opracowany przez nią standard certyfikacji treści cyfrowych został zaakceptowany przez dostawców oprogramowania, producentów aparatów fotograficznych i platform internetowych.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułSamorządy rozpoczęły nową kadencję
Następny artykuł80 ton śmieci na dzikim wysypisku. Za sprzątanie zapłacili gliwiczanie