Oparte na sztucznej inteligencji narzędzie do oceny ryzyka jest najnowszym z nowej fali produktów opartych na technologii generatywnej sztucznej inteligencji wkraczających na rynek bezpieczeństwa.
Asystent AI z dużym modelem językowym (LLM), zaprojektowany tak, aby działał jak chatbot na stronie internetowej i pomagał użytkownikom w zadaniach związanych z zarządzaniem ryzykiem stron trzecich, jest już dostępny u dostawcy TPRM, firmy Prevalent. Ideą nowego narzędzia, nazwanego Alfred, jest poprowadzenie użytkowników przez typowe kwestie związane z oceną i zarządzaniem ryzykiem, w których mogą mieć ograniczoną wewnętrzną wiedzę specjalistyczną, skracając czas podejmowania decyzji i poprawiając ich dokładność.
„Od wewnątrz” Alfred opiera się na technologii generatywnej sztucznej inteligencji wspieranej przez Microsoft OpenAI, wykorzystując uogólnione dane dotyczące zdarzeń i obserwacji ryzyka w celu wygenerowania dokładnych informacji o profilu ryzyka danego klienta. Firma twierdzi, że wszystkie dane są anonimowe, a wytyczne Alfreda są oparte na standardach branżowych, takich jak NIST, ISO i SOC2. Sztuczna inteligencja jest zintegrowana z istniejącym rozwiązaniem TPRM firmy Prevalent w sposób zaprojektowany tak, aby był bezproblemowy dla obecnych użytkowników. Prevalent wystosował komunikat prasowy informujący, że wyniki AI są stale kontrolowane i sprawdzane pod kątem dokładności, a dane użyte do ich szkolenia zostały „zweryfikowane przez ponad 20 lat doświadczenia w branży”.
Zobacz również:
Brad Hibbert, COO i CSO w Prevalent, powiedział, że klienci firmy wyrazili zaciekawienie wykorzystaniem sztucznej inteligencji w ocenie ryzyka, pomimo naturalnej ostrożności. Prevalent przyjął zatem coś, co Hibbert nazwał „podejściem opartym na przypadkach użycia”. „Ważne jest, aby pamiętać, że możliwości związane ze sztuczną inteligencją zostały włączone jako funkcje do platformy Prevalent już od jakiegoś czasu. [Wraz z] analityką ML i analizą dokumentów NLP, ale jest to pierwsza konwersacyjna / generatywna funkcja AI”, uważa Hibbert.
Podczas gdy podstawowy proces decyzyjny Alfreda nie jest jeszcze zależny od informacji dostarczonych przez klienta, Hibbert powiedział, że interfejs użytkownika i przepływ pracy zostały zaprojektowane częściowo w oparciu o wnioski wyciągnięte z opinii konsumentów. Zauważył również, że firma planuje dodatkowe funkcje generatywnej sztucznej inteligencji dla swojej platformy, w tym ulepszony przegląd artefaktów bezpieczeństwa i zautomatyzowaną populację ocen (zasadniczo wypełnianie złożonych formularzy bezpieczeństwa), ale nie są one jeszcze dostępne. „Nasze podejście do rozwoju nadal koncentruje się na rozwiązywaniu rzeczywistych problemów klientów. Alfred rozwiązuje problem braku kontekstu lub wykwalifikowanych zasobów, aby zrozumieć, co oznacza ryzyko i co z nim zrobić” – powiedział Hibbert. “.
Alfred jest dostępny do użytku dla wszystkich klientów platformy Prevalent od teraz, bez dodatkowych opłat.
Oprogramowanie dołącza do fali narzędzi opartych na sztucznej inteligencji dodawanych do produktów bezpieczeństwa od wielu różnych dostawców. W tym tygodniu firma AuditBoard dodała nowe możliwości AI i analityczne w zakresie ryzyka i zgodności, a w zeszłym tygodniu firma Vanta ogłosiła, że wprowadziła generatywną sztuczną inteligencję do swojego podstawowego produktu w zakresie bezpieczeństwa i zgodności. Niektórzy z największych dostawców technologii również włączają generatywną sztuczną inteligencję do swoich ofert bezpieczeństwa. Na przykład w marcu Microsoft ogłosił wprowadzenie generatywnej sztucznej inteligencji Security Copilot, implementacji GPT-4.
Źródło: CSO
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS