A A+ A++

ChatGPT to przydatne narzędzie, z którego korzysta wiele osób, jednak nie wszyscy są do niego optymistycznie nastawieni. Wiele japońskich firm wprowadziło zakazy używania sztucznej inteligencji w pracy, ze względu na ryzyko wycieku informacji.

Źródło fot. Alexandra_Koch/Pixabay

i

ChatGPT pokazuje, jak bardzo sztuczna inteligencja może nam ułatwiać codzienne życie. Narzędzie zyskujące popularność w błyskawicznym tempie nie tylko pomaga wyszukiwać informacje w sieci, ale też stawia wyjątkowo trafne diagnozy lekarskie oraz może zająć się biznesem (z przymrużeniem oka). Całkiem niedawno, w ramach eksperymentu, chatbot pomyślnie zdał bowiem amerykański egzamin lekarski USMLE, który muszą zaliczyć studenci medycyny, aby zostać licencjonowanymi lekarzami.

Nie wszyscy uważają jednak sztuczną inteligencję za użyteczne narzędzie. Jak donosi Techgoing, część dużych japońskich firm zakazała swym pracownikom korzystania z ChatGPT oraz innych sieci neuronowych, ze względu na ryzyko wycieku informacji i inne zagrożenia.

SoftBank zabronił przetwarzania informacji umożliwiających zidentyfikowanie firmy lub innych poufnych danych za pomocą AI. Hitachi zamierza wprowadzić nowe zasady etyczne dotyczące korzystania ze sztucznej inteligencji, które doprecyzują standardy przyjęte przez koncern w 2021 roku. Fujitsu z kolei ostrzegło pracowników o szeregu problemów etycznych i prawnych pojawiających się podczas korzystania z podobnych usług. Firma powołała też do życia specjalny dział IT, który zajmie się decyzjami związanymi z wykorzystaniem sztucznej inteligencji.

Duże firmy zakazują AI

Oprócz wymienionych firm, podobne zakazy wprowadziły także Mizuho Financial Group, MUFG Bank i Sumitomo Mitsui Banking, które całkowicie zablokowały dostęp do ChatGPT z firmowych komputerów, aby zapobiec wyciekom informacji oraz nadużyciom. Nieco luźniejsze zasady ma Panasonic Connect, który wprawdzie wykorzystuje AI do tworzenia dokumentów, ale dopiero po podjęciu kroków zapobiegających wyciekowi informacji. Ponadto pouczono pracowników, aby nie wprowadzali do systemu żadnych danych osobowych.

Pierwsze firmy zakazują użycia ChatGPT w pracy - ilustracja #1

ChatGPT pomaga, ale niesie za sobą sporo niejasności. Źródło: Alexandra_Koch/Pixabay

Zdaniem ekspertów korzystanie z takich usług sprawia, że pracownicy stają się mniej ostrożni, co zwiększa ryzyko wyprowadzenia poufnych danych poza firmę. Problem stanowi również udzielanie przez ChatGPT błędnych odpowiedzi, a to może spowodować rozprzestrzenianie się fałszywych informacji wśród pracowników i klientów. Specjaliści uważają więc, że takie usługi powinny zostać wstępnie przetestowane przez dedykowane zespoły, aby opracować zasady ich wykorzystania.

Sztuczna inteligencja weszła na salony drzwiami razem z futryną. Dlatego warto już teraz zadbać o jasne i przejrzyste zasady używania takich narzędzi, które pozwolą uniknąć zagrożeń, jakie mogą się pojawić.

Pierwsze firmy zakazują użycia ChatGPT w pracy - ilustracja #2

Zapraszamy Was na nasz nowy kanał na YouTube – tvtech, który jest poświęcony zagadnieniom związanym z nowymi technologiami. Znajdziecie tam liczne porady dotyczące problemów z komputerami, konsolami, smartfonami i sprzętem dla graczy.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułZakazali uczniom wychodzić do toalety. Wybuchł ogromny protest
Następny artykuł​Zdał egzamin na prawo jazdy za brata. Obaj staną przed sądem