A A+ A++

OpenAI, światowy lider w rozwoju sztucznej inteligencji, znów znalazł się w centrum uwagi, choć tym razem nie za sprawą ChatGPT. Z firmy odeszło właśnie dwóch specjalistów zespołu Superalignment, zajmującego się zagrożeniami AI. W tle pojawiły się oskarżenia o liczne zaniedbania.

A miało być tak pięknie – w lipcu zeszłego roku Sam Altman, CEO firmy OpenAI, szumnie zapowiedział powołanie zespołu Superalignment, który miał zajmować się bezpieczeństwem superinteligentnych modeli, analizą wynikających z niej zagrożeń oraz sposobami kontroli błyskawicznie rozwijającej się AI. Miał się zajmować, ale od jakiegoś czasu już się nie zajmuje. Dlaczego? Bo zdaniem osób, które właśnie ogłosiły swoją rezygnację i odeszły z firmy, OpenAI utrudniał działanie zespołu. 

Uruchom wideo

OpenAI i zmiana priorytetów

Na czele zespołu Superalignment stał Ilya Sutskever, dyrektor do spraw naukowych w OpenAI, a zarazem jeden ze współzałożycieli firmy oraz Jan Leike, kierownik zespołu dopasowującego i to właśnie oni zapoczątkowali falę odejść z firmy. Wraz z nimi zrezygnowała ponoć część dawnej rady dyrektorów, już wcześniej skonfliktowana z Samem Altmanem, szefem OpenAI, którego pod koniec zeszłego roku odwołano, a który pięć dni później wrócił na swoje stanowisko. Wówczas spekulowano, że powodem zwolnienia Altmana miał być konflikt z Ilyą Sutskeverem dotyczących właśnie kwestii bezpieczeństwa sztucznej inteligencji.

Dziś okazuje, że pomimo szumnych zapowiedzi o przeznaczeniu na badania zespołu do spraw bezpieczeństwa 20 procent zasobów obliczeniowych firmy, ich prośby często były odrzucane, i to nawet te o tylko część tej mocy obliczeniowej. Jak informuje Tech Crunch, sytuacja ta doprowadziła do tego, że w połowie maja 2024 szeregi firmy zdecydowało się opuścić kilku czołowych badaczy. Jan Leike publicznie podał swoje powody odejścia, podkreślając różnice w priorytetach z kierownictwem OpenAI, które zamiast skupić się na priorytetach bezpieczeństwa i solidności system AI zajmuje się przede wszystkim komercjalizacją swoich produktów. 

Co dalej z bezpieczeństwem AI

Po odejściu Leike’a i Sutskevera zadania Superalignment przejął John Schulman, kolejny współzałożyciel OpenAI. Niestety, już bez dedykowanemu temu zadaniu zespołowi. Jego rolę ma przejąć ponoć luźno powiązana grupa badaczy osadzona w różnych oddziałach firmy. Nietrudno się domyślić jakie obawy rodzi ta decyzja w kwestii skutecznego skupienia się na bezpieczeństwie w rozwijanych systemach AI. I to nawet jeśli część obowiązków Sutskevera i Leike przejmie nasz rodak – Jakub Piechocki, uważany za jednego z najwybitniejszych umysłów swojego pokolenia, który w połowie maja 2024 roku powołany został na stanowisko dyrektora naukowego w OpenAI.

Źródło: TechCrunch

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułBiblioteka będzie zamknięta 31 maja
Następny artykułWe wtorek rozpoczynają się Juwenalia Śląskie. Korowód studentów przejdzie ulicami miasta, będą też koncerty