Rozpoczęta w Chicago konferencja Microsoft Ignite to jedno z najważniejszych wydarzeń technologicznych tego roku, a jak można było się spodziewać, głównym tematem jest sztuczna inteligencja (AI).
Microsoft, kontynuując swoje inwestycje w rozwój AI, przedstawił nowe narzędzia dedykowane deweloperom, które celują w integrację technologii z komputerami określanymi jako „GeForce RTX AI PCs”. Współpraca z firmą Nvidia nadaje tym inicjatywom dodatkowego rozmachu, potwierdzając wiodącą rolę giganta GPU w rewolucji AI. Jednym z najważniejszych ogłoszeń było wprowadzenie narzędzi wspierających tworzenie tzw. cyfrowych ludzi. Te zaawansowane wirtualne byty mają stać się twarzami cyfrowych asystentów, agentów i awatarów, zdolnymi do postrzegania świata i interakcji w sposób przypominający ludzki. W tym celu Nvidia zaprezentowała model Nvidia Nemovision-4B-Instruct, który bazuje na technologiach Nvidia Vila i Nvidia NeMo. Nowy model ma umożliwić „cyfrowym ludziom” postrzeganie obrazów zarówno na ekranie, jak i w rzeczywistości, podobnie jak ludzie. Nvidia określa to jako kluczowy krok w kierunku „multimodalności” — zdolności łączenia różnych źródeł danych, takich jak tekst, obraz i dźwięk, w celu podejmowania trafnych decyzji i działań.
„Multimodalność stanowi fundament przyszłości cyfrowych interakcji, pozwalając agentom na samodzielne rozumowanie i minimalizowanie zależności od użytkownika” – czytamy w oświadczeniu firmy Nvidia.
Mistral NeMo i usprawnienia TensorRT
Kolejne innowacje Nvidia dotyczą modeli językowych i optymalizacji przetwarzania danych. Nowy pakiet Mistral NeMo Minitron 128k Instruct to seria lekkich modeli językowych o dużym zakresie kontekstu. Dostępne w wersjach 2, 4 i 8 miliardów parametrów, zostały zaprojektowane tak, aby działać nawet na urządzeniach o niskim poborze mocy. Z kolei narzędzie TensorRT Model Optimizer otrzymało aktualizacje, które mają znacząco zwiększyć wydajność modeli AI. Nvidia zapowiada, że dzięki nowym funkcjom, możliwe będzie zmniejszenie zużycia pamięci GPU nawet o 2,6 razy przy użyciu formatu FP16. Optymalizacje te obejmują wsparcie dla środowisk wykonawczych opartych na ONNX, takich jak CUDA, TensorRT i DirectML.
Konkurencja w świecie AI
Podczas gdy Nvidia wzmacnia swoją dominację w sektorze AI, konkurenci także podejmują działania. Intel, choć uznaje wyższość Nvidii w segmentach high-end, koncentruje się na oferowaniu korzystnych cenowo rozwiązań z akceleratorami Gaudi 3. AMD, z kolei, rozwija swoje procesory Epyc 5. generacji oraz akceleratory AI, takie jak MI325X, które rywalizują z układami Nvidii w zakresie wydajności.
Konferencja Microsoft Ignite 2024 potrwa do piątku, a jej początek wyraźnie pokazuje, że AI pozostaje kluczowym obszarem rozwoju technologicznego. W najbliższych dniach można spodziewać się kolejnych prezentacji związanych z AI, w tym nowych projektów Microsoftu i jego partnerów.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS