Red Hat rozszerza zakres i możliwości adaptacyjne AI
Red Hat, dostawca rozwiązań bazujących na otwartym kodzie źródłowym, zaprezentował najnowszą wersję swojej platformy sztucznej inteligencji (AI) i uczenia maszynowego (ML) Red Hat OpenShift AI. Zbudowana na bazie rozwiązania Red Hat OpenShift umożliwia ona przedsiębiorstwom tworzenie i dostarczanie bazujących na AI aplikacji działających w dużej skali w chmurze hybrydowej.
Red Hat OpenShift AI 2.15 został zaprojektowany w celu zapewnienia zwiększonej elastyczności, możliwości dostrajania mechanizmów AI i śledzenia ich pracy w chmurach publicznych, centrach danych i infrastrukturze brzegowej. Rozwiązanie to pomaga przyspieszyć proces wdrażania w przedsiębiorstwach innowacyjnych rozwiązań w zakresie AI/ML oraz zapewnia ich spójność operacyjną na dużą skalę z większą systematycznością i silniejszą warstwą bezpieczeństwa.
Zdaniem analityków IDC, przedsiębiorstwa uwzględnione w rankingu Forbes Global 2000 przeznaczą ponad 40% swoich podstawowych wydatków IT na inicjatywy związane ze sztuczną inteligencją. Co więcej, wykorzystywanie przez przedsiębiorstwa generatywnej sztucznej inteligencji (gen AI) oraz technik automatyzacji pozwoli zwiększyć ich produktywność o bilion dolarów do 2026 roku. Red Hat uważa, że aby osiągnąć ten poziom inwestycji, konieczne jest zastosowanie platformy AI/ML, która może zarówno zarządzać cyklem życia modeli, jak i tworzyć aplikacje gen AI. Jednocześnie jest też wystarczająco elastyczna, aby działać obok tradycyjnych zadań obliczeniowych i aplikacji w chmurze hybrydowej.
Celem Red Hat OpenShift AI 2.15 jest pomoc firmom w sprostaniu pojawiającym się potrzebom związanym z obliczeniami AI oraz krytycznymi, natywnymi dla chmury aplikacjami, wykorzystywanymi przez współczesne przedsiębiorstwa. Wśród zaawansowanych funkcji dostarczanych wraz z najnowszą wersją Red Hat OpenShift AI znalazły się:
- rejestr modeli, obecnie udostępniany w wersji podglądu technicznego, który stanowi centralne miejsce do przeglądania zarejestrowanych modeli i zarządzania nimi. Rejestr zapewnia ustrukturyzowany i zorganizowany sposób udostępniania, wersjonowania, wdrażania, a także śledzenia modeli predykcyjnych i gen AI, metadanych oraz artefaktów. Dostępna jest również opcja udostępniania wielu rejestrów modeli. Red Hat przekazał także projekt rejestru modeli społeczności Kubeflow jako podprojekt;
- mechanizm wykrywania dryfu danych monitorujący zmiany w rozkładzie danych wejściowych dla wdrożonych modeli uczenia maszynowego. Funkcja ta pozwala analitykom danych wykrywać w czasie rzeczywistym sytuację, w której dane wykorzystywane w pracy modelu znacząco odbiegają od tych, na których został on wytrenowany. Wykrywanie dryfu pomaga zweryfikować niezawodność modelu poprzez ciągłe monitorowanie danych wejściowych, utrzymując model w zgodności z danymi rzeczywistymi i pomagając zapewnić dokładność jego prognoz na przestrzeni czasu;
- narzędzia do wykrywania zjawiska stronniczości wspierające naukowców zajmujących się danymi i inżynierów środowisk AI w budowaniu zaufania do sztucznej inteligencji. Narzędzia te nie tylko pomagają ocenić na podstawie danych treningowych, czy modele są bezstronne, ale także sprawdzają je pod kątem uczciwości podczas pracy w środowiskach produkcyjnych. Rozwiązania te pochodzą od społeczności open source TrustyAI, która zapewnia zróżnicowany zestaw narzędzi ułatwiających odpowiedzialny rozwój i wdrażanie środowisk sztucznej inteligencji;
- wykorzystanie adapterów niskiego rzędu (low-rank adapters, LoRA) umożliwiające bardziej wydajne dostrajanie wielkich modeli językowych (LLM), takich jak Llama 3. Pozwala to przedsiębiorstwom na skalowanie środowisk AI przy jednoczesnym zmniejszaniu kosztów i poziomu zużycia zasobów. Optymalizując proces szkolenia modeli i dostrajania w środowiskach natywnych dla chmury, rozwiązanie to zwiększa zarówno wydajność, jak i elastyczność, czyniąc wdrażanie sztucznej inteligencji bardziej dostępnym i łatwym do skalowania;
- wsparcie dla NVIDIA NIM, zestaw łatwych w użyciu mikrousług interfejsu, które przyspieszają dostarczanie aplikacji AI. Integracja z NIM – częścią platformy oprogramowania NVIDIA AI Enterprise – przyspiesza wdrażanie środowisk sztucznej inteligencji dzięki obsłudze szerokiej gamy modeli AI. W ten sposób za pośrednictwem interfejsów programistycznych (API) możliwe jest zapewnienie dostępu do mechanizmów skalowalnego wnioskowania, funkcjonujących lokalnie lub w chmurze;
- obsługa procesorów graficznych AMD umożliwiająca dostęp do obrazu środowiska roboczego AMD ROCm w celu wykorzystania procesorów graficznych AMD do opracowywania modeli AI. Ta nowa funkcja zapewnia również dostęp do obrazów, które mogą być używane do obsługi i szkolenia oraz dostrajania środowisk z procesorami graficznymi AMD. Wsparcie to daje firmom dodatkowe opcje korzystania z układów GPU w celu zwiększenia wydajności intensywnych obliczeniowo działań.
MOŻE ZAINTERESUJE CIĘ TAKŻE
Ulepszona obsługa modeli
Rozwiązanie Red Hat OpenShift AI 2.15, jako rozbudowana platforma AI/ML, wyposażone jest również w nowe możliwości związane z obsługą modeli sztucznej inteligencji, w tym popularnego środowiska uruchomieniowego vLLM dla platformy KServe, służącego do obsługi dużych modeli językowych LLM. Elastyczny i wydajny mechanizm vLLM jest doskonałym dodatkiem do obecnie obsługiwanych środowisk uruchomieniowych platformy, a użytkownicy mogą również dodawać własne niestandardowe opcje, zgodnie z ich wymaganiami biznesowymi.
W najnowszej wersji Red Hat OpenShift AI zapewniono również obsługę funkcji KServe Modelcars, która dodaje repozytoria Open Container Initiative (OCI) jako opcję przechowywania modeli w kontenerowych wersjach i uzyskiwania do nich dostępu. Ponadto wybór trasy prywatnej/publicznej dla punktów końcowych w KServe umożliwia przedsiębiorstwom zwiększenie poziomu bezpieczeństwa modelu poprzez przekierowanie go specjalnie do wewnętrznych punktów końcowych, gdy jest to wymagane.
Rozszerzone możliwości szkolenia z AI
W Red Hat OpenShift AI 2.15 rozbudowane zostały mechanizmy naukowej analizy danych i śledzenia procesu eksperymentowania na nich. Pozwala to odpowiedzialnym za ten obszar naukowcom na łatwiejsze zarządzanie, porównywanie i sprawdzanie przebiegów zadań analizy, pogrupowanych w logiczną strukturę. Do platformy dodany również został mechanizm dostrajania hiperparametrów za pomocą biblioteki Ray Tune, co zapewnia dostęp do zaawansowanych algorytmów optymalizacji w celu poprawy dokładności i wydajniejszego trenowania modeli predykcyjnej i generatywnej AI. Podstawowe obrazy kontenerów dla klastrów Ray są teraz zawarte w najnowszej wersji Red Hat OpenShift AI, a realizację zadań szkoleniowych i dostrajających można zaplanować w rozproszonych klastrach, aby przyspieszyć ich realizację oraz zmaksymalizować wykorzystanie węzłów.
– Firmy odkrywają oferowane przez bazujące na AI aplikacje i inne zadania obliczeniowe możliwości, a także kształtują konkretne strategie w tym obszarze. Obserwując to spodziewamy się wzrostu zainteresowania platformami bazowymi i popytu na nie. Konieczne jest, aby przedsiębiorstwa widziały możliwość uzyskania zwrotu z tych inwestycji za pośrednictwem niezawodnej, skalowalnej i elastycznej platformy bazującej na sztucznej inteligencji, działającej we wszystkich obszarach, w których znajdują się ich dane w chmurze hybrydowej. Najnowsza wersja Red Hat OpenShift AI zapewnia znaczną poprawę skalowalności, wydajności i efektywności operacyjnej, działając jednocześnie jako podstawa dla nadrzędnego cyklu życia modelu. Umożliwia to działom IT czerpanie korzyści z potężnej platformy sztucznej inteligencji, przy jednoczesnym zachowaniu możliwości budowania, wdrażania i uruchamiania w dowolnym środowisku, zgodnie z ich unikalnymi potrzebami biznesowymi – Joe Fernandes, vice president and general manager, AI business unit w Red Hat.
– Przedsiębiorstwa poszukują rozwiązań usprawniających proces szybkiego wdrażania aplikacji bazujących na sztucznej inteligencji. Integracja rozwiązania NVIDIA NIM z Red Hat OpenShift AI 2.15 zwiększa wydajność i skalowalność środowisk chmury hybrydowej, pomagając zespołom programistycznym i IT w wydajnym i bezpiecznym zarządzaniu oraz przyspieszaniu wdrożeń mechanizmów generatywnej sztucznej inteligencji – Justin Boitano, vice president, enterprise AI software w NVIDIA
Źródło: Red Hat