Obraz prezentacyjny

Dedykowane serwery Ryzen AI Max

Uwolnij niespotykaną dotąd wydajność sztucznej inteligencji dzięki najnowszemu układowi scalonemu AMD.
Zacznij

Przykłady zastosowań Ryzen AI Max

Od badań z zakresu głębokiego uczenia się po wnioskowanie w czasie rzeczywistym — Ryzen AI Max dostosowuje się do Twoich potrzeb.

Badania nad sztuczną inteligencją
Sztuczna inteligencja zorientowana na klienta

Chatboty, wirtualni agenci, asystenci głosowi, automatyzacja pomocy technicznej – wymagają wnioskowania o niskim opóźnieniu i możliwości precyzyjnego dostrojenia w oparciu o zastrzeżone dzienniki pomocy technicznej.

Generowanie treści
Generowanie treści

Tworzenie blogów/artykułów, treści marketingowe, fragmenty kodu, opisy projektów — skorzystaj z klastrów GPU o wysokiej przepustowości do generowania wsadowego i szybkiej iteracji.

Narzędzia programistyczne
Narzędzia programistyczne

Uzupełnianie kodu, sugestie poprawek błędów, generatory dokumentacji API – polegaj na szybkim wnioskowaniu i możliwości hostowania wielu wersji modelu obok siebie.

Sztuczna inteligencja krawędziowa
Edge AI i IoT

Wdrażaj wnioskowanie AI na brzegu sieci za pomocą bezpiecznych i energooszczędnych węzłów, eksperymentując z nowymi architekturami, szybką inżynierią i rozszerzeniami multimodalnymi.

Specyfikacja i przegląd

Kompaktowy mini PC z wydajnym procesorem AMD Ryzen AI 9 HX 370. Jest reklamowany jako wszechstronne urządzenie dla profesjonalistów, twórców treści i graczy, którzy potrzebują wysokiej wydajności w kompaktowej obudowie. Jego głównymi atutami są funkcje sztucznej inteligencji, wydajna zintegrowana karta graficzna i bogaty wybór portów.

  • Procesor AMD Ryzen AI 9 HX 370
  • Możliwości AI do 80 TOPS / 50 NPU
  • Karta graficzna AMD Radeon 890M
  • Do 128 GB pamięci RAM
  • Do 4TB przez 2 gniazda M.2
  • Obsługiwany system operacyjny Fedora 42
Stojak serwerowy Ryzen AI Max

Funkcje i usługi

Zasilanie GPU + NVLink

Zapewnia przepustowość wymaganą zarówno do wnioskowania (opóźnienie poniżej milisekundy), jak i dostrajania wag modeli wielogigabajtowych.

Szybka pamięć masowa NVMe

Eliminuje wąskie gardła wejścia/wyjścia występujące podczas ładowania dużych tokenizerów, plików punktów kontrolnych lub przesyłania strumieniowego danych szkoleniowych.

Bezpieczeństwo przedsiębiorstwa

Zapewnia poufność zastrzeżonych korpusów i wyszkolonych modeli, co jest szczególnie istotne w przypadku regulowanych branż.

Wsparcie ekspertów 24/7

Inżynierowie specjalizujący się w sztucznej inteligencji są gotowi pomóc Ci w rozwiązywaniu problemów i optymalizacji.

Zintegrowane studio LLM i Olama

Udostępnia użytkownikom gotowy do użycia interfejs użytkownika umożliwiający pobieranie zbiorów danych, szybką inżynierię, wersjonowanie i udostępnianie interfejsu API bez konieczności niestandardowego tworzenia oprogramowania.

Monitorowanie

Gwarantuje dostępność, przewidywalną wydajność i przejrzystość kosztów w przypadku oferowania minikomputera jako części hostowanego rozwiązania AI.