Immagine della vetrina

Server dedicati Ryzen AI Max

Sfrutta prestazioni di intelligenza artificiale senza precedenti con l'ultimo silicio di AMD.
Iniziare

Casi d'uso di Ryzen AI Max

Dalla ricerca basata sul deep learning all'inferenza in tempo reale, Ryzen AI Max si adatta alle tue esigenze.

Ricerca sull'intelligenza artificiale
Intelligenza artificiale rivolta al cliente

Chatbot, agenti virtuali, assistenti vocali, automazione dell'help desk: richiedono inferenza a bassa latenza e la capacità di ottimizzare i registri di supporto proprietari.

Generazione di contenuti
Generazione di contenuti

Redazione di blog/articoli, testi di marketing, frammenti di codice, brief di progettazione: trai vantaggio dai cluster GPU ad alta produttività per la generazione di batch e l'iterazione rapida.

Strumenti per sviluppatori
Strumenti per sviluppatori

Completamento del codice, suggerimenti per la correzione di bug, generatori di documentazione API: affidati a un'inferenza rapida e alla possibilità di ospitare più versioni del modello affiancate.

Intelligenza artificiale al limite
Intelligenza artificiale e IoT all'avanguardia

Distribuisci l'inferenza dell'IA all'edge con nodi sicuri e a basso consumo energetico, sperimentando nuove architetture, progettazione rapida ed estensioni multimodali.

Specifiche e panoramica

Un mini PC compatto dotato del potente processore AMD Ryzen AI 9 HX 370. È commercializzato come una macchina versatile per professionisti, creatori di contenuti e gamer che necessitano di prestazioni elevate in un formato compatto. I suoi principali punti di forza sono le funzionalità di intelligenza artificiale, la potente scheda grafica integrata e un'ampia gamma di porte.

  • Processore AMD Ryzen AI 9 HX 370
  • Capacità AI fino a 80 TOPS / 50 NPU
  • Scheda grafica AMD Radeon 890M
  • Fino a 128 GB di RAM
  • Fino a 4 TB tramite 2 slot M.2
  • Sistema operativo supportato da Fedora 42
Rack per server Ryzen AI Max

Caratteristiche e servizi

Potenza GPU + NVLink

Fornisce la capacità di elaborazione grezza necessaria sia per l'inferenza (latenza inferiore al millisecondo) sia per la messa a punto su pesi di modelli multi-GB.

Archiviazione NVMe ad alta velocità

Elimina i colli di bottiglia I/O durante il caricamento di tokenizzatori di grandi dimensioni, file di checkpoint o dati di addestramento in streaming.

Sicurezza aziendale

Mantiene riservati i corpora proprietari e i modelli addestrati, aspetto fondamentale per i settori regolamentati.

Supporto esperto 24 ore su 24, 7 giorni su 7

Ingegneri specializzati in intelligenza artificiale pronti ad aiutarti a risolvere i problemi e a ottimizzare.

Studio LLM integrato e Olama

Offre agli utenti un'interfaccia utente pronta all'uso per l'inserimento di set di dati, la progettazione di prompt, il controllo delle versioni e l'esposizione delle API senza sviluppo personalizzato.

Monitoraggio

Garantisce tempi di attività, prestazioni prevedibili e trasparenza dei costi quando il mini PC viene offerto come parte di una soluzione di intelligenza artificiale ospitata.