Imagen de escaparate

Servidores dedicados Ryzen AI Max

Libere un rendimiento de IA sin precedentes con el último silicio de AMD.
Empezar

Casos de uso de Ryzen AI Max

Desde la investigación de aprendizaje profundo hasta la inferencia en tiempo real, Ryzen AI Max escala con usted.

Investigación de IA
IA orientada al cliente

Los chatbots, los agentes virtuales, los asistentes de voz y la automatización del servicio de asistencia técnica requieren una inferencia de baja latencia y la capacidad de realizar ajustes en los registros de soporte propietarios.

Generación de contenido
Generación de contenido

Redacción de blogs y artículos, textos de marketing, fragmentos de código, informes de diseño: benefíciese de los clústeres de GPU de alto rendimiento para la generación de lotes y la iteración rápida.

Herramientas para desarrolladores
Herramientas para desarrolladores

Finalización de código, sugerencias de corrección de errores, generadores de documentación API: confíe en la inferencia rápida y en la capacidad de alojar múltiples versiones del modelo en paralelo.

IA de borde
Inteligencia artificial y IoT de borde

Implemente la inferencia de IA en el borde con nodos seguros y de bajo consumo de energía: experimente con nuevas arquitecturas, ingeniería rápida y extensiones multimodales.

Especificaciones y descripción general

Una mini PC compacta con el potente procesador AMD Ryzen AI 9 HX 370. Se comercializa como una máquina versátil para profesionales, creadores de contenido y jugadores que necesitan alto rendimiento en un formato compacto. Sus principales ventajas son sus capacidades de IA, sus potentes gráficos integrados y una amplia selección de puertos.

  • Procesador AMD Ryzen AI 9 HX 370
  • Capacidad de IA de hasta 80 TOPS / 50 NPU
  • GPU AMD Radeon 890M
  • Hasta 128 GB de RAM
  • Hasta 4 TB a través de 2 ranuras M.2
  • Sistema operativo compatible con Fedora 42
Rack de servidores Ryzen AI Max

Características y servicios

Potencia de GPU + NVLink

Proporciona el rendimiento bruto necesario tanto para la inferencia (latencia de submilisegundos) como para el ajuste fino de pesos de modelos de varios GB.

Almacenamiento NVMe de alta velocidad

Elimina los cuellos de botella de E/S al cargar tokenizadores grandes, archivos de puntos de control o transmisión de datos de entrenamiento.

Seguridad empresarial

Mantiene la confidencialidad de los corpus propietarios y los modelos entrenados, algo fundamental para las industrias reguladas.

Soporte experto 24/7

Ingenieros especialistas en IA listos para ayudarlo a solucionar problemas y optimizar.

Estudio LLM integrado y Olama

Ofrece a los usuarios una interfaz de usuario lista para usar para la ingesta de conjuntos de datos, ingeniería rápida, control de versiones y exposición de API sin desarrollo personalizado.

Escucha

Garantiza tiempo de actividad, rendimiento predecible y transparencia de costos cuando se ofrece la mini PC como parte de una solución de IA alojada.