Instancias GPU H100
Acelera tus proyectos de IA con las instancias GPU H100
Rendimiento de vanguardia para el entrenamiento, la inferencia y las cargas de trabajo de datos más exigentes en un cloud europeo, fiable y transparente.
¿Por qué elegir los GPU NVIDIA H100?
Potentes
Hasta 4 veces más rápidos que los A100 para el entrenamiento de modelos de IA complejos y la generación de contenidos.
Eficientes
El Transformer Engine FP8 optimiza el cálculo para los LLM y la GenAI, ofreciendo una mejora significativa en rendimiento y energía.
Compatibles
Totalmente compatibles con CUDA, PyTorch, TensorFlow y JAX. Aprovecha tus optimizaciones existentes sin necesidad de adaptar tu infraestructura.
Soberanas
Disponibles en nuestro Public Cloud, garantizando flexibilidad, transparencia y cumplimiento normativo europeo.
Optimizada para tus cargas de trabajo de IA y datos
Entrenamiento e inferencia de LLM
Acelera tus modelos hasta 70 mil millones de parámetros (Llama 2, Mistral, Falcon, etc.) aprovechando la potencia del Transformer Engine y el ancho de banda de memoria del H100.
IA generativa multimodal
Crea, entrena y despliega tus modelos de generación de imágenes, audio y vídeo a gran escala, con total fluidez.
Data science y computación de alto rendimiento
Optimiza tus cálculos intensivos: simulación, modelado científico o procesamiento paralelo masivo. Todo esto, con un rendimiento constante y baja latencia.
Especificaciones
Características técnicas
GPU
De 1 a 4 GPU por instancia
Memoria GPU
80 GB de HBM3 ultrarrápida por GPU
Almacenamiento potente
Passthrough NVMe local en la mayoría de las instancias
Red pública y privada
Hasta 25 Gb/s incluidos
Automatización
Gestión a través del área de cliente, API, OVHcloud CLI…
Seguro y privado
Certificaciones ISO27001, SOC, alojamiento de datos de salud…
Nuestra gama de Cloud GPU
Maximiza tu ROI con una infraestructura GPU flexible
Precios transparentes
Paga solo por los recursos que utilizas, sin costes ocultos. Mantén el control de tus costes mientras disfrutas de un rendimiento óptimo.
Escalabilidad instantánea
Aumenta o reduce tus recursos GPU bajo demanda, en unos pocos clics. Adapta tu capacidad a tus cargas de trabajo de IA y datos con facilidad.
Soberanía y cumplimiento normativo
Tus datos se alojan en un cloud europeo certificado, garantizando la seguridad, la transparencia y el cumplimiento de las regulaciones (RGPD, ISO, HDS).
Accesibilidad sin barreras de entrada
GPU H100 accesibles para todos: desde el «proof of concept» hasta el despliegue en producción, sin requerir un volumen mínimo ni restricciones en el hardware.
¿Cómo elegir mi GPU para hacer inferencia?
Modelos compactos
Con hasta 7 mil millones de parámetros, el A100 ofrece una excelente relación rendimiento-precio.
LLM de escala intermedia
Con hasta 30 mil millones de parámetros, el H100 ofrece el mejor equilibrio entre velocidad, eficiencia energética y compatibilidad con «frameworks».
Modelos grandes
Con 65 mil millones o ventanas contextuales ampliadas, el H200 proporciona el ancho de banda de memoria necesario para tiempos de respuesta estables.
Configura tus instancias GPU
FAQ
¿Cuál es el SLA garantizado por OVHcloud en las instancias GPU?
El compromiso de nivel de servicio (SLA) es del 99,99 % de disponibilidad mensual en las instancias GPU. Para más información, consulta las Condiciones Generales de Servicio.
¿Qué hipervisor se utiliza para la virtualización de las instancias?
Al igual que otros modelos, las instancias GPU están virtualizadas mediante el hipervisor KVM del núcleo Linux.
¿Qué es PCI Passthrough?
Las tarjetas con procesadores gráficos son accesibles a través del bus PCI del servidor físico. PCI Passthrough es una funcionalidad del hipervisor que permite dedicar hardware a una máquina virtual, ofreciéndo directamente acceso al bus PCI, sin capa de virtualización.
¿Es posible redimensionar una instancia Cloud GPU?
Sí, es posible migrar una instancia Cloud GPU a un modelo superior tras un reinicio. Sin embargo, no podrás migrar a un modelo inferior.
¿Las instancias Cloud GPU disfrutan de protección anti-DDoS?
Sí, la protección anti-DDoS está incluida en todas las soluciones de OVHcloud sin coste adicional.
¿Es posible pasar de una facturación mensual a una facturación por horas en mi instancia?
Si tienes activada la modalidad de facturación mensual, no podrás pasar a la facturación por horas. Antes de iniciar la instancia, selecciona atentamente el tipo de facturación que mejor se adapta a tu proyecto.
¿Qué son las Cloud GPU?
Las Cloud GPU hacen referencia a un servicio de cálculo en la nube que proporciona unidades de procesamiento gráfico (GPU) para realizar tareas que requieren una gran potencia de cálculo. Estas tareas pueden incluir el renderizado gráfico, el aprendizaje automático, el análisis de datos o las simulaciones científicas, entre otros. A diferencia de las GPU «on-premises», que requieren una gran inversión en hardware, las Cloud GPU ofrecen flexibilidad y escalabilidad. De este modo, los/as usuarios/as pueden acceder a recursos informáticos de alto rendimiento bajo demanda y pagar solo por lo que consumen.
¿Qué son los servidores H100 y A100?
Los servidores equipados con GPU NVIDIA H100 y A100 son sistemas diseñados para ofrecer un rendimiento excepcional en los ámbitos de la computación de alto rendimiento (HPC), la inteligencia artificial (IA) y la analítica de datos.
¿Qué es NGC?
NVIDIA GPU Cloud (NGC) es una plataforma de cloud computing ofrecida por NVIDIA. Esta plataforma proporciona un completo catálogo de programas optimizados para la aceleración por GPU destinados a la inteligencia artificial (IA), el aprendizaje automático (ML) y la computación de alto rendimiento (HPC). El objetivo de NGC es simplificar y acelerar el despliegue de aplicaciones de IA y cálculo científico, proporcionando contenedores, modelos preentrenados, SDK y otras herramientas optimizadas para sacar el máximo partido a las GPU NVIDIA.
¿Por qué utilizar una Cloud GPU?
El uso de un Cloud GPU presenta numerosas ventajas, especialmente para las empresas, los equipos de investigación y desarrollo que trabajan en ámbitos exigentes como la inteligencia artificial (IA), el renderizado gráfico, el aprendizaje automático (ML) y la computación de alto rendimiento (HPC).