Instancias GPU H100
Acelera tus proyectos de IA con las instancias GPU H100
Rendimiento de vanguardia para el entrenamiento, la inferencia y las cargas de trabajo de datos más exigentes — en una nube europea, fiable y transparente.
¿Por qué elegir los GPU NVIDIA H100?
Potentes
Hasta 4× más rápidos que los A100 para el entrenamiento de modelos de IA complejos y la generación de contenidos.
Potentes.
El Transformer Engine FP8 optimiza el cálculo para los LLM y la GenAI, ofreciendo una mejora significativa en rendimiento y energía.
compatibles
Totalmente compatibles con CUDA, PyTorch, TensorFlow y JAX: aprovecha tus optimizaciones existentes sin adaptación.
Soberano
Disponibles en nuestra Nube Pública, garantizando flexibilidad, transparencia y cumplimiento europeo.
Optimizado para sus cargas de trabajo de IA y datos
Entrenamiento e inferencia de LLM
Acelere sus modelos de hasta 70B de parámetros (Llama 2, Mistral, Falcon, etc.) gracias al poder del Transformer Engine y al ancho de banda de memoria del H100.
IA generativa multimodal
Cree, entrene y despliegue sus modelos de generación de imágenes, audio y video a gran escala, de manera fluida.
Ciencia de datos y HPC
Optimice sus cálculos intensivos: simulaciones, modelado científico o procesamiento paralelo masivo, con un rendimiento constante y baja latencia.
ESPECIFICACIONES
Características técnicas
GPU
De 1 a 4 GPU por instancia
Memoria GPU
80 GB de HBM3 ultrarrápido por GPU
Almacenamiento potente
NVMe Passthrough local en la mayoría de las instancias
Red pública y privada
Hasta 25 Gb/s incluidos
Automatización
Gestión a través de su espacio de cliente, API, OVHcloud CLI, ...
Seguro y privado
Certificaciones ISO27001, SOC, datos de salud...
Nuestra gama CloudGPU
Maximiza tu ROI con una infraestructura GPU flexible
Transparencia en precios
Pague solo por los recursos que utiliza, sin costos ocultos. Mantiene el control de sus costos mientras disfruta de un rendimiento óptimo.
Escalabilidad instantánea
Aumente o reduzca sus recursos GPU bajo demanda, en unos pocos clics. Adapte su capacidad a sus cargas de trabajo de IA y datos con facilidad.
Soberanía y conformidad
Sus datos están alojados en una nube europea certificada, garantizando seguridad, transparencia y cumplimiento de las regulaciones (RGPD, ISO, HDS).
Accesibilidad sin barreras de entrada
GPU H100 accesibles para todos: desde la prueba de concepto hasta el despliegue en producción, sin compromiso de volumen ni restricciones de hardware.
¿Cómo elegir tu GPU para hacer inferencia?
Modelos compactos
Hasta 7B de parámetros, un A100 ofrece una excelente relación rendimiento/precio.
LLM intermedios
Hasta 30B, el H100 es el mejor equilibrio entre velocidad, eficiencia energética y compatibilidad con frameworks.
Modelos voluminosos
De 65B+ o ventanas contextuales extendidas, el H200 proporciona el ancho de banda de memoria necesario para tiempos de respuesta estables.
Configure sus instancias GPU
FAQ
¿Cuál es el SLA garantizado por OVHcloud en las instancias GPU?
El SLA de las instancias GPU ofrece una disponibilidad mensual del 99,99 %. Para más información, consulte las Condiciones Generales de Servicio.
¿Qué hipervisor se utiliza para la virtualización de las instancias?
Al igual que otros modelos, las instancias GPU están virtualizadas mediante el hipervisor KVM del núcleo Linux.
¿Qué es PCI Passthrough?
Las tarjetas con procesadores gráficos son accesibles a través del bus PCI del servidor físico. PCI Passthrough es una funcionalidad del hipervisor que permite dedicar hardware a una máquina virtual, ofreciéndole directamente acceso al bus PCI, sin capa de virtualización.
¿Es posible redimensionar una instancia Cloud GPU?
Sí, es posible migrar una instancia Cloud GPU a un modelo superior tras un reinicio. Sin embargo, no podrá migrar a un modelo inferior.
¿Las instancias Cloud GPU disfrutan de protección anti-DDoS?
Sí, la protección anti-DDoS está incluida en todas las soluciones de OVHcloud sin coste adicional.
¿Es posible pasar de una facturación mensual a una facturación por horas en mi instancia?
Si tiene activada la modalidad de facturación mensual, no podrá pasar a la facturación por horas. Antes de iniciar la instancia, seleccione atentamente el tipo de facturación que mejor se adapta a su proyecto.
¿Qué son las Cloud GPU?
Las Cloud GPU hacen referencia a un servicio de cálculo en la nube que proporciona unidades de procesamiento gráfico (GPU) para realizar tareas que requieren una gran potencia de cálculo. Estas tareas pueden incluir el renderizado gráfico, el aprendizaje automático, el análisis de datos o las simulaciones científicas, entre otros. A diferencia de las GPU «on-premises», que requieren una gran inversión en hardware, las Cloud GPU ofrecen flexibilidad y escalabilidad. De este modo, los usuarios pueden acceder a recursos informáticos de alto rendimiento bajo demanda y pagar solo por lo que consumen.
¿Qué son los servidores H100 y A100?
Los servidores equipados con GPU NVIDIA H100 y A100 son sistemas diseñados para ofrecer un rendimiento excepcional en los ámbitos de la computación de alto rendimiento (HPC), la inteligencia artificial (IA) y la analítica de datos.
¿Qué es NGC?
NVIDIA GPU Cloud (NGC) es una plataforma de cloud computing ofrecida por NVIDIA. Esta plataforma proporciona un completo catálogo de programas optimizados para la aceleración por GPU destinados a la inteligencia artificial (IA), el aprendizaje automático (ML) y la computación de alto rendimiento (HPC). El objetivo de NGC es simplificar y acelerar el despliegue de aplicaciones de IA y cálculo científico, proporcionando contenedores, modelos preentrenados, SDK y otras herramientas optimizadas para sacar el máximo partido a las GPU NVIDIA.
¿Por qué utilizar una Cloud GPU?
Las Cloud GPU ofrecen numerosas ventajas, especialmente para las empresas, los investigadores y los desarrolladores que trabajan en ámbitos tan exigentes como la inteligencia artificial (IA), el renderizado gráfico, el aprendizaje automático (ML) y la computación de alto rendimiento (HPC).