custom background image

Instancias GPU H200


Acelera tus proyectos de IA con las instancias GPU H200

Rendimiento de vanguardia para el entrenamiento, la inferencia y las cargas de trabajo de datos más exigentes en un cloud europeo, fiable y transparente.

¿Por qué elegir las GPU NVIDIA H200?

Potentes

Hasta un 40 % más rápido que el H100 en el entrenamiento y la inferencia de modelos GenAI.

Eficientes

141 GB de memoria HBM3e ultrarrápida: el doble de ancho de banda de memoria, perfecta para modelos de gran tamaño.

Compatibles

Compatible con H100: aprovecha tus «frameworks» y optimizaciones existentes sin migraciones complejas.

Soberana

Disponibles en nuestro Public Cloud, asegurando flexibilidad, transparencia y cumplimiento normativo europeo.

Optimizada para tus cargas de trabajo de IA y datos

LLM a gran escala

Entrena y despliega modelos de hasta 175 mil millones de parámetros (GPT-3, Llama 3, Falcon 180B) gracias a sus 141 GB de memoria HBM3e y un ancho de banda de 4,8 TB/s.

IA generativa avanzada

Genera texto, imagen, audio y vídeo con tiempos de respuesta estables, incluso en contextos largos.

Contexto extendido y RAG

Mejora tus asistentes de IA y chatbots con ventanas emergentes largas.

Especificaciones

Características técnicas

GPU

De 1 a 8 GPU por instancia

Memoria GPU

141 GB de HBM3 ultrarrápida por GPU

Almacenamiento potente

Passthrough NVMe local en la mayoría de las instancias

Red pública y privada

Hasta 25 Gb/s incluidos

Automatización

Gestión a través del área de cliente, API, OVHcloud CLI…

Seguro y privado

Certificaciones ISO27001, SOC, alojamiento de datos de salud…

Maximiza tu ROI con una infraestructura GPU flexible

Precios transparentes

Pague solo por los recursos que utiliza, sin costes ocultos. Mantén el control de tus costes mientras disfrutas de un rendimiento óptimo.

Escalabilidad instantánea

Aumenta o reduce tus recursos GPU bajo demanda, en unos pocos clics. Adapta tu capacidad a tus cargas de trabajo de IA y datos con facilidad.

Soberanía y cumplimiento normativo

Tus datos están alojados en un cloud europeo certificado, garantizando la seguridad, la transparencia y el cumplimiento de las regulaciones (RGPD, ISO, HDS).

Accesibilidad sin barreras de entrada

GPU H200 accesibles para todos: desde el «proof of concept» hasta el despliegue en producción, sin compromiso de volumen ni restricciones de hardware.

¿Cómo elegir una GPU adecuada para la inferencia?

Modelos compactos

Con hasta 7 mil millones de parámetros, un A100 ofrece una excelente relación rendimiento-precio.

Modelos grandes

Con 65 mil millones de parámetros o ventanas emergentes ampliadas, el H200 ofrece el ancho de banda de memoria necesario para tiempos de respuesta estables.

FAQ

¿Cuál es el SLA garantizado por OVHcloud en las instancias Discovery?

El compromiso de nivel de servicio (SLA) es del 99,99 % de disponibilidad mensual en las instancias GPU. Para más información, consulta las Condiciones Generales de Servicio.

¿Qué hipervisor se utiliza para la virtualización de las instancias?

Al igual que otros modelos, las instancias GPU están virtualizadas mediante el hipervisor KVM del núcleo Linux.

¿Qué es PCI Passthrough?

Las tarjetas con procesadores gráficos son accesibles a través del bus PCI del servidor físico. PCI Passthrough es una funcionalidad del hipervisor que permite dedicar hardware a una máquina virtual, ofreciéndo directamente acceso al bus PCI, sin capa de virtualización.

¿Es posible redimensionar una instancia Cloud GPU?

Sí, es posible migrar una instancia Cloud GPU a un modelo superior tras un reinicio. Sin embargo, no podrás migrar a un modelo inferior.

¿Las instancias Cloud GPU disfrutan de protección anti-DDoS?

Sí, la protección anti-DDoS está incluida en todas las soluciones de OVHcloud sin coste adicional.

¿Es posible pasar de una facturación mensual a una facturación por horas en mi instancia?

Si tienes activada la modalidad de facturación mensual, no podrás pasar a la facturación por horas. Antes de iniciar la instancia, selecciona atentamente el tipo de facturación que mejor se adapta a tu proyecto.

¿Qué son las Cloud GPU?

Las Cloud GPU hacen referencia a un servicio de cálculo en la nube que proporciona unidades de procesamiento gráfico (GPU) para realizar tareas que requieren una gran potencia de cálculo. Estas tareas pueden incluir el renderizado gráfico, el aprendizaje automático, el análisis de datos o las simulaciones científicas, entre otros. A diferencia de las GPU «on-premises», que requieren una gran inversión en hardware, las Cloud GPU ofrecen flexibilidad y escalabilidad. De este modo, los/as usuarios/as pueden acceder a recursos informáticos de alto rendimiento bajo demanda y pagar solo por lo que consumen.

¿Qué son los servidores H100 y A100?

Los servidores equipados con GPU NVIDIA H100 y A100 son sistemas diseñados para ofrecer un rendimiento excepcional en los ámbitos de la computación de alto rendimiento (HPC), la inteligencia artificial (IA) y la analítica de datos.

¿Qué es NGC?

NVIDIA GPU Cloud (NGC) es una plataforma de cloud computing ofrecida por NVIDIA. Esta plataforma proporciona un completo catálogo de programas optimizados para la aceleración por GPU destinados a la inteligencia artificial (IA), el aprendizaje automático (ML) y la computación de alto rendimiento (HPC). El objetivo de NGC es simplificar y acelerar el despliegue de aplicaciones de IA y cálculo científico, proporcionando contenedores, modelos preentrenados, SDK y otras herramientas optimizadas para sacar el máximo partido a las GPU NVIDIA.

¿Por qué utilizar una Cloud GPU?

El uso de un Cloud GPU presenta numerosas ventajas, especialmente para las empresas, los equipos de investigación y desarrollo que trabajan en ámbitos exigentes como la inteligencia artificial (IA), el renderizado gráfico, el aprendizaje automático (ML) y la computación de alto rendimiento (HPC).