custom background image

Instancias GPU H200


Acelera tus proyectos de IA con las instancias GPU H200

Rendimiento de vanguardia para el entrenamiento, la inferencia y las cargas de trabajo de datos más exigentes en una nube europea, confiable y transparente.

¿Por qué elegir las GPU NVIDIA H200?

Potentes

Hasta 1,4 × más rápido que el H100 para el entrenamiento y la inferencia de modelos GenAI.

Potentes.

141 Go de memoria HBM3e ultra rápida: 2 × más ancho de banda de memoria, ideal para modelos grandes.

compatibles

Compatible con H100: aprovecha tus frameworks y optimizaciones existentes sin migraciones complejas.

Soberano

Disponibles en nuestra Nube Pública, asegurando flexibilidad, transparencia y cumplimiento europeo.

Optimizado para tus cargas de trabajo de IA y datos

LLM a gran escala

Entrena y despliega modelos de hasta 175 B de parámetros (GPT-3, Llama 3, Falcon 180 B) gracias a sus 141 GB de memoria HBM3e y a un ancho de banda de 4,8 To/s.

IA generativa avanzada

Genera texto, imagen, audio y video con tiempos de respuesta estables, incluso en contextos largos.

Contexto extendido y RAG

Mejora tus asistentes de IA y chatbots con largas ventanas contextuales.

Especificaciones

Características técnicas

GPU

De 1 a 8 GPU por instancia

Memoria GPU

141 GB de HBM3 ultrarrápido por GPU

Almacenamiento potente

Passthrough NVMe local en la mayoría de las instancias

Red pública y privada

Hasta 25 Gb/s incluidos

Automatización

Gestión a través de tu espacio de cliente, API, OVHcloud CLI…

Seguro y privado

Certificaciones ISO27001, SOC, alojamiento de datos de salud…

Maximice su ROI con una infraestructura GPU flexible

Transparencia de precios

Paga solo por los recursos que utilizas, sin costos ocultos. Mantienes el control de tus costos mientras disfrutas de un rendimiento óptimo.

Escalabilidad instantánea

Aumenta o reduce tus recursos GPU bajo demanda, en unos pocos clics. Adapta tu capacidad a tus cargas de trabajo de IA y datos con total facilidad.

Soberanía y cumplimiento

Tus datos están alojados en un nube europea certificada, garantizando seguridad, transparencia y cumplimiento de regulaciones (RGPD, ISO, HDS).

Accesibilidad sin barreras de entrada

GPU H200 accesibles para todos: desde el prueba de concepto hasta el despliegue en producción, sin compromiso de volumen ni restricciones de hardware.

¿Cómo elegir su GPU para hacer inferencia?

Modelos compactos

Hasta 7 B de parámetros, un A100 ofrece una excelente relación rendimiento-precio.

Modelos grandes

De 65 B+ o ventanas emergentes ampliadas, el H200 proporciona el ancho de banda de memoria necesario para tiempos de respuesta estables.

FAQ

¿Qué compromiso de nivel de servicio (SLA) garantiza OVHcloud en una instancia GPU?

El compromiso de nivel de servicio (SLA) es del 99,99 % de disponibilidad mensual en las instancias GPU. Para más información, consulte las Condiciones Generales de Servicio.

¿Qué hipervisor se utiliza para la virtualización de las instancias?

Al igual que otros modelos, las instancias GPU están virtualizadas mediante el hipervisor KVM del núcleo Linux.

¿Qué es PCI Passthrough?

Las tarjetas con procesadores gráficos son accesibles a través del bus PCI del servidor físico. PCI Passthrough es una funcionalidad del hipervisor que permite dedicar hardware a una máquina virtual, ofreciéndole directamente acceso al bus PCI, sin capa de virtualización.

¿Es posible redimensionar una instancia Cloud GPU?

Sí, es posible migrar una instancia Cloud GPU a un modelo superior tras un reinicio. Sin embargo, no podrá migrar a un modelo inferior.

¿Las instancias Cloud GPU disfrutan de protección anti-DDoS?

Sí, la protección anti-DDoS está incluida en todas las soluciones de OVHcloud sin coste adicional.

¿Es posible pasar de una facturación mensual a una facturación por horas en mi instancia?

Si tiene activada la modalidad de facturación mensual, no podrá pasar a la facturación por horas. Antes de iniciar la instancia, seleccione cuidadosamente el tipo de facturación que mejor se adapta a su proyecto.

¿Qué son las Cloud GPU?

Las Cloud GPU hacen referencia a un servicio de cálculo en la nube que proporciona unidades de procesamiento gráfico (GPU) para realizar tareas que requieren una gran potencia de cálculo. Estas tareas pueden incluir el renderizado gráfico, el aprendizaje automático, el análisis de datos o las simulaciones científicas, entre otros. A diferencia de las GPU «on-premises», que requieren una gran inversión en hardware, las Cloud GPU ofrecen flexibilidad y escalabilidad. De este modo, los usuarios pueden acceder a recursos informáticos de alto rendimiento bajo demanda y pagar solo por lo que consumen.

¿Qué son los servidores H100 y A100?

Los servidores equipados con GPU NVIDIA H100 y A100 son sistemas diseñados para ofrecer un rendimiento excepcional en los ámbitos de la computación de alto rendimiento (HPC), la inteligencia artificial (IA) y la analítica de datos.

¿Qué es NGC?

NVIDIA GPU Cloud (NGC) es una plataforma de cloud computing ofrecida por NVIDIA. Proporciona un catálogo completo de programas optimizados para la aceleración por GPU destinados a la inteligencia artificial (IA), el aprendizaje automático (ML) y la computación de alto rendimiento (HPC). El objetivo de NGC es simplificar y acelerar el despliegue de aplicaciones de IA y cálculo científico, proporcionando contenedores, modelos preentrenados, SDK y otras herramientas optimizadas para sacar el máximo partido a las GPU NVIDIA.

¿Por qué utilizar una Cloud GPU?

El uso de un Cloud GPU presenta numerosas ventajas, especialmente para las empresas, los equipos de investigación y los de desarrollo que trabajan en ámbitos exigentes como la inteligencia artificial (IA), el renderizado gráfico, el aprendizaje automático (ML) y la computación de alto rendimiento (HPC).