Instancias GPU H200
Acelera tus proyectos de IA con las instancias GPU H200
Rendimiento de vanguardia para el entrenamiento, la inferencia y las cargas de trabajo de datos más exigentes en una nube europea, confiable y transparente.
¿Por qué elegir las GPU NVIDIA H200?
Potentes
Hasta 1,4 × más rápido que el H100 para el entrenamiento y la inferencia de modelos GenAI.
Potentes.
141 Go de memoria HBM3e ultra rápida: 2 × más ancho de banda de memoria, ideal para modelos grandes.
compatibles
Compatible con H100: aprovecha tus frameworks y optimizaciones existentes sin migraciones complejas.
Soberano
Disponibles en nuestra Nube Pública, asegurando flexibilidad, transparencia y cumplimiento europeo.
Optimizado para tus cargas de trabajo de IA y datos
LLM a gran escala
Entrena y despliega modelos de hasta 175 B de parámetros (GPT-3, Llama 3, Falcon 180 B) gracias a sus 141 GB de memoria HBM3e y a un ancho de banda de 4,8 To/s.
IA generativa avanzada
Genera texto, imagen, audio y video con tiempos de respuesta estables, incluso en contextos largos.
Contexto extendido y RAG
Mejora tus asistentes de IA y chatbots con largas ventanas contextuales.
Especificaciones
Características técnicas
GPU
De 1 a 8 GPU por instancia
Memoria GPU
141 GB de HBM3 ultrarrápido por GPU
Almacenamiento potente
Passthrough NVMe local en la mayoría de las instancias
Red pública y privada
Hasta 25 Gb/s incluidos
Automatización
Gestión a través de tu espacio de cliente, API, OVHcloud CLI…
Seguro y privado
Certificaciones ISO27001, SOC, alojamiento de datos de salud…
Nuestra gama de Cloud GPU
Maximice su ROI con una infraestructura GPU flexible
Transparencia de precios
Paga solo por los recursos que utilizas, sin costos ocultos. Mantienes el control de tus costos mientras disfrutas de un rendimiento óptimo.
Escalabilidad instantánea
Aumenta o reduce tus recursos GPU bajo demanda, en unos pocos clics. Adapta tu capacidad a tus cargas de trabajo de IA y datos con total facilidad.
Soberanía y cumplimiento
Tus datos están alojados en un nube europea certificada, garantizando seguridad, transparencia y cumplimiento de regulaciones (RGPD, ISO, HDS).
Accesibilidad sin barreras de entrada
GPU H200 accesibles para todos: desde el prueba de concepto hasta el despliegue en producción, sin compromiso de volumen ni restricciones de hardware.
¿Cómo elegir su GPU para hacer inferencia?
Modelos compactos
Hasta 7 B de parámetros, un A100 ofrece una excelente relación rendimiento-precio.
Modelos grandes
De 65 B+ o ventanas emergentes ampliadas, el H200 proporciona el ancho de banda de memoria necesario para tiempos de respuesta estables.
Configure sus instancias GPU
FAQ
¿Qué compromiso de nivel de servicio (SLA) garantiza OVHcloud en una instancia GPU?
El compromiso de nivel de servicio (SLA) es del 99,99 % de disponibilidad mensual en las instancias GPU. Para más información, consulte las Condiciones Generales de Servicio.
¿Qué hipervisor se utiliza para la virtualización de las instancias?
Al igual que otros modelos, las instancias GPU están virtualizadas mediante el hipervisor KVM del núcleo Linux.
¿Qué es PCI Passthrough?
Las tarjetas con procesadores gráficos son accesibles a través del bus PCI del servidor físico. PCI Passthrough es una funcionalidad del hipervisor que permite dedicar hardware a una máquina virtual, ofreciéndole directamente acceso al bus PCI, sin capa de virtualización.
¿Es posible redimensionar una instancia Cloud GPU?
Sí, es posible migrar una instancia Cloud GPU a un modelo superior tras un reinicio. Sin embargo, no podrá migrar a un modelo inferior.
¿Las instancias Cloud GPU disfrutan de protección anti-DDoS?
Sí, la protección anti-DDoS está incluida en todas las soluciones de OVHcloud sin coste adicional.
¿Es posible pasar de una facturación mensual a una facturación por horas en mi instancia?
Si tiene activada la modalidad de facturación mensual, no podrá pasar a la facturación por horas. Antes de iniciar la instancia, seleccione cuidadosamente el tipo de facturación que mejor se adapta a su proyecto.
¿Qué son las Cloud GPU?
Las Cloud GPU hacen referencia a un servicio de cálculo en la nube que proporciona unidades de procesamiento gráfico (GPU) para realizar tareas que requieren una gran potencia de cálculo. Estas tareas pueden incluir el renderizado gráfico, el aprendizaje automático, el análisis de datos o las simulaciones científicas, entre otros. A diferencia de las GPU «on-premises», que requieren una gran inversión en hardware, las Cloud GPU ofrecen flexibilidad y escalabilidad. De este modo, los usuarios pueden acceder a recursos informáticos de alto rendimiento bajo demanda y pagar solo por lo que consumen.
¿Qué son los servidores H100 y A100?
Los servidores equipados con GPU NVIDIA H100 y A100 son sistemas diseñados para ofrecer un rendimiento excepcional en los ámbitos de la computación de alto rendimiento (HPC), la inteligencia artificial (IA) y la analítica de datos.
¿Qué es NGC?
NVIDIA GPU Cloud (NGC) es una plataforma de cloud computing ofrecida por NVIDIA. Proporciona un catálogo completo de programas optimizados para la aceleración por GPU destinados a la inteligencia artificial (IA), el aprendizaje automático (ML) y la computación de alto rendimiento (HPC). El objetivo de NGC es simplificar y acelerar el despliegue de aplicaciones de IA y cálculo científico, proporcionando contenedores, modelos preentrenados, SDK y otras herramientas optimizadas para sacar el máximo partido a las GPU NVIDIA.
¿Por qué utilizar una Cloud GPU?
El uso de un Cloud GPU presenta numerosas ventajas, especialmente para las empresas, los equipos de investigación y los de desarrollo que trabajan en ámbitos exigentes como la inteligencia artificial (IA), el renderizado gráfico, el aprendizaje automático (ML) y la computación de alto rendimiento (HPC).