Instancias GPU L40S
Libera el potencial de la IA generativa y el renderizado 3D con las GPU NVIDIA L40S
La GPU perfecta para la inferencia, la generación multimodal y las cargas de trabajo gráficas, en un cloud europeo fiable y transparente.
¿Por qué elegir las GPU NVIDIA L40S?
Potentes
Hasta un 20 % más rápido que el L4 en cargas de trabajo de inferencia de IA.
Eficientes
Arquitectura Ada Lovelace con Tensor Cores de cuarta generación: una mejora de rendimiento significativa para la GenAI, la difusión de imágenes y el renderizado 3D.
Optimizadas
Optimizado para la virtualización y el renderizado GPU (vGPU): ideal para estudios 3D, ingeniería y entornos cloud híbridos.
Soberanas
Disponibles en nuestro Public Cloud, garantizando flexibilidad, transparencia y cumplimiento normativo europeo.
Optimizada para tus cargas de trabajo de IA y gráficos
Inferencia de IA y GenAI multimodal
Acelera la generación de imágenes, vídeos y audio con los Tensor Cores de 4ª generación Ada Lovelace, optimizados para la difusión y la GenAI.
Renderizado 3D y visualización
Disfruta de un rendimiento de renderizado excepcional para CAD, diseño, simulación o creación en tiempo real.
Cargas de trabajo híbridas de IA y gráficos
La L40S ofrece la potencia necesaria para combinar inferencia IA y renderizado GPU en un mismo entorno cloud.
Especificaciones
Características técnicas
GPU
De 1 a 4 GPU por instancia
Memoria GPU
48 GB por GPU
Almacenamiento potente
NVMe local en la mayoría de las instancias
Red pública y privada
Hasta 25 Gb/s incluidos
Automatización
Gestión a través del área de cliente, API, OVHcloud CLI…
Seguro y privado
Certificaciones ISO27001, SOC, alojamiento de datos de salud…
Nuestra gama de Cloud GPU
Maximiza tu ROI con una infraestructura GPU flexible
Precios transparentes
Disfruta de una excelente relación calidad-precio para la generación de imágenes, vídeos o modelos de IA. Sin sorpresas en la factura.
Versatilidad en IA y gráficos
Aprovecha una sola GPU para tus cargas de trabajo de IA generativa, renderizado 3D e inferencia de IA y disfruta de una flexibilidad única para tus pipelines de producción.
Soberanía y cumplimiento normativo
Tus datos se alojan en un cloud europeo certificado, garantizando la seguridad, la transparencia y el cumplimiento de las regulaciones (RGPD, ISO, HDS).
Eficiencia energética
Reduce tus costos operativos gracias a una arquitectura Ada Lovelace eficiente, sin sacrificar el rendimiento.
¿Cómo elegir mi GPU para hacer inferencia?
Inferencia ligera
L4: económico y de bajo consumo energético
Modelos grandes
A100/H100/H200 según tus necesidades de ancho de banda y rendimiento.
Configura tus instancias GPU
FAQ
¿Cuál es el SLA garantizado por OVHcloud en las instancias GPU?
El compromiso de nivel de servicio (SLA) es del 99,99 % de disponibilidad mensual en las instancias GPU. Para más información, consulta las Condiciones Generales de Servicio.
¿Qué hipervisor se utiliza para la virtualización de las instancias?
¿Qué es PCI Passthrough?
Las tarjetas con procesadores gráficos son accesibles a través del bus PCI del servidor físico. PCI Passthrough es una funcionalidad del hipervisor que permite dedicar hardware a una máquina virtual, ofreciéndo directamente acceso al bus PCI, sin capa de virtualización.
¿Es posible redimensionar una instancia Cloud GPU?
Sí, es posible migrar una instancia Cloud GPU a un modelo superior tras un reinicio. Sin embargo, no podrás migrar a un modelo inferior.
¿Las instancias Cloud GPU disfrutan de protección anti-DDoS?
¿Es posible pasar de una facturación mensual a una facturación por horas en mi instancia?
¿Qué son las Cloud GPU?
¿Qué son los servidores H100 y A100?
Los servidores equipados con GPU NVIDIA H100 y A100 son sistemas diseñados para ofrecer un rendimiento excepcional en los ámbitos de la computación de alto rendimiento (HPC), la inteligencia artificial (IA) y la analítica de datos.
¿Qué es NGC?
NVIDIA GPU Cloud (NGC) es una plataforma de cloud computing ofrecida por NVIDIA. Esta plataforma proporciona un completo catálogo de programas optimizados para la aceleración por GPU destinados a la inteligencia artificial (IA), el aprendizaje automático (ML) y la computación de alto rendimiento (HPC). El objetivo de NGC es simplificar y acelerar el despliegue de aplicaciones de IA y cálculo científico, proporcionando contenedores, modelos preentrenados, SDK y otras herramientas optimizadas para sacar el máximo partido a las GPU NVIDIA.