AI endpoints
Accede fácilmente a modelos de IA preentrenados de renombre mundial.
Innova con APIs simples y seguras en la robusta y confidencial infraestructura de OVHcloud. Optimiza tus aplicaciones con capacidades de IA escalables, eliminando la necesidad de una profunda experiencia. Gana eficiencia con potentes puntos finales de IA, diseñados para la simplicidad y la fiabilidad.
Descubre nuestros modelos
Explora nuestro catálogo de modelos de inteligencia artificial para encontrar el que se ajuste a tus necesidades.
Filtros
Contexto
Selected value: Todos
29 resultados disponibles
Qwen3-Coder-30B-A3B-Instruct
0.06€
/Mtoken(entrada)0.22€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 30B
Cuantización: fp8
Tamaño máximo del contexto: 256K
Soporte: Llamada a función, Code Assistant
Gpt-oss-120b
0.08€
/Mtoken(entrada)0.4€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 117B
Cuantización: fp4
Tamaño máximo del contexto: 131K
Soporte: Llamada a función, Reasoning
Gpt-oss-20b
0.04€
/Mtoken(entrada)0.15€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 21B
Cuantización: fp4
Tamaño máximo del contexto: 131K
Soporte: Llamada a función, Reasoning
Whisper-large-v3
0.00004083€
/segundoLicencia: Apache 2.0
Número de parámetros: 1.54B
Cuantización: fp16
Soporte: Automatic Speech Recognition
Whisper-large-v3-turbo
0.00001278€
/segundoLicencia: Apache 2.0
Número de parámetros: 0.81B
Cuantización: fp16
Soporte: Automatic Speech Recognition
Qwen3-32B
0.08€
/Mtoken(entrada)0.23€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 32.8B
Cuantización: fp8
Tamaño máximo del contexto: 32K
Soporte: Llamada a función, Reasoning
Mistral-Small-3.2-24B-Instruct-2506
0.09€
/Mtoken(entrada)0.28€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 24B
Cuantización: fp8
Tamaño máximo del contexto: 128K
Soporte: Llamada a función, Multimodal
Llama-3.1-8B-Instruct
0.1€
/Mtoken(entrada)0.1€
/Mtoken(salida)Licencia: Llama 3.1 Community
Número de parámetros: 8B
Cuantización: fp16
Tamaño máximo del contexto: 131K
Soporte: Llamada a función
Yolov11x-image-segmentation
Gratuito
Yolov11x-object-detection
Gratuito
Mixtral-8x7B-Instruct-v0.1
0.63€
/Mtoken(entrada)0.63€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 46.7B
Cuantización: fp16
Tamaño máximo del contexto: 32K
Meta-Llama-3_3-70B-Instruct
0.67€
/Mtoken(entrada)0.67€
/Mtoken(salida)Licencia: Llama 3.3 Community
Número de parámetros: 70B
Cuantización: fp8
Tamaño máximo del contexto: 131K
Soporte: Llamada a función
Mistral-7B-Instruct-v0.3
0.1€
/Mtoken(entrada)0.1€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 7B
Cuantización: fp16
Tamaño máximo del contexto: 127K
Soporte: Llamada a función
Bge-base-en-v1.5
0.01€
/Mtoken(entrada)Qwen2.5-VL-72B-Instruct
0.91€
/Mtoken(entrada)0.91€
/Mtoken(salida)Licencia: Qwen
Número de parámetros: 72B
Cuantización: fp8
Tamaño máximo del contexto: 32K
Soporte: Multimodal
Bge-multilingual-gemma2
0.01€
/Mtoken(entrada)DeepSeek-R1-Distill-Llama-70B
0.67€
/Mtoken(entrada)0.67€
/Mtoken(salida)Licencia: MIT & Meta Llama 3 Community License
Número de parámetros: 70B
Cuantización: fp8
Tamaño máximo del contexto: 131K
Soporte: Llamada a función, Reasoning
Mistral-Nemo-Instruct-2407
0.13€
/Mtoken(entrada)0.13€
/Mtoken(salida)Licencia: Apache 2.0
Número de parámetros: 12.2B
Cuantización: fp16
Tamaño máximo del contexto: 118K
Soporte: Llamada a función
BGE-M3
0.01€
/Mtoken(entrada)Stable-diffusion-xl-base-v10
Gratuito
Licencia: OpenRail++
Número de parámetros: 3.5B
Cuantización: fp32
Soporte: Image Generation
Nvr-tts-en-us
Gratuito
T5-large
Gratuito
Nvr-tts-it-it
Gratuito
Roberta-base-go_emotions
Gratuito
Nvr-tts-de-de
Gratuito
Nvr-tts-es-es
Gratuito
Bert-base-multilingual-uncased-sentiment
Gratuito
Bert-base-NER
Gratuito
Licencia: MIT
Número de parámetros: 0.108B
Cuantización: fp32
Soporte: Name Entity Recognition