AI endpoints

Accédez facilement à des modèles d'IA pré-entraînés de renommée mondiale.
Innovez avec des API simples et sécurisées sur l'infrastructure robuste et confidentielle d'OVHcloud. Optimisez vos applications avec des capacités d'IA évolutives, éliminant le besoin d'une expertise approfondie. Gagnez en efficacité avec des AI endpoints puissants, conçus pour la simplicité et la fiabilité.

Découvrez nos modèles

Explorez notre catalogue de modèles d'intelligence artificielle pour trouver celui qui correspond à vos besoins.

22 résultats disponibles

CODE LLM
Nouveau

Qwen3-Coder-30B-A3B-Instruct

0.06

/Mtoken(entrée)

0.22

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 30B

Quantization: fp8

Taille de contexte max.: 256K

Support: Function calling, Code Assistant

Plus de détails
REASONING LLM
Nouveau

Gpt-oss-20b

0.04

/Mtoken(entrée)

0.15

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 21B

Quantization: fp4

Taille de contexte max.: 131K

Support: Function calling, Reasoning

Plus de détails
REASONING LLM
Nouveau

Gpt-oss-120b

0.08

/Mtoken(entrée)

0.4

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 117B

Quantization: fp4

Taille de contexte max.: 131K

Support: Function calling, Reasoning

Plus de détails
AUDIO ANALYSIS
Nouveau

Whisper-large-v3

0.00004083

/seconde

Licence: Apache 2.0

Nombre de paramètres: 1.54B

Quantization: fp16

Support: Automatic Speech Recognition

Plus de détails
AUDIO ANALYSIS
Nouveau

Whisper-large-v3-turbo

0.00001278

/seconde

Licence: Apache 2.0

Nombre de paramètres: 0.81B

Quantization: fp16

Support: Automatic Speech Recognition

Plus de détails
REASONING LLM
Nouveau

Qwen3-32B

0.08

/Mtoken(entrée)

0.23

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 32.8B

Quantization: fp8

Taille de contexte max.: 32K

Support: Function calling, Reasoning

Plus de détails
VISUAL LLM
Nouveau

Mistral-Small-3.2-24B-Instruct-2506

0.09

/Mtoken(entrée)

0.28

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 24B

Quantization: fp8

Taille de contexte max.: 128K

Support: Function calling, Multimodal

Plus de détails
LARGE LANGUAGE MODELS (LLM)
Nouveau

Llama-3.1-8B-Instruct

0.1

/Mtoken(entrée)

0.1

/Mtoken(sortie)

Licence: Llama 3.1 Community

Nombre de paramètres: 8B

Quantization: fp16

Taille de contexte max.: 131K

Support: Function calling

Plus de détails
LARGE LANGUAGE MODELS (LLM)
Nouveau

Meta-Llama-3_3-70B-Instruct

0.67

/Mtoken(entrée)

0.67

/Mtoken(sortie)

Licence: Llama 3.3 Community

Nombre de paramètres: 70B

Quantization: fp8

Taille de contexte max.: 131K

Support: Function calling

Plus de détails
LARGE LANGUAGE MODELS (LLM)

Mixtral-8x7B-Instruct-v0.1

0.63

/Mtoken(entrée)

0.63

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 46.7B

Quantization: fp16

Taille de contexte max.: 32K

Plus de détails
LARGE LANGUAGE MODELS (LLM)
Nouveau

Mistral-7B-Instruct-v0.3

0.1

/Mtoken(entrée)

0.1

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 7B

Quantization: fp16

Taille de contexte max.: 127K

Support: Function calling

Plus de détails
EMBEDDINGS

Bge-base-en-v1.5

0.01

/Mtoken(entrée)

Licence: MIT

Nombre de paramètres: 0.109B

Quantization: fp16

Plus de détails
VISUAL LLM
Nouveau

Qwen2.5-VL-72B-Instruct

0.91

/Mtoken(entrée)

0.91

/Mtoken(sortie)

Licence: Qwen

Nombre de paramètres: 72B

Quantization: fp8

Taille de contexte max.: 32K

Support: Multimodal

Plus de détails
EMBEDDINGS

Bge-multilingual-gemma2

0.01

/Mtoken(entrée)

Licence: Gemma

Nombre de paramètres: 0.567B

Quantization: fp16

Plus de détails
REASONING LLM
Nouveau

DeepSeek-R1-Distill-Llama-70B

0.67

/Mtoken(entrée)

0.67

/Mtoken(sortie)

Licence: MIT & Meta Llama 3 Community License

Nombre de paramètres: 70B

Quantization: fp8

Taille de contexte max.: 131K

Support: Function calling, Reasoning

Plus de détails
LARGE LANGUAGE MODELS (LLM)

Mistral-Nemo-Instruct-2407

0.13

/Mtoken(entrée)

0.13

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 12.2B

Quantization: fp16

Taille de contexte max.: 118K

Support: Function calling

Plus de détails
EMBEDDINGS

BGE-M3

0.01

/Mtoken(entrée)

Licence: MIT

Nombre de paramètres: 0.567B

Quantization: fp16

Plus de détails
IMAGE GENERATION

Stable-diffusion-xl-base-v10

Gratuit

Licence: OpenRail++

Nombre de paramètres: 3.5B

Quantization: fp32

Support: Image Generation

Plus de détails
AUDIO ANALYSIS

Nvr-tts-it-it

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails
AUDIO ANALYSIS

Nvr-tts-es-es

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails
AUDIO ANALYSIS

Nvr-tts-en-us

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails
AUDIO ANALYSIS

Nvr-tts-de-de

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails