AI endpoints

Accédez facilement à des modèles d'IA pré-entraînés de renommée mondiale.
Innovez avec des API simples et sécurisées sur l'infrastructure robuste et confidentielle d'OVHcloud. Optimisez vos applications avec des capacités d'IA évolutives, éliminant le besoin d'une expertise approfondie. Gagnez en efficacité avec des AI endpoints puissants, conçus pour la simplicité et la fiabilité.

Découvrez nos modèles

Explorez notre catalogue de modèles d'intelligence artificielle pour trouver celui qui correspond à vos besoins.

29 résultats disponibles

CODE LLM
Nouveau

Qwen3-Coder-30B-A3B-Instruct

0.06

/Mtoken(entrée)

0.22

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 30B

Quantization: fp8

Taille de contexte max.: 256K

Support: Function calling, Code Assistant

Plus de détails
REASONING LLM
Nouveau

Gpt-oss-20b

0.04

/Mtoken(entrée)

0.15

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 21B

Quantization: fp4

Taille de contexte max.: 131K

Support: Function calling, Reasoning

Plus de détails
REASONING LLM
Nouveau

Gpt-oss-120b

0.08

/Mtoken(entrée)

0.4

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 117B

Quantization: fp4

Taille de contexte max.: 131K

Support: Function calling, Reasoning

Plus de détails
AUDIO ANALYSIS
Nouveau

Whisper-large-v3

0.00004083

/seconde

Licence: Apache 2.0

Nombre de paramètres: 1.54B

Quantization: fp16

Support: Automatic Speech Recognition

Plus de détails
AUDIO ANALYSIS
Nouveau

Whisper-large-v3-turbo

0.00001278

/seconde

Licence: Apache 2.0

Nombre de paramètres: 0.81B

Quantization: fp16

Support: Automatic Speech Recognition

Plus de détails
REASONING LLM
Nouveau

Qwen3-32B

0.08

/Mtoken(entrée)

0.23

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 32.8B

Quantization: fp8

Taille de contexte max.: 32K

Support: Function calling, Reasoning

Plus de détails
VISUAL LLM
Nouveau

Mistral-Small-3.2-24B-Instruct-2506

0.09

/Mtoken(entrée)

0.28

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 24B

Quantization: fp8

Taille de contexte max.: 128K

Support: Function calling, Multimodal

Plus de détails
LARGE LANGUAGE MODELS (LLM)
Nouveau

Llama-3.1-8B-Instruct

0.1

/Mtoken(entrée)

0.1

/Mtoken(sortie)

Licence: Llama 3.1 Community

Nombre de paramètres: 8B

Quantization: fp16

Taille de contexte max.: 131K

Support: Function calling

Plus de détails
COMPUTER VISION
Bêta

Yolov11x-image-segmentation

Gratuit

Licence: AGPL-3.0

Nombre de paramètres: 0.06B

Quantization: fp16

Plus de détails
COMPUTER VISION
Bêta

Yolov11x-object-detection

Gratuit

Licence: AGPL-3.0

Nombre de paramètres: 0.06B

Quantization: fp16

Plus de détails
LARGE LANGUAGE MODELS (LLM)
Nouveau

Meta-Llama-3_3-70B-Instruct

0.67

/Mtoken(entrée)

0.67

/Mtoken(sortie)

Licence: Llama 3.3 Community

Nombre de paramètres: 70B

Quantization: fp8

Taille de contexte max.: 131K

Support: Function calling

Plus de détails
LARGE LANGUAGE MODELS (LLM)

Mixtral-8x7B-Instruct-v0.1

0.63

/Mtoken(entrée)

0.63

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 46.7B

Quantization: fp16

Taille de contexte max.: 32K

Plus de détails
LARGE LANGUAGE MODELS (LLM)
Nouveau

Mistral-7B-Instruct-v0.3

0.1

/Mtoken(entrée)

0.1

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 7B

Quantization: fp16

Taille de contexte max.: 127K

Support: Function calling

Plus de détails
EMBEDDINGS

Bge-base-en-v1.5

0.01

/Mtoken(entrée)

Licence: MIT

Nombre de paramètres: 0.109B

Quantization: fp16

Plus de détails
VISUAL LLM
Nouveau

Qwen2.5-VL-72B-Instruct

0.91

/Mtoken(entrée)

0.91

/Mtoken(sortie)

Licence: Qwen

Nombre de paramètres: 72B

Quantization: fp8

Taille de contexte max.: 32K

Support: Multimodal

Plus de détails
EMBEDDINGS

Bge-multilingual-gemma2

0.01

/Mtoken(entrée)

Licence: Gemma

Nombre de paramètres: 0.567B

Quantization: fp16

Plus de détails
REASONING LLM
Nouveau

DeepSeek-R1-Distill-Llama-70B

0.67

/Mtoken(entrée)

0.67

/Mtoken(sortie)

Licence: MIT & Meta Llama 3 Community License

Nombre de paramètres: 70B

Quantization: fp8

Taille de contexte max.: 131K

Support: Function calling, Reasoning

Plus de détails
LARGE LANGUAGE MODELS (LLM)

Mistral-Nemo-Instruct-2407

0.13

/Mtoken(entrée)

0.13

/Mtoken(sortie)

Licence: Apache 2.0

Nombre de paramètres: 12.2B

Quantization: fp16

Taille de contexte max.: 118K

Support: Function calling

Plus de détails
EMBEDDINGS

BGE-M3

0.01

/Mtoken(entrée)

Licence: MIT

Nombre de paramètres: 0.567B

Quantization: fp16

Plus de détails
IMAGE GENERATION

Stable-diffusion-xl-base-v10

Gratuit

Licence: OpenRail++

Nombre de paramètres: 3.5B

Quantization: fp32

Support: Image Generation

Plus de détails
AUDIO ANALYSIS

Nvr-tts-it-it

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails
AUDIO ANALYSIS

Nvr-tts-es-es

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails
AUDIO ANALYSIS

Nvr-tts-en-us

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails
TRANSLATION

T5-large

Gratuit

Licence: Apache 2.0

Nombre de paramètres: 0.738B

Quantization: fp32

Plus de détails
NATURAL LANGUAGE PROCESSING

Roberta-base-go_emotions

Gratuit

Licence: MIT

Nombre de paramètres: 0.125B

Quantization: fp32

Support: Emotion Extraction

Plus de détails
AUDIO ANALYSIS

Nvr-tts-de-de

Gratuit

Licence: Riva license

Nombre de paramètres: B

Quantization: fp32

Support: Text To Speech

Plus de détails
NATURAL LANGUAGE PROCESSING

Bert-base-NER

Gratuit

Licence: MIT

Nombre de paramètres: 0.108B

Quantization: fp32

Support: Name Entity Recognition

Plus de détails
NATURAL LANGUAGE PROCESSING

Bert-base-multilingual-uncased-sentiment

Gratuit

Licence: MIT

Nombre de paramètres: 0.167B

Quantization: fp32

Support: Sentiment Analysis

Plus de détails
NATURAL LANGUAGE PROCESSING

Bart-large-cnn

Gratuit

Licence: MIT

Nombre de paramètres: 0.406B

Quantization: fp32

Plus de détails