AI Endpoints

Zugriff auf weltweit renommierte vortrainierte KI-Modelle.
Innovieren Sie mit einfachen und sicheren APIs auf der robusten und vertraulichen Infrastruktur von OVHcloud. Optimieren Sie Ihre Anwendungen mit skalierbaren KI-Funktionen, die keine tiefgehende Expertise erfordern. Gewinnen Sie Effizienz mit leistungsstarken KI-Endpunkten, die für Einfachheit und Zuverlässigkeit entwickelt wurden.

Entdecken Sie unsere Modelle

Durchsuchen Sie unseren Katalog von KI-Modellen, um das passende für Ihre Bedürfnisse zu finden.

22 verfügbare Ergebnisse

CODE LLM
Neu

Qwen3-Coder-30B-A3B-Instruct

0.06

/Mtoken(Eingabe)

0.22

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 30B

Quantisierung: fp8

Max. Kontextgröße: 256K

Support: Funktionsaufruf, Code Assistant

Mehr Informationen
REASONING LLM
Neu

Gpt-oss-20b

0.04

/Mtoken(Eingabe)

0.15

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 21B

Quantisierung: fp4

Max. Kontextgröße: 131K

Support: Funktionsaufruf, Reasoning

Mehr Informationen
REASONING LLM
Neu

Gpt-oss-120b

0.08

/Mtoken(Eingabe)

0.4

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 117B

Quantisierung: fp4

Max. Kontextgröße: 131K

Support: Funktionsaufruf, Reasoning

Mehr Informationen
AUDIO ANALYSIS
Neu

Whisper-large-v3

0.00004083

/Sekunde

Lizenz: Apache 2.0

Anzahl der Parameter: 1.54B

Quantisierung: fp16

Support: Automatic Speech Recognition

Mehr Informationen
AUDIO ANALYSIS
Neu

Whisper-large-v3-turbo

0.00001278

/Sekunde

Lizenz: Apache 2.0

Anzahl der Parameter: 0.81B

Quantisierung: fp16

Support: Automatic Speech Recognition

Mehr Informationen
REASONING LLM
Neu

Qwen3-32B

0.08

/Mtoken(Eingabe)

0.23

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 32.8B

Quantisierung: fp8

Max. Kontextgröße: 32K

Support: Funktionsaufruf, Reasoning

Mehr Informationen
VISUAL LLM
Neu

Mistral-Small-3.2-24B-Instruct-2506

0.09

/Mtoken(Eingabe)

0.28

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 24B

Quantisierung: fp8

Max. Kontextgröße: 128K

Support: Funktionsaufruf, Multimodal

Mehr Informationen
LARGE LANGUAGE MODELS (LLM)
Neu

Llama-3.1-8B-Instruct

0.1

/Mtoken(Eingabe)

0.1

/Mtoken(Ausgabe)

Lizenz: Llama 3.1 Community

Anzahl der Parameter: 8B

Quantisierung: fp16

Max. Kontextgröße: 131K

Support: Funktionsaufruf

Mehr Informationen
LARGE LANGUAGE MODELS (LLM)
Neu

Meta-Llama-3_3-70B-Instruct

0.67

/Mtoken(Eingabe)

0.67

/Mtoken(Ausgabe)

Lizenz: Llama 3.3 Community

Anzahl der Parameter: 70B

Quantisierung: fp8

Max. Kontextgröße: 131K

Support: Funktionsaufruf

Mehr Informationen
LARGE LANGUAGE MODELS (LLM)

Mixtral-8x7B-Instruct-v0.1

0.63

/Mtoken(Eingabe)

0.63

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 46.7B

Quantisierung: fp16

Max. Kontextgröße: 32K

Mehr Informationen
LARGE LANGUAGE MODELS (LLM)
Neu

Mistral-7B-Instruct-v0.3

0.1

/Mtoken(Eingabe)

0.1

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 7B

Quantisierung: fp16

Max. Kontextgröße: 127K

Support: Funktionsaufruf

Mehr Informationen
EMBEDDINGS

Bge-base-en-v1.5

0.01

/Mtoken(Eingabe)

Lizenz: MIT

Anzahl der Parameter: 0.109B

Quantisierung: fp16

Mehr Informationen
VISUAL LLM
Neu

Qwen2.5-VL-72B-Instruct

0.91

/Mtoken(Eingabe)

0.91

/Mtoken(Ausgabe)

Lizenz: Qwen

Anzahl der Parameter: 72B

Quantisierung: fp8

Max. Kontextgröße: 32K

Support: Multimodal

Mehr Informationen
EMBEDDINGS

Bge-multilingual-gemma2

0.01

/Mtoken(Eingabe)

Lizenz: Gemma

Anzahl der Parameter: 0.567B

Quantisierung: fp16

Mehr Informationen
REASONING LLM
Neu

DeepSeek-R1-Distill-Llama-70B

0.67

/Mtoken(Eingabe)

0.67

/Mtoken(Ausgabe)

Lizenz: MIT & Meta Llama 3 Community License

Anzahl der Parameter: 70B

Quantisierung: fp8

Max. Kontextgröße: 131K

Support: Funktionsaufruf, Reasoning

Mehr Informationen
LARGE LANGUAGE MODELS (LLM)

Mistral-Nemo-Instruct-2407

0.13

/Mtoken(Eingabe)

0.13

/Mtoken(Ausgabe)

Lizenz: Apache 2.0

Anzahl der Parameter: 12.2B

Quantisierung: fp16

Max. Kontextgröße: 118K

Support: Funktionsaufruf

Mehr Informationen
EMBEDDINGS

BGE-M3

0.01

/Mtoken(Eingabe)

Lizenz: MIT

Anzahl der Parameter: 0.567B

Quantisierung: fp16

Mehr Informationen
IMAGE GENERATION

Stable-diffusion-xl-base-v10

Kostenlos

Lizenz: OpenRail++

Anzahl der Parameter: 3.5B

Quantisierung: fp32

Support: Image Generation

Mehr Informationen
AUDIO ANALYSIS

Nvr-tts-it-it

Kostenlos

Lizenz: Riva license

Anzahl der Parameter: B

Quantisierung: fp32

Support: Text To Speech

Mehr Informationen
AUDIO ANALYSIS

Nvr-tts-es-es

Kostenlos

Lizenz: Riva license

Anzahl der Parameter: B

Quantisierung: fp32

Support: Text To Speech

Mehr Informationen
AUDIO ANALYSIS

Nvr-tts-en-us

Kostenlos

Lizenz: Riva license

Anzahl der Parameter: B

Quantisierung: fp32

Support: Text To Speech

Mehr Informationen
AUDIO ANALYSIS

Nvr-tts-de-de

Kostenlos

Lizenz: Riva license

Anzahl der Parameter: B

Quantisierung: fp32

Support: Text To Speech

Mehr Informationen