AI endpoints
Łatwy dostęp do światowej klasy modeli AI wstępnie wytrenowanych.
Innowuj z prostymi i bezpiecznymi interfejsami API na solidnej i poufnej infrastrukturze OVHcloud. Optymalizuj swoje aplikacje z skalowalnymi możliwościami AI, eliminując potrzebę głębokiej wiedzy eksperckiej. Zyskaj efektywność dzięki potężnym punktom końcowym AI, zaprojektowanym z myślą o prostocie i niezawodności.
Odkryj nasze modele
Przeglądaj nasz katalog modeli sztucznej inteligencji, aby znaleźć ten, który odpowiada Twoim potrzebom.
Filtry
Kontekst
Selected value: Wszystkie
22 wyniki dostępne
Qwen3-Coder-30B-A3B-Instruct
0.06€
/Mtoken(wejście)0.22€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 30B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 256K
Wsparcie klienta: Wywoływanie funkcji, Code Assistant
Gpt-oss-20b
0.04€
/Mtoken(wejście)0.15€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 21B
Kwantyzacja: fp4
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: Wywoływanie funkcji, Reasoning
Gpt-oss-120b
0.08€
/Mtoken(wejście)0.4€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 117B
Kwantyzacja: fp4
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: Wywoływanie funkcji, Reasoning
Whisper-large-v3
0.00004083€
/sek.Licencja: Apache 2.0
Liczba parametrów: 1.54B
Kwantyzacja: fp16
Wsparcie klienta: Automatic Speech Recognition
Whisper-large-v3-turbo
0.00001278€
/sek.Licencja: Apache 2.0
Liczba parametrów: 0.81B
Kwantyzacja: fp16
Wsparcie klienta: Automatic Speech Recognition
Qwen3-32B
0.08€
/Mtoken(wejście)0.23€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 32.8B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 32K
Wsparcie klienta: Wywoływanie funkcji, Reasoning
Mistral-Small-3.2-24B-Instruct-2506
0.09€
/Mtoken(wejście)0.28€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 24B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 128K
Wsparcie klienta: Wywoływanie funkcji, Multimodal
Llama-3.1-8B-Instruct
0.1€
/Mtoken(wejście)0.1€
/Mtoken(wyjście)Licencja: Llama 3.1 Community
Liczba parametrów: 8B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: Wywoływanie funkcji
Meta-Llama-3_3-70B-Instruct
0.67€
/Mtoken(wejście)0.67€
/Mtoken(wyjście)Licencja: Llama 3.3 Community
Liczba parametrów: 70B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: Wywoływanie funkcji
Mixtral-8x7B-Instruct-v0.1
0.63€
/Mtoken(wejście)0.63€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 46.7B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 32K
Mistral-7B-Instruct-v0.3
0.1€
/Mtoken(wejście)0.1€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 7B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 127K
Wsparcie klienta: Wywoływanie funkcji
Bge-base-en-v1.5
0.01€
/Mtoken(wejście)Qwen2.5-VL-72B-Instruct
0.91€
/Mtoken(wejście)0.91€
/Mtoken(wyjście)Licencja: Qwen
Liczba parametrów: 72B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 32K
Wsparcie klienta: Multimodal
Bge-multilingual-gemma2
0.01€
/Mtoken(wejście)DeepSeek-R1-Distill-Llama-70B
0.67€
/Mtoken(wejście)0.67€
/Mtoken(wyjście)Licencja: MIT & Meta Llama 3 Community License
Liczba parametrów: 70B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: Wywoływanie funkcji, Reasoning
Mistral-Nemo-Instruct-2407
0.13€
/Mtoken(wejście)0.13€
/Mtoken(wyjście)Licencja: Apache 2.0
Liczba parametrów: 12.2B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 118K
Wsparcie klienta: Wywoływanie funkcji
BGE-M3
0.01€
/Mtoken(wejście)Stable-diffusion-xl-base-v10
Gratis
Licencja: OpenRail++
Liczba parametrów: 3.5B
Kwantyzacja: fp32
Wsparcie klienta: Image Generation
Nvr-tts-it-it
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech
Nvr-tts-es-es
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech
Nvr-tts-en-us
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech
Nvr-tts-de-de
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech