
Implementeer moeiteloos uw modellen en applicaties voor machine learning
U heeft de cyclus van een artificiële intelligentieproject volbracht: nu is het tijd voor het in productie brengen van uw modellen of applicaties voor machine learning. Deze industrialiseringsfase, die veel resources vereist, kan een echte uitdaging zijn. Ga dankzij AI Deploy deze uitdaging aan door uw Docker-images moeiteloos en zonder kennis van Kubernetes te implementeren. Voer query’s uit via de API voor uw modellen uit en via de webinterface voor uw applicaties in productie. Wij beheren de infrastructuur en de veiligheid van de omgevingen.
Snelle, gemanagede implementatie
De overgang van een machine learning-prototype naar een implementatie in productie is vaak een tijdrovende stap. Industrialiseer uw modellen vanuit uw Control Panel, via de API of via de commandoregel (CLI) simpel en flexibel binnen enkele minuten met AI Deploy.
Geen architectuur te beheren
Exporteer uw modellen of applicaties in een Docker-image. AI Deploy zorgt voor de rest. Uw implementaties worden ondersteund met een totale abstractie van de hardwarearchitectuur.
Flexibiliteit en prestaties
Geef een minimum en maximum aantal instances aan voor uw implementaties en betaal alleen wanneer u verbruikt. AI Deploy wordt automatisch geschaald. Of u nu 10 opdrachten per dag of 10000 per minuut heeft, wij vergroten en verkleinen de benodigde resources, zodat het optimaal voor u functioneert.
Beveiliging van uw gegevens
Onze Europese soevereine cloud staat garant voor de veiligheid van uw gegevens. Onze cloudinfrastructuren en -services zijn gecertificeerd volgens ISO/IEC 27001, 27017, 27018 en 27701. Dankzij onze HDS-certificering kunt u veilig medische gegevens hosten.
CPU- en GPU-resources
Implementeer uw modellen en applicaties precies zoals nodig is, met CPU's of GPU's van NVIDIA voor de meest veeleisende rekenmodellen.
High availability
Kies implementaties op meerdere instances om hoge beschikbaarheid te hebben. Load balancing wordt automatisch uitgevoerd en door AI Deploy gemanaged.
Use cases voor AI Deploy
Startups en MKB
Voert u interne projecten uit en wilt u ze in productie implementeren? Het was nog nooit zo eenvoudig en haalbaar voor uw werknemers. Streamlit, Gradio of gewoon API-toegangspunten in een Docker-image: al uw projecten kunnen naadloos en eenvoudig naar productie overgaan. Uw fantasie is de enige limiet!
SaaS-leveranciers
Automatiseer uw implementaties met de API's van OVHcloud. Lever uw klanten op een veilige en individuele wijze modellen en applicaties voor artificiële intelligentie en beheer de toegang en uw kosten op een voorspelbare manier.
Consultancybedrijven
Zakelijk dashboard, fraudeanalyse, enzovoorts. Implementeer uw AI-projecten voor uiteenlopende use cases eenvoudig in productie voor u of uw klanten, zonder dat u daarvoor een team van architecten nodig heeft. Houd ook uw budget onder controle met voorspelbare tarieven.


Functies
Hoge beschikbaarheid en beschikbare resources
Door een implementatie op meerdere instances is high availability van uw infrastructuur gegarandeerd. U kunt ook de bijbehorende rekenkracht kiezen.
Transparante update
Door het rolling upgrade-mechanisme wordt een update van de implementatie zonder onderbrekingen doorgevoerd. Zo kunt u regelmatig uw model bijwerken en up-to-date blijven in productie.
Automatische dimensionering
Ongeacht of uw model enorm belast wordt of dat u het maar af en toe gebruikt, wij regelen automatisch de grootte van de implementatie bij, zodat het snel blijft werken.
Metrics en logs
Met een snelle toegang tot uw event logs kunt u de uitvoering van uw taken heel eenvoudig overzien. U kunt het aantal calls of de latency vervolgen.
Beveilig uw implementatieomgeving
Doordat de login beveiligd is met een softwaretoken, weet u zeker dat alleen uw geautoriseerde medewerkers toegang hebben tot AI Deploy. Selecteer tokens en pas ze aan om de gewenste gebruikersrechten toe te passen.
Simpele tarieven volgens verbruik
Met AI Deploy kunt u betalen naargelang uw verbruik. Voor elke gestarte implementatie betaalt u alleen de resources van de gebruikte instances (GPU of CPU). Het aantal calls is echter onbeperkt. De kosten zijn dus voorspelbaar en een vaste looptijd is niet vereist voor het gebruik van deze dienst.
Beheer vanuit het Control Panel, via de API of met de opdrachtregel
Afhankelijk van uw competenties en voorkeuren kunt u uw implementaties starten en vervolgen via de webinterface, via de API of met de opdrachtregel. Dit staat los van de gebruikte programmeertaal.