Wat is gecontroleerd leren?
In essentie is gecontroleerd leren een type machine learning waarbij het algoritme leert van gelabelde gegevens.
Denk aan gecontroleerd leren zoals een student leert met een leraar. De "leraar" (vaak een data scientist of een domein expert) levert de computer een reeks voorbeelden, waarbij elk voorbeeld zowel de input als de bijbehorende correcte output bevat.

Het fundamentele doel van gecontroleerd leren is dat het algoritme een algemene regel of een toewijzingsfunctie "leert" die nieuwe, ongeziene inputs kan aannemen en de juiste output ervan kan voorspellen. Het wordt "gecontroleerd" genoemd omdat het proces van een algoritme dat leert van de trainingsdataset kan worden gezien als een leerkracht die toezicht houdt op het leerproces.
We kennen de juiste antwoorden (labels), het algoritme maakt iteratief voorspellingen op de trainingsdata en wordt gecorrigeerd door de docent. Het leren stopt wanneer het algoritme een aanvaardbaar prestatieniveau bereikt.
Hoe werkt gecontroleerd leren?
Gecontroleerd leren lijkt misschien complex, maar de onderliggende methoden volgen een gestructureerde workflow. Het gaat over een machine onderwijzen door haar voorbeelden te tonen en dan haar inzicht te testen. Hier volgt een overzicht van de typische stappen:
Gelabelde gegevens verzamelen en voorbereiden
Het proces begint met het verzamelen van relevante gegevens. Cruciaal voor gecontroleerd machine learning zijn de labels voor deze gegevens. Dit betekent dat elk stuk invoergegevens wordt gekoppeld aan een overeenkomende correcte uitvoer of "tag". Als u bijvoorbeeld een spammelder bouwt, dan zijn uw gegevens e-mails (invoer) die gelabeld zijn als "spam" of "niet spam" (uitvoer).
De kwaliteit en kwantiteit van deze gelabelde gegevens staan bij de gebruikte methoden voorop. Hoe meer hoogwaardige, relevante voorbeelden het functiemodel ziet, hoe beter het over het algemeen zal leren en presteren. Deze fase omvat vaak het opschonen van gegevens (het verwerken van ontbrekende waarden, het verwijderen van fouten) en het voorverwerken (het transformeren van gegevens in een geschikt formaat voor het algoritme).
De gegevens splitsen in training, validatie en testsets
Zodra u uw gelabelde gegevensset hebt, is het standaardgebruik om deze niet allemaal te gebruiken om het model direct te onderwijzen. In plaats daarvan is het typisch verdeeld. De trainingsset vormt het grootste deel van de gegevens en wordt gebruikt om het machine learning-model daadwerkelijk te trainen. Het model "ziet" deze voorbeelden en leert de relatie tussen de invoer en de bijbehorende labels.
Een validatieset (optioneel maar sterk aanbevolen) wordt gebruikt tijdens het trainingsproces om de parameters van het model (hyperparameters) af te stemmen en beslissingen te nemen over de architectuur van het model. Het helpt te voorkomen dat het model te gespecialiseerd wordt in de trainingsgegevens (een probleem dat overfitting wordt genoemd) door een onbevooroordeelde evaluatie te leveren terwijl het leert.
Ten slotte wordt de testset gebruikt nadat het model is getraind (en gevalideerd) om een onbevooroordeelde evaluatie van de uiteindelijke prestaties van het model te bieden. Deze gegevens zijn nog nooit eerder door het model gezien, dus het geeft een goede indicatie van hoe het model zal presteren op nieuwe, reële gegevens.
Een model kiezen (algoritmeselectie)
Op basis van het probleem dat u probeert op te lossen (bijvoorbeeld het voorspellen van een categorie als "spam/niet spam" - classificatie of het voorspellen van een continue waarde zoals een huizenprijs - regressie) en de aard van uw gegevens, selecteert u een geschikt algoritme voor gecontroleerd leren. Er zijn veel algoritmen om uit te kiezen, zoals Lineaire regressie, Logistische regressie, beslissingsstructuren, ondersteuning van vectormachines (SVM's), neurale netwerken en meer.
Het model trainen
Hier gebeurt het "leren". Het gekozen algoritme verwerkt de trainingset. Het model maakt voorspellingen op basis van de inputgegevens en vergelijkt deze voorspellingen met de feitelijk bekende labels.
Als er een verschil is (een fout), past het algoritme de interne parameters aan om de volgende keer betere voorspellingen te maken. Dit wordt vaak gedaan door te proberen een "verliesfunctie" te minimaliseren, die kwantificeert hoe ver de voorspellingen van het model verwijderd zijn van de werkelijke waarden.
Dit iteratieve aanpassingsproces gaat door totdat het model een bevredigend nauwkeurigheidsniveau voor de trainingsgegevens bereikt (en goed presteert wat betreft de validatiegegevens).
Het model evalueren
Zodra de training is voltooid, worden de prestaties van het model beoordeeld met behulp van de testset. Welke algemene metrische gegevens worden gebruikt voor evaluatie, is afhankelijk van het type probleem.
Voor classificatie zijn meetwaarden als nauwkeurigheid, precisie, terugroepen en F1-score gebruikelijk. Voor regressie wordt vaak de waarde Mean Squared Error (MSE) of R-squared gebruikt. Deze stap is van cruciaal belang om te begrijpen hoe goed het waarschijnlijk is dat het model generaliseert naar nieuwe, onzichtbare gegevens.
Als de prestaties van het model bevredigend zijn, kan het worden ingezet om voorspellingen te doen op nieuwe, live gegevens. Zo zou ons spamfilter nu inkomende e-mails gaan classificeren die het nog nooit heeft gezien. Het is ook belangrijk om de prestaties van het model in de echte wereld voortdurend te monitoren, omdat gegevenspatronen in de loop van de tijd kunnen veranderen (een concept dat bekend staat als "modeldrift"), wat mogelijk hertraining of aanpassingen aan het model vereist.
In essentie is gecontroleerd leren een iteratief proces waarbij gelabelde voorbeelden aan een algoritme worden doorgegeven, zodat het patronen kan leren en vervolgens het vermogen om deze patronen te veralgemenen naar nieuwe gegevens kan testen.
Typen machine learning onder toezicht
Gecontroleerde leerproblemen, hoewel ze allemaal geworteld zijn in het principe van leren van gelabelde gegevens, worden over het algemeen onderscheiden in twee primaire categorieën: Classificatie en regressie. Het fundamentele verschil tussen deze twee hangt af van de aard van de output die het model is ontworpen om te voorspellen.
Classificatie:
Classificatie heeft betrekking op taken waarbij het doel is een discreet categorie- of klassenlabel te voorspellen. Dit betekent dat de outputvariabele geen getal is dat continu kan variëren, maar eerder een afzonderlijke groep, zoals "ja" of "nee", "spam" of "niet spam" of specifieke objecttypen zoals "kat", "hond" of "mens".
Het model leert van een trainingsgegevensset waarbij aan elke invoer al een vooraf gedefinieerde klasse is toegewezen. Het doel wordt dan om nieuwe, ongeziene gegevenspunten nauwkeurig toe te wijzen aan een van deze geleerde categorieën.
Er zijn talrijke praktische toepassingen van classificatie. In spam-e-maildetectiemodellen bijvoorbeeld worden binnenkomende e-mails geclassificeerd als "spam" of "niet als spam". Beeldherkenningstaken gebruiken classificatie om objecten in afbeeldingen te identificeren, zoals het categoriseren van een afbeelding als een "auto", "fiets" of "voetganger".
Regressie:
Anderzijds is regressie de leertechniek onder toezicht die wordt gebruikt wanneer de outputvariabele een continue numerieke waarde is. In tegenstelling tot classificatie, die voorspelt tot welke categorie iets behoort, wil regressie voorspellen hoeveel iets er is of wat een specifieke numerieke waarde zal zijn. Het model leert invoervariabelen toewijzen aan een continue uitvoer.
Er zijn volop voorbeelden van regressie in de praktijk. Het voorspellen van de huizenprijs houdt in dat de marktprijs van een huis wordt geschat op basis van kenmerken zoals de grootte, het aantal slaapkamers en de locatie. In de financiële wereld worden regressiemodellen gebruikt voor het voorspellen van aandelenkoersen, waarbij getracht wordt toekomstige aandelenkoersen te voorspellen waarop beslissingen gebaseerd zullen worden.
Veelgebruikte algoritmen voor regressietaken zijn Lineaire Regressie en Polynomiale Regressie. Support Vector Regression (SVR) is een andere populaire keuze, naast aanpasbare algoritmen zoals Decision Trees, Random Forests en Neural Networks wanneer ze zijn geconfigureerd voor continue uitvoer.
Gecontroleerd leren versus ongecontroleerd leren
Hoewel zowel gecontroleerd als ongecontroleerd leren fundamentele pijlers van machine learning en voorspelling zijn, benaderen ze problemen met fundamenteel verschillende methodologieën en doelstellingen, die zich voornamelijk onderscheiden door het soort gegevens dat ze gebruiken en de doelen die ze beogen te bereiken. Het begrijpen van hun verschillen is essentieel om de juiste aanpak voor een bepaalde taak te kiezen.
Invoergegevens kiezen
Het meest significante voorbeeld van een onderscheid ligt in de aard van de inputgegevens. Gecontroleerd leren, zoals we hebben besproken, berust op gelabelde gegevens. Dit betekent dat tijdens de trainingsfase het algoritme wordt voorzien van datasets waarbij elk invoervoorbeeld wordt gekoppeld aan een overeenkomende correcte output of "label".
Het leert door zijn voorspelling te vergelijken met deze bekende labels en zichzelf aan te passen om fouten te minimaliseren. Zie het als machine learning met een leerkracht die antwoorden geeft.
Niet-gelabelde gegevens overwegen
Ongecontroleerd leren werkt daarentegen met niet-gelabelde gegevens. De algoritmen krijgen gegevens die alleen bestaan uit invoerfuncties, zonder expliciete uitvoervariabelen of correcte antwoorden. Het doel is hier niet om een vooraf gedefinieerde output te voorspellen, maar eerder om de data te verkennen en inherente structuren, patronen of relaties daarin te ontdekken. Het is als leren door zelf patronen te observeren en identificeren, zonder expliciete begeleiding van een leraar.
Het aspect "supervisie" vormt een duidelijke afbakening. Bij gecontroleerd leren geeft de aanwezigheid van labels directe feedback op het leerproces waarop moet worden gebaseerd. Het algoritme wordt expliciet verteld wat de juiste uitvoer voor elke invoer moet zijn, waarbij het leren wordt geleid. Bij ongecontroleerd leren is er geen expliciete begeleiding. De algoritmen moeten patronen en relaties uitsluitend afleiden uit de kenmerken van de invoergegevens.
Voorbeelden van use cases voor gecontroleerd machine learning
Gecontroleerd leren is niet alleen een theoretisch concept of voorspelling; het is de motor achter een breed scala aan toepassingen die ons dagelijks leven en verschillende sectoren beïnvloeden. De mogelijkheid om te leren van gelabelde voorbeelden maakt het van onschatbare waarde voor taken die voorspelling en classificatie vereisen. Hier zijn enkele opvallende use cases:
- Afbeelding en object herkenning : Dit is een klassieke toepassing van classificatie. Gecontroleerde leermodellen worden getraind op enorme datasets van afbeeldingen, waarbij elke afbeelding wordt gelabeld met de objecten die hij bevat (bijvoorbeeld "kat", "auto", "voetganger", "boom").
- Spam email detectie : Een van de eerste en meest gebruikte toepassingen van gecontroleerd leren (met name classificatie) is het filteren van spam-e-mails. Modellen worden getraind op een uitgebreide corpus van e-mails die handmatig zijn gelabeld als "spam" of "niet spam" (vaak "ham" genoemd).
- Medical diagnosis and healthcare : Gecontroleerd leren speelt een steeds belangrijkere rol in de gezondheidszorg door medische professionals te helpen bij het diagnosticeren van ziekten. Modellen kunnen worden getraind op patiëntengegevens—waaronder symptomen, medische geschiedenis, laboratoriumresultaten en medische beelden—die zijn gelabeld met bevestigde diagnoses.
- Gevoelanalyse : Bedrijven en organisaties zijn in hoge mate afhankelijk van een goed begrip van de publieke opinie en feedback van klanten. Gecontroleerde leermodellen (classificatie) worden getraind op tekstgegevens (zoals productrecensies, berichten op sociale media of antwoorden op enquêtes) die zijn gelabeld met gevoelens als "positief", "negatief" of "neutraal".
- Detectie van financiële fraude : In de financiële sector is gecontroleerd leren essentieel om frauduleuze transacties te identificeren en te voorkomen. Modellen worden getraind op historische transactiegegevens, waarbij elke transactie wordt gelabeld als "frauduleus" of "legitiem".
- Voorspelling huizenprijzen en aandelenkoersen (regressie) : Regressiemodellen in gecontroleerd machine learning worden veel gebruikt in finance en onroerend goed. Om de huizenprijzen te voorspellen, worden de modellen getraind op data uit eerdere vastgoedverkopen, inclusief functies als grootte, aantal slaapkamers, locatie, leeftijd en voorzieningen, samen met de bijbehorende verkoopprijzen.
De bovenstaande voorbeeldlijst vertegenwoordigt slechts een fractie van de manieren waarop gecontroleerd leren wordt toegepast. Naarmate er meer gegevens in omloop zijn en de computerverwerkingskracht toeneemt, zullen het bereik en de verfijning van de use cases alleen maar groter worden.
OVHcloud en gecontroleerd leren
OVHcloud biedt een reeks oplossingen die op maat gemaakt zijn om elk stadium van de levenscyclus van gecontroleerd leren te ondersteunen. Of u nu moeiteloos getrainde modellen wilt implementeren, op grote schaal nieuwe modellen wilt bouwen en trainen of gebruik wilt maken van flexibele cloud-infrastructuren, OVHcloud levert de tools om uw gegevens om te zetten in bruikbare inzichten.

AI-eindpunten
Implementeer moeiteloos uw machine learning-modellen in productie met AI-eindpunten. Richt u op uw algoritmen terwijl wij de infrastructuur beheren. Met onze gemanagede service kunt u uw getrainde modellen via schaalbare en beveiligde HTTP-API's presenteren, zodat u ze gemakkelijk kunt gebruiken voor realtime voorspellingen.

Machine learning
Benut het volledige potentieel van uw gegevens met machine learning-oplossingen. Dit krachtige platform biedt datascientists en ontwikkelaars een uitgebreide omgeving om machine learning-modellen op grote schaal te bouwen, te trainen en te implementeren.

Public Cloud
Ontdek onze cloud-oplossingen, ontworpen om u volledige controle en flexibiliteit over uw infrastructuur te geven. Bouw, implementeer en beheer uw applicaties met onze on-demand rekeninstances, schaalbare opslagoplossingen en robuuste netwerkmogelijkheden.