När man talar om kärnor inom maskininlärning är det första man kommer att tänka på stödvektormodellen (SVM), eftersom kärntricket används ofta i SVM-modellen för att överbrygga linjäritet och icke-linjäritet.
För att hjälpa dig att förstå vad en kärna är och varför den är viktig kommer jag först att presentera grunderna i SVM-modellen.
SVM-modellen är en övervakad maskininlärningsmodell som främst används för klassificeringar (men den kan också användas för regression!). Den lär sig att separera olika grupper genom att bilda beslutsgränser. De blå punkterna och de lila punkterna. Det finns massor av sätt att separera dessa två klasser, vilket visas i grafen till vänster. Vi vill dock hitta det ”bästa” hyperplanet som kan maximera marginalen mellan dessa två klasser, vilket innebär att avståndet mellan hyperplanet och de närmaste datapunkterna på vardera sidan är störst. Beroende på vilken sida av hyperplanet en ny datapunkt befinner sig på kan vi tilldela den nya observationen en klass.
Det låter enkelt i exemplet ovan. Alla data är dock inte linjärt separerbara. I verkligheten är faktiskt nästan alla data slumpmässigt fördelade, vilket gör det svårt att separera olika klasser linjärt.