Uvedené modely a kritéria vedou jen na lineární funkce (diskriminační, regresní) typu w•x a nebyly by příliš praktické. Jedním ze zásadních přínosů SVM je transformace
l-rozměrného prostoru x na prostor definovaný systémem nelineárních funkcí φ(x), jehož dimenze
n nesouvisí s dimenzí x, často bývá větší a může být až nekonenčná. V tomto prostoru se teprve vytvoří příslušný lineární SVM-model. Protože se však model vytváří na nelineárně transformovaném prostoru φ(x), je i samotný model nelineární v prostoru původních proměnných x. Tím získávají SVM neobvyklou flexibilnost. Definují-li se transformace ve formě kvadratické formy
K(xi,xj)=φ(xi)Tφ(xj), (kde funkce K se nazývá jádrová), lze úlohu nalezení modelu formulovat jako kvadratickou vázanou optimalizaci, pro níž lze v kombinaci s metodou Lagrangeových multiplikátorů nalézt poměrně rychlé a stabilní derivační algoritmy.
Nejčastěji používaná jádra jsou typu RBF (Radial Base Functions) definovaná jako
Mezi další, méně používané jádrové transformace patří:
Parametry
γ a
d zadává uživatel,
r se počítá. Parametr
γ má význam strmosti jádra, vyšší hodnoty
γ vedou k podrobnějším, někdy i méně stabilním modelům. Zavedením takové nelineární transformace je pak možné v klasifikaci separovat libovolné nelineární útvary v
l-rozměrném prostoru, v regresi vytvářet libovolné nelineární regresní funkce a v modelování rozdělení nalézt nejlepší „hranici rozdělení“, přesněji nalézt nelineární hyperplochu, která ohraničuje minimální objem v prostoru dat R
l, který obsahuje alespoň 100(1 – ν)% dat.