In statistieke is die k-naaste bure-algoritme 'n nie-parametriese klassifikasiemetode wat eers in 1951 deur Evelyn Fix en Joseph Hodges ontwikkel is, en later deur Thomas Cover uitgebrei is. Dit word gebruik vir klassifikasie en regressie. In beide gevalle bestaan die invoer uit die k naaste opleidingsvoorbeelde in 'n datastel.
Hoe werk K naaste buurman?
KNN werk deur die afstande tussen 'n navraag en al die voorbeelde te vind in die data, die gespesifiseerde aantal voorbeelde (K) naaste aan die navraag te kies, en dan vir die meeste te stem gereelde etiket (in die geval van klassifikasie) of gemiddeldes van die etikette (in die geval van regressie).
Wat word bedoel met K Nearest Neighbor-algoritme?
K Nearest Neighbor is 'n eenvoudige algoritme wat al die beskikbare gevalle stoor en die nuwe data of saak klassifiseer op grond van 'n ooreenkomsmaatstaf. Dit word meestal gebruik om 'n datapunt te klassifiseer op grond van hoe sy bure geklassifiseer is.
Wat is K Nearest Neighbour-masjienleer?
K-Naaste Buurman is een van die eenvoudigste Masjienleer-algoritmes gebaseer op Toesigleer-tegniek K-NN-algoritme aanvaar die ooreenkoms tussen die nuwe geval/data en beskikbare gevalle en stel die nuwe saak in die kategorie wat die meeste ooreenstem met die beskikbare kategorieë.
Wat is die voordeel van die K naaste Buurman?
Dit stoor die opleidingsdatastel en leer daaruit net ten tyde van die maak van intydse voorspellings. Dit maak die KNN-algoritme baie vinniger as ander algoritmes wat opleiding vereis bv. SVM, lineêre regressie ens.