Hva er presisjon og tilbakekalling i datautvinning?
Hva er presisjon og tilbakekalling i datautvinning?

Video: Hva er presisjon og tilbakekalling i datautvinning?

Video: Hva er presisjon og tilbakekalling i datautvinning?
Video: Introduction to Precision, Recall and F1 | Classification Models 2024, November
Anonim

Samtidig som presisjon refererer til prosentandelen av resultatene dine som er relevante, minnes refererer til prosentandelen av totale relevante resultater som er korrekt klassifisert av algoritmen din. For andre problemer er det nødvendig med en avveining, og det må tas en beslutning om man skal maksimere presisjon , eller minnes.

Videre, hva er presisjon og gjenkalling med eksempel?

Eksempel av Presisjon - Minnes metrikk for å evaluere utdatakvaliteten for klassifiseringen. Presisjon - Minnes er et nyttig mål på suksess med prediksjon når klassene er svært ubalanserte. Ved informasjonsinnhenting, presisjon er et mål på resultatrelevans, mens minnes er et mål på hvor mange virkelig relevante resultater som returneres.

Foruten ovenfor, hvordan beregner du presisjon og tilbakekalling i datautvinning? For eksempel vil en perfekt presisjons- og tilbakekallingsscore resultere i en perfekt F-målscore:

  1. F-mål = (2 * presisjon * tilbakekalling) / (presisjon + tilbakekalling)
  2. F-mål = (2 * 1,0 * 1,0) / (1,0 + 1,0)
  3. F-mål = (2 * 1,0) / 2,0.
  4. F-mål = 1,0.

Også å vite er, hva er presisjon i data mining?

I mønstergjenkjenning, informasjonsinnhenting og klassifisering (maskinlæring), presisjon (også kalt positiv prediktiv verdi) er brøkdelen av relevante forekomster blant de hentede forekomstene, mens tilbakekalling (også kjent som sensitivitet) er andelen av det totale antallet relevante forekomster som ble

Hvorfor bruker vi presisjon og tilbakekalling?

Presisjon er definert som antall sanne positive delt på antall sanne positive pluss antall falske positive. Samtidig som minnes uttrykker muligheten til å finne alle relevante forekomster i et datasett, presisjon uttrykker andelen av datapunktene vår modell sier var relevante faktisk var relevante.

Anbefalt: