Hjem Lyd Hvad er en markov-kæde? - definition fra techopedia

Hvad er en markov-kæde? - definition fra techopedia

Indholdsfortegnelse:

Anonim

Definition - Hvad betyder Markov Chain?

En Markov-kæde er en matematisk proces, der overgår fra en tilstand til en anden inden for et begrænset antal mulige tilstande. Det er en samling af forskellige tilstande og sandsynligheder for en variabel, hvor dens fremtidige tilstand eller tilstand i væsentlig grad er afhængig af dens øjeblikkelige tidligere tilstand.

En Markov-kæde er også kendt som en diskret tidsmarkov-kæde (DTMC) eller Markov-proces.

Techopedia forklarer Markov Chain

Markov-kæder bruges primært til at forudsige den fremtidige tilstand af en variabel eller et hvilket som helst objekt baseret på dets tidligere tilstand. Det anvender sandsynlige tilgange til at forudsige den næste tilstand. Markov-kæder udstilles ved hjælp af rettede grafer, der definerer den aktuelle og fortidstilstand og sandsynligheden for overgang fra en tilstand til en anden.

Markov-kæder har adskillige implementeringer inden for computing og internetteknologier. F.eks. Bruger PageRank (r) -formlen, der bruges af Google-søgning, en Markov-kæde til at beregne PageRank på en bestemt webside. Det bruges også til at forudsige brugeradfærd på et websted baseret på brugernes tidligere præferencer eller interaktioner med det.

Hvad er en markov-kæde? - definition fra techopedia