Indholdsfortegnelse:
- Definition - Hvad betyder Hadoop Distribueret Filsystem (HDFS)?
- Techopedia forklarer Hadoop Distribueret filsystem (HDFS)
Definition - Hvad betyder Hadoop Distribueret Filsystem (HDFS)?
Hadoop Distribueret filsystem (HDFS) er et distribueret filsystem, der kører på standard eller low-end hardware. HDFS er udviklet af Apache Hadoop og fungerer som et standarddistribueret filsystem, men giver bedre datagennemstrømning og adgang gennem MapReduce-algoritmen, høj fejltolerance og indbygget understøttelse af store datasæt.
Techopedia forklarer Hadoop Distribueret filsystem (HDFS)
HDFS gemmer en stor mængde data, der er placeret på tværs af flere maskiner, typisk i hundreder og tusinder af samtidigt tilsluttede noder, og giver datapålidelighed ved at gentage hvert dataeksempel som tre forskellige kopier - to i en gruppe og en i en anden. Disse kopier kan udskiftes i tilfælde af fejl.
HDFS-arkitekturen består af klynger, som hver tilgås via et enkelt NameNode-softwareværktøj, der er installeret på en separat maskine til at overvåge og styre den klyngs filsystem og brugeradgangsmekanisme. De andre maskiner installerer en forekomst af DataNode til at administrere klyngelager.
Da HDFS er skrevet i Java, har det oprindelig support til Java-applikationsprogrammeringsgrænseflader (API) til applikationsintegration og tilgængelighed. Det kan også fås adgang til det via standardbrowsere.