Indholdsfortegnelse:
Definition - Hvad betyder Hadoop Common?
Hadoop Common refererer til samlingen af fælles værktøjer og biblioteker, der understøtter andre Hadoop-moduler. Det er en væsentlig del eller modul i Apache Hadoop Framework sammen med Hadoop Distribueret Filsystem (HDFS), Hadoop YARN og Hadoop MapReduce. Som alle andre moduler antager Hadoop Common, at hardwarefejl er almindelige, og at disse automatisk skal håndteres i software af Hadoop Framework.
Hadoop Common er også kendt som Hadoop Core.