Indholdsfortegnelse:
Definition - Hvad betyder Apache Kafka?
Apache Kafka er et open source-abonnementssystem til publicering-abonnement, der er designet til at give hurtig, skalerbar og fejletolerant håndtering af datafeeds i realtid. I modsætning til traditionel virksomhedsmeddelelsessoftware er Kafka i stand til at håndtere alle de data, der flyder gennem en virksomhed, og at gøre det i nær realtid.
Kafka er skrevet i Scala og blev oprindeligt udviklet af LinkedIn. Siden den tid har en række virksomheder brugt det til at bygge realtidsplatforme.
Techopedia forklarer Apache Kafka
Kafka har mange ligheder med transaktionslogfiler, og den opretholder feeds af meddelelser i emner. Producenter skriver data til emner, og forbrugere læser fra disse emner, som er partitioneret og replikeret på tværs af flere noder i et distribueret systemformat. Kafka er unik, idet den behandler hvert emne partition som en log, og hver meddelelse i en partition er tildelt en unik offset. Det opbevarer alle meddelelser i en vis tid, og forbrugerne er ansvarlige for at spore deres placering i hver log. Dette adskiller sig fra tidligere systemer, hvor mæglere var ansvarlige for denne sporing, hvilket alvorligt begrænsede systemets evne til at skalere efterhånden som antallet af forbrugere steg. Denne struktur gør det muligt for Kafka at støtte mange forbrugere og bevare store mængder data med meget lavt omkostning.
Kafka kan bruges:
- Som en traditionel meddelelsesmægler
- Til sporing af aktivitet på websitet
- Til logopsamling
- Til behandling af big datastrøm
Kafka kan bruges sammen med Apache Storm, Apache HBase og Apache Spark til realtidsanalyse og gengivelse af streamingdata.







