Spørgsmål: Er Hadoop for alle?
A: Apache open source Hadoop-databehandlingsressource og relaterede værktøjer bliver indflydelsesrige i big data-verdenen. Men i løbet om at indføre nyere, mere moderne it-løsninger, spørger virksomheder, om Hadoop er et universelt værktøj, der i vid udstrækning skal anvendes til big data og analytics processer.
I virkeligheden er der flere overvejelser for, om et system vil drage en stor fordel af Hadoop-implementeringen. Den ene er, hvorvidt big data er relevant for branchen. Med andre ord, om virksomheden vil køre med erhvervelse og analyse af ekstremt store datasæt, datasæt større end hvad der kan analyseres ved hjælp af en traditionel relationel database.
Derudover kan virksomheder vælge mellem Hadoop og andre proprietære værktøjer, der muligvis kræver mindre intern teknisk dygtighed. Nogle andre tech-virksomheder bygger lignende big data-værktøjer, der kan have mere intuitive grænseflader eller genveje for at give mindre erfarne brugere mulighed for at gøre mere med big data.
Samtidig er der enighed om, at de fleste big data-projekter kan drage fordel af Hadoop med tilstrækkelig administration. Værktøjer som Apache Hive-lagerdesign og Apache Pig-programmeringssyntaks til big data udvider, hvad Hadoop kan gøre. Andre fremskridt, som Hadapt og MapR, gør syntaks og brug af Hadoop mere gennemsigtig for en bredere vifte af brugere, eller med andre ord, der begynder at fjerne ”teknik” -problemet.
Generelt skal virksomheden se på, hvor meget store data den bruger, og hvor disse data kommer fra. Ledere og ledere skal overveje, hvem der skal arbejde på de involverede it-projekter, og deres evner og baggrund. De skal forstå forskellen mellem implementeringen af forskellige big data-værktøjer. Dette vil hjælpe ledergrupper med at forstå, om Hadoop er det rigtige til deres projekter.
