Hjem Trends Hvordan kan eksisterende datalagermiljøer bedst skaleres for at imødekomme behovene i big data-analyse?

Hvordan kan eksisterende datalagermiljøer bedst skaleres for at imødekomme behovene i big data-analyse?

Anonim

Q:

Hvordan kan eksisterende datalagermiljøer bedst skaleres for at imødekomme behovene i big data-analyse?

EN:

Individuelle datalagerprojekter skal vurderes fra sag til sag. Generelt i forsøget på at strække et eksisterende datalagerdesign for bedre at håndtere big data-analyse er der en kerneproces til at finde ud af, hvad der skal gøres. IT-fagfolk kan kalde dette "skalering" eller "skalering ud."

Webinar: Big Iron, Meet Big Data: Befriende Mainframe Data med Hadoop & Spark

Tilmeld dig her

Skalering indebærer generelt at se på at få tilstrækkelig behandlingskraft, få en tilstrækkelig hukommelse og rumme mere kraftfulde serveraktiviteter til at håndtere alle de større datasæt, som virksomheden vil behandle. I modsætning hertil kan udskalering betyde at indsamle klynger af serverhardware og netværk dem sammen for at korralere big data.

Nogle it-eksperter har foreslået, at den mere almindelige metode med Apache Hadoop og andre populære big data-værktøjer og platforme er at udskala og klynge hardware for at opnå de ønskede effekter. Andre påpeger imidlertid, at med nutidens teknologi kan et datalager opskaleres ved hjælp af en indkøbsstrategi, der tilføjer ressourcer til en server, f.eks. Ved at få et større antal behandlingskerner sammen med en større mængde RAM.

Uanset om de skalerer op eller skalerer, har datalager yderligere fysiske hardwareaktiver for at kunne håndtere de større dataarbejdningsbelastninger. De har også brug for yderligere menneskelig administration, hvilket betyder mere træning for interne teams. Der er brug for en masse planlægning i projektet for at bestemme, hvilken slags stress og pres de større dataarbejdsbelastninger vil have på et eksisterende legacy-system for at tilpasse det til et nyt big data-økosystem. Et stort problem er opbevaringsflaskehalser, der kræver opgraderinger til lagercentre og andre former for flaskehalser med ydeevne, der kan hobbe et begynder system, hvis ikke de ikke adresseres.

Hvordan kan eksisterende datalagermiljøer bedst skaleres for at imødekomme behovene i big data-analyse?