Af Techopedia Staff, 22. september 2016
Takeaway: Værten Rebecca Jozwiak diskuterer kantanalyse med Dr. Robin Bloor, Dez Blanchfield og Dell Statisticas Shawn Rogers.
Du er ikke logget ind. Log ind eller tilmeld dig for at se videoen.
Rebecca Jozwiak: Mine damer og herrer, hej og velkommen til Hot Technologies i 2016. I dag har vi ”Edge Analytics: IoT Economy Endelig.” Mit navn er Rebecca Jozwiak. Jeg vil være din moderator til dagens webcast. Vi tweeter med en hashtag af # HOTTECH16, hvis du vil deltage i Twitter-samtalen.
Så IoT, bestemt et varmt emne i år og tingenes internet, det handler virkelig om maskindata, sensordata, logdata, enhedsdata. Ingen af dem er nye, vi har haft den type data for evigt, men det er, at vi ikke virkelig har været i stand til at bruge dem, og nu ser vi bare et væld af nye måder at bruge disse data på. Især inden for den medicinske industri, de finansielle markeder med olie og gas, råvarer, er det bare et væld af oplysninger, der tidligere er uudnyttet. Og ikke en hel masse mennesker har virkelig fået et godt greb om, hvordan man gør det godt. Vi taler om meget lidt data, men det er en masse data, og du ved, der er netværksproblemer involveret, der er hardware involveret, eller skal behandles, og hvordan gør du det uden at tilstoppe dit system? Det er hvad vi skal lære om i dag.
Her er vores sortiment af eksperter. Vi har Dr. Robin Bloor, vores chefanalytiker i The Bloor Group. Vi har også Dez Blanchfield, vores dataforsker hos The Bloor Group. Og vi er glade for at have Shawn Rogers, direktør for global marketing og kanaler fra Dell Statistica. Og med det vil jeg give bolden videre til Robin.
Dr. Robin Bloor: Okay, tak for det. Jeg skal trykke på en knap og kaste et lysbillede op. Jeg aner ikke, hvorfor jeg skabte dette apokalyptiske billede til tingenes internet. Måske fordi jeg tror, det vil blive kaotisk i sidste ende. Jeg går videre. Dette er på niveau med kurset i enhver IoT-præsentation. Du har på en eller anden måde at sige noget skandaløst om, hvor det hele går hen. Og faktisk er det meste af dette sandsynligvis sandt. Hvis du faktisk ser på den måde, disse kurver udvider gradvist. Du ved, personlige computere, smartphones og tablets vil sandsynligvis fortsætte med at stige. Smart-tv vil sandsynligvis stige. Wearables, de eksploderer sandsynligvis lige nu, sammenlignet med hvad de var for et par år siden. Tilsluttede biler, uundgåeligt, at stort set alle biler vil blive tilsluttet grundigt bredt og transmitterende data hele tiden. Og alt andet. Og netop denne graf fra BI Intelligence indikerer, at alt andet opvejer de åbenlyse ting meget, meget hurtigt.
Så hvad skal man sige om IoT? Den første ting er bare et arkitektonisk punkt. Du ved, når du har data, og du har behandlet dig, på en eller anden måde bliver du nødt til at sammensætte de to. Og med data på de mængder, det er nu, og indsamling forskellige steder, er de to ikke naturligt sammen mere. De plejede at være i de gamle mainframe-dage, antager jeg. Så du kan tænke på, at der er et behandlingslag, et transportlag og et datalag. Og på en eller anden måde vil transportlag i dag flytte behandlingen rundt eller flytte dataene på tværs af netværk. Så her er valgmulighederne: Du kan flytte dataene til behandlingen, du kan flytte behandlingen til dataene, du kan flytte behandlingen og dataene til et praktisk udførelsespunkt, eller du kan skære behandlingen og skære dataene. Og hvad angår tingenes internet, er dataene stort set allerede afskåret ved fødslen, og sandsynligheden er, at en forfærdelig del af behandlingen vil blive afskåret, så de applikationer, der skal køres, kan finde sted.
Så jeg har malet et billede. Den interessante ting for mig om IoT, jeg taler om et aggregeringsdomæne i dette diagram, og jeg påpeger, at der er sub-domæner. Så du kan forestille dig, at IoT-domæne 1 her er en bil af en eller anden art, og domæne 2 og domæne 3 og domæne 4, er biler af en eller anden art, og du vil samle data lokalt, du kører lokale apps på disse data, og du vil sætte forskellige ting i gang. Men for at have analyser om alle biler, bliver du nødt til at overføre data til centret, ikke nødvendigvis alle data, men du bliver nødt til at samles i centrum. Og hvis du tænker over dette, kan du måske have mange, mange forskellige aggregeringsdomæner til det samme sæt af IoT-ting. Og domænerne i sig selv kan yderligere samles. Så du kunne have dette gentagne hierarki. Og dybest set, hvad vi har der, er et utroligt komplekst netværk. Meget mere kompliceret end noget andet, vi måtte have før.
Jeg har en note i bunden her. Alle netværkskoder, inklusive bladknudepunkter, kan være dataskabere, datalagre og behandlingssteder. Og det giver dig en mulighed for distribution, som vi ikke har set før. Dez vil tale lidt mere om det, så jeg går videre til netop dette punkt. Når vi først er på tingenes internet, og alle dataene faktisk er løst til at være begivenheder, er pointen omkring dette lysbillede bare for at indikere, at vi bliver nødt til at standardisere begivenheder. Vi bliver nødt til i det mindste at være nødt til at have dette. Vi får det tidspunkt, hvor begivenheden fandt sted, den geografiske placering, den fandt sted, den virtuelle eller logiske placering af processen, der skabte den, kildenheden, der oprettede den, enheds-ID, så du ved nøjagtigt, hvilken kildeenhed oprettede den, ejerskab af dataene og aktørerne, de mennesker, der har ret til at bruge dataene på en eller anden måde, det bliver nødt til at bære sine tilladelser med det, hvilket betyder virkelig, det bliver nødt til at bære sikkerhed med det, og så er der selve dataene. Og når du ser på dette, er du klar over, at selvom du har en sensor, der ikke gør andet end at rapportere temperaturen på noget hvert sekund, er der faktisk ganske mange data bare for at identificere nøjagtigt, hvor dataene er stammer fra, og hvad det faktisk er. I øvrigt er dette ikke en udtømmende liste.
Så hvad angår det fremtidige IT-landskab, er det, som jeg ser det: dette er ikke kun tingenes internet, der er også det faktum, at vi vil være i en verden af begivenhedsstyret aktivitet, og derfor bliver nødt til at have begivenhedsdrevne arkitekturer, og disse arkitekturer bliver nødt til at spænde over store netværk. Og den anden ting er alt i realtid, det er ikke nødvendigvis tilfældet for os at være realtid, men der er noget, jeg omtaler som forretningstid, hvilket er det tidspunkt, inden data faktisk skal serveres og klar til forarbejdet. Det er måske ikke, du ved, et millisekund efter det er oprettet. Men der er altid et sådant tidspunkt for hvert stykke data, og når du først har en begivenhedsstyret arkitektur, begynder det at blive mere fornuftigt at tænke i form af en realtids tilgang til den måde, verden fungerer på.
Så kog det ned, fordi det, vi egentlig taler om, er analyser på IoT. På trods af alt det handler det stadig om tid til indsigt, og det er ikke kun tid til indsigt, indsigt skal følges af handlinger. Så tid til indsigt og tid til handling er det, jeg vil koge det ned til. Når det er sagt, skal jeg give bolden tilbage til Dez.
Dez Blanchfield: Tak, Robin. Insightful som altid. Jeg elsker det faktum, at det er en hård handling at følge i alle tilfælde, men jeg vil gøre mit bedste.
En af de ting, jeg ser, og som jeg ofte bliver underholdt af det, for at være ærlig og ikke i en uhensigtsmæssig og negativ skrå form, men der er en masse bekymring og panik over internettet med ting, der overtager verden og slotting os, og du vil begynde at miste dine data, så jeg vil gerne se lidt tilbage på nogle af de ting, som vi har gjort før i de sidste to til tre årtier, som var en tæt fax til internettet ting, men måske ikke helt i samme skala. Og bare for at vise os selv, at vi faktisk har været her og løst nogle af problemerne, ikke på dette niveau af skala og ikke med denne hastighed. Fordi det betyder, at vi rent faktisk kan løse problemet, og at vi ved, hvad nogle af svarene er; vi er lige nødt til at slå ned og anvende nogle af de erfaringer, vi havde før. Og jeg ved, at dette er hele samtalen, vi er ved at føre, og jeg har en lang række sjove ting bare for at chatte igennem i afsnittet Spørgsmål og svar.
Men når vi tænker på tingenes internet i cirklen, er der i øjeblikket en hel del centralisering på et designniveau, der blev skrevet i de meget tidlige dage. Fitbit-enheder, for eksempel, er alle tilbøjelige til at gå til et centralt sted, og det vil sandsynligvis være vært i en skyplatform et eller andet sted, og alle disse data fra alle disse enheder rammer det samme, lad os bare sige, frontend af en stak, inklusive web og app- og databaserede tjenester. Men over tid vil denne skala kræve en re-engineering for at klare den mængde data, der kommer til dem, og de vil genudvikle, så der er flere frontend og flere kopier af stablen flere steder og regioner. Og vi ser dette, og der er en række eksempler, som jeg vil give dig, som vi kan diskutere.
Det centrale punkt i dette er, at selvom vi har set nogle af disse løsninger, som jeg er ved at dække, kræver omfanget og volumen af dataene og den netværkstrafik, som tingenes internet genererer, et skift fra centralt til distribuerede arkitekturer efter min mening, og vi ved det, men vi har ikke nødvendigvis forstået, hvad løsningen er. Når vi tænker over konceptet om, hvad tingenes internet er, er det en storstilet netværksmodel. Det er masser af ting, der nu bringer lyd. Ting, der ikke stød op før for nylig. Og faktisk, jeg tror, det var i går, jeg talte spøgtigt om stakken, men jeg gik for at købe en ny brødrister, og den fulgte med en mulighed, der kunne fortælle mig forskellige ting, herunder når det var nødvendigt at rengøre. Og en ny mikrobølgeovn med en meget lignende funktion og kunne endda faktisk pinge en app på min telefon for at sige, at det, som jeg var ved at genopvarme, nu var gjort. Og jeg er meget af den opfattelse, at hvis der er et par ting, jeg ikke vil tale med mig, er det mit køleskab, mikrobølgeovn og brødristere. Jeg er temmelig komfortabel med, at de er stumme enheder. Men jeg har fået en ny bil for nylig, en lille Audi, og den taler med mig, og jeg er ganske tilfreds med det, fordi de ting, den taler om, er interessante ting. Som at opdatere kort i realtid for at fortælle mig, hvor der er en bedre rute at komme fra punkt A til punkt B, fordi det registreres trafik gennem forskellige mekanismer med data, det bliver sendt.
Jeg har denne dias. Vi har allerede set, at højvolumen netværksmodeller kræver en skift fra central til distribueret indfangning og levering af databehandlings- og analysemodeller. Vi har set ting bevæge sig fra de tre små grafiske diagrammer der på højre kant, hvor vi har, den til venstre ud af de tre, der er en centraliseret model med alle de små enheder kommer til det centrale sted og indsamle data, og skalaen er ikke så stor, de klarer sig helt fint der. I midten har vi en lidt mere decentral model og hub og talte, hvilket er, hvad jeg tror, vi får brug for med internettets ting i den næste generation. Og så på højre side har vi dette fuldt distribuerede og meshede netværk, som er hvor tingenes internet og maskine til maskine kommer til at gå på meget kort sigt i fremtiden, men vi er ikke helt der af en række årsager. Og overvejende fordi vi bruger internetplatforme til det meste af kommunikationen indtil videre, og vi faktisk ikke har bygget et andet netværk til at bære en masse af disse data.
Der er andre netværk, der allerede findes, såsom Batelco-netværk. Mange mennesker tænker ikke på det faktum, at telenes netværk ikke er internet. Internettet er en meget separat ting på mange måder. De dirigerer data fra smartphones over telefonnetværkene og derefter over telefonnetværkene og til internettet generelt, hvor de faktisk lægger dem i to netværk. Men det er helt muligt og sandsynligt, at tingenes internet har brug for et andet netværk. Vi taler om det industrielle internet som et emne generelt, som vi ikke vil gå i detaljer nu, men egentlig taler vi om et andet netværk, der er specifikt designet til de typer transport til data eller internet af ting og maskine til maskine meddelelse.
Men nogle af eksemplerne, som jeg ønskede at dele, hvor vi har set netværk med højt volumen og distribuerede data fungerer meget godt, er ting som internettet. Internettet blev specifikt designet og arkitekteret fra første dag for at være i stand til at overleve en atomkrig. Hvis dele af USA sprænges, blev internettet designet, så data kunne bevæge sig rundt på internettet uden pakketab af grunde til, at vi stadig er tilsluttet. Og det findes stadig i dag på verdensplan. Internettet har flere muligheder omkring redundans og routing af pakker. Og faktisk styres Internettet af en ting, der hedder BGP, Border Gateway-protokol og Border Gateway-protokollen, BGP, er specifikt designet til at klare en router eller switch eller server, der er nede. Når du sender eller modtager en e-mail, hvis du sender tre e-mails i træk, er der ingen garanti for, at hver af disse e-mails følger den samme rute til den samme slutdestination. De kan bevæge sig gennem forskellige dele af internettet af forskellige grunde. Der kan være et afbrydelse, der kan være vedligeholdelsesvinduer, hvor tingene er offline for at blive opgraderet, der kunne bare være overbelastning i netværket, og vi ser det med ting som trafiknetværk med biler og offentlig transport og skibe og fly. Vi får indhold til vores enheder som vores bærbare computere og tablets og computere gennem browsere osv. Hver dag gennem indholdsleveringsnetværk. Netværk til indholdslevering handler om at tage kopier af indhold fra din primære serveringsplatform, f.eks. Webserveren og flytte kopier af denne og cachen i små mængder til kanten af netværket og kun levere det til dig fra den nærmeste del af kanten.
Anti-spam og cybersikkerhed - hvis en spam-begivenhed finder sted i Canada, og Microsoft opdager det og ser, at der er masser af kopier af den samme e-mail, der sendes til en gruppe tilfældige personer, tages der kontrollesum over det, er en underskrift for den meddelelse oprettet og sat i et netværk og distribueret med det samme. Og så den e-mail aldrig kommer ind i min indbakke, eller hvis den gør det, bliver den straks tagget som spam, fordi den er blevet registreret et andet sted i kanten af netværket. Og så fortælles andre dele af kanten af netværket om denne spam-meddelelsessignatur, og den sættes i en databases indeks, og hvis disse meddelelser begynder at vises på den anden side af planeten, registrerer vi dem, og vi ved, at de er spam. Og det samme gælder cybersikkerhed. Et hack, der finder sted på den ene side af planeten, detekteres og registreres og kortlægges, og pludselig kan vi på den anden del af netværket bekæmpe det og arkivere regler og politikker og ændre for at se, om vi kan blokere det. Især med den nye virkning af ting som nægtelse af tjeneste eller distribueret nægtelse af tjeneste, hvor tusinder af maskiner bruges til at angribe et centralt websted.
Bitcoin og blockchain er som standard i sin natur en distribueret hovedbog, blockchain og håndterer eventuelle strømafbrydelser eller brud i netværket. Detektering og forebyggelse af svig, el- og vandværker - vi ser, du kender kraftnetværket, hvis en del af netværket får et træ på det og tager en stang og en ledning, får mit hus stadig strøm. Jeg ved ikke engang om det, jeg kan ofte ikke engang se det i nyhederne. Og vi er alle vant til de transportnet, hvor der oprindeligt var en centraliseret model, ”Alle veje førte til Rom, ” som de siger, og så måtte vi til sidst gå til den decentraliserede model med hubs og eger, og så gik vi til et meshet netværk, hvor du kunne komme fra den ene side af byen til den anden gennem forskellige meshed ruter og forskellige kryds. Og hvad vi ser her, er, at denne centraliserede model af, hvad vi gør nu med tingenes internet, bliver nødt til at skubbe ud til kanten af netværket. Og dette gælder for analyse mere end nogensinde, og det er, at vi er nødt til at skubbe analytics ud i netværket. Og for at gøre det kræver det en helt ny tilgang til, hvordan vi får adgang til og behandler disse data og datastrømmene, efter min mening. Vi taler om et scenarie nu, hvor jeg tror, vi ser begrænset intelligens skubbet ud til kanten af netværket på internetforbundne enheder, men vi ser snart disse enheder øges i intelligens og øger niveauet for analyse, de ønsker at gøre. Og som et resultat af dette bliver vi nødt til at skubbe disse smarts ud og længere gennem netværket.
F.eks. Smarte apps og sociale medier - hvis vi tænker på sociale medier og nogle af de smarte apps, er de stadig meget centrale. Du ved, der er kun to eller tre datacentre for dem som Facebook. Google er blevet meget mere decentraliseret, men der er stadig et begrænset antal datacentre over hele verden. Når vi tænker på indholdspersonalisering, skal du tænke ned på et meget lokalt niveau. Der gøres meget i din browser eller på et lokalt lag til indholdsleveringsnetværk. Og vi tænker på sundheds- og fitness trackere - en masse af de data, der indsamles fra dem, bliver analyseret lokalt, og så de nye versioner af Garmin og Fitbit-enhederne, du lægger på dit håndled, de bliver smartere og smartere i enheden . De sender nu ikke alle data om din hjerterytme tilbage til en centraliseret server for at prøve at få analysen færdig. de bygger denne intelligens direkte ind i enheden. Navigation i bilen plejede det at være, at bilen konstant skulle få opdateringer og kort fra et centralt sted, nu er smarts i bilen, og bilens beslutninger alt sammen i sig selv og til sidst vil bilerne mesh. Bilerne vil tale med hinanden via trådløse netværk af en eller anden form, der kan være over en 3G eller et 4G trådløst netværk i den næste generation, men til sidst vil det være enhed til enhed. Og den eneste måde, hvorpå vi kan klare det, er ved at gøre enhederne smartere.
Vi har allerede nødadvarselssystemer, der vil indsamle information lokalt og sende dem centralt eller ind i et mesh-netværk og træffe beslutninger om, hvad der sker lokalt. I Japan findes der for eksempel applikationer, som folk kører på deres smartphones med accelerometre i smartphonen. Accelerometre på smartphonen registrerer vibrationer og bevægelse og kan bestemme forskellen mellem bare normal dag-til-dag bevægelse og rysten og stød fra et jordskælv. Og den telefon begynder at advare dig straks lokalt. Den egentlige app ved, at den registrerer jordskælv. Men det deler også disse data op gennem et netværk i en distribueret hub og talemodel, så folk i nærheden af dig bliver advaret straks eller så hurtigt som muligt, når dataene strømmer gennem netværket. Og så når det kommer til en central placering eller en distribueret kopi af den centrale placering, skubber den tilbage til folk, der ikke er i det umiddelbare område, ikke har opdaget planetenes bevægelse, men har brug for at blive advaret om den, fordi måske en tsunami kommer.
Og smart byinfrastruktur - begrebet intelligent infrastruktur, vi bygger allerede intellektet til smarte bygninger og smart infrastruktur. Faktisk parkerede jeg i går min bil i byen i et nyt område, hvor en del af byens renovering og genopbygning. Og de har gjort alle gaderne igen, og der er sensorer i gaderne, og den egentlige parkeringsmåler ved, at når jeg har kørt ind med en bil, ved det, at når jeg går for at opdatere i den to timers grænse, bilen har ikke bevæget sig, og den ville faktisk ikke lade mig fylde op og blive i yderligere to timer. Jeg var nødt til at komme ind i bilen, trække ud af pladsen og derefter trække tilbage ind for at narre den for at give mig mulighed for at blive der i yderligere to timer. Men hvad der er interessant, er, at vi til sidst går til det punkt, hvor det ikke kun er at opdage bilen, der kommer ind i området som en lokaliseret sensor, men ting som optiske egenskaber, hvor genkendelse vil blive anvendt med kameraer, der ser på min nummerplade, og den vil vide at jeg faktisk bare trak ud og trak tilbage og lurede det, og det vil bare ikke lade mig fornye sig, og jeg går videre. Og så vil den distribuere disse data og sørge for, at jeg ikke kan gøre det andre steder og narre netværket løbende også. Fordi det af natur skal være smartere, ellers fortsætter vi alle med at narre det.
Der er et eksempel på dette, som jeg faktisk personligt har boet der i firewall-teknologi, i slutningen af 80'erne og begyndelsen af 90'erne, et produkt kaldet Check Point FireWall-1. En meget simpel firewall-teknologi, som vi brugte til at oprette regler og opbygge politikker og regler omkring bestemte ting at sige, at typer af trafik gennem bestemte havne og IP-adresser og netværk for at komme til og fra hinanden, webtrafikken fra et sted til et andet, går fra browser og klient ende til vores server ende. Vi løste dette problem ved faktisk at tage logikken ud af firewallerne selv og faktisk flytte det til ASIC, det applikationsspecifikke integrerede kredsløb. Det kontrollerede portene i Ethernet-switches. Vi fandt ud af, at servercomputere, de computere, vi faktisk brugte som servere til at tage beslutninger som firewalls, ikke var magtfulde nok til at håndtere mængden af trafik, der går igennem dem til hver lille pakkeinspektion. Vi løste problemet ved at flytte den logik, der kræves for at udføre pakkeinspektion og internetdetektioner, i netværkskontakterne, der blev distribueret og kunne håndtere mængden af data, der går gennem netværksniveauet. Vi bekymrede os ikke om det på centralt niveau med firewalls, vi flyttede det ud til switchene.
Og så fik vi fabrikanterne til at opbygge evnen til at skubbe stier og regler og politikker ind i Ethernet-kontakten, så på det faktiske Ethernet-portniveau, og måske en masse folk i poolen ikke er bekendt med dette, fordi vi alle lever i en trådløs verden nu, men en gang i tiden måtte alt tilsluttes via Ethernet. Nu på Ethernet-portniveau undersøgte vi pakker for at se, om pakkerne endda fik lov til at flytte ind i kontakten og ind i netværket. Noget af dette er, hvad vi løser nu omkring denne udfordring med at indsamle data i netværket, specifikt fra IRT-enhederne, og inspicere dem og foretage analyse på det og sandsynligvis analysere det i realtid for at tage beslutninger om det. Og noget af det er at få indsigt i forretningsinformation og information om, hvordan mennesker træffer bedre beslutninger og anden analyse og ydeevne for tingene fra maskine til maskine, hvor enheder taler til enheder og træffer beslutninger.
Og dette vil være en tendens, som vi er nødt til at se på at løse i den nærmeste fremtid, fordi hvis vi ikke gør det, vil vi bare ende med denne strøm af støj. Og vi har set i big data-verdenen, vi har set ting som datasøer bliver til datasvampe, som vi bare ender med en strøm af støj, som vi ikke har fundet ud af, hvordan vi kan løse behandlingsanalyserne til i en centraliseret mode. Hvis vi ikke løser dette problem, efter min mening, med IoT med det samme og får en platformløsning meget hurtigt, vil vi ende på et meget, meget dårligt sted.
Og med det i tankerne vil jeg afslutte med mit pointe, som er, at jeg tror, at en af de største ændringer, der finder sted i big data- og analyserummet nu, er drevet af det øjeblikkelige behov for at reagere på virkningen af internettet af ting på højvolumen og realtidsanalyse, idet vi er nødt til at flytte analysen ud i netværket og derefter til sidst til kanten af netværket bare for at klare det store volumen af det, bare for at behandle det. Og så til sidst, forhåbentlig, lægger vi intelligensen i netværket og kanten af netværket i en hub og talte model, som vi faktisk kan styre det og få indsigt i realtid og få værdi af det. Og med det overgår jeg til vores gæst og se, hvor denne samtale bringer os.
Shawn Rogers: Mange tak. Dette er Shawn Rogers fra Dell Statistica, og dreng, bare til at begynde med, er jeg helt enig i alle de store emner, der er blevet berørt her. Og Rebecca, du startede med en omkring ideen om, du ved, disse data er ikke nye, og det er bemærkelsesværdigt for mig, hvor meget tid og energi der bruges på at diskutere dataene, dataene, dataene fra IoT. Og det er bestemt relevant, ved du, Robin gjorde et godt punkt, selvom du laver noget virkelig enkelt, og du tapper på en termostat en gang om sekundet, ved du, det gør du 24 timer i døgnet, og du har faktisk, du ved, nogle interessante dataudfordringer. Men du ved, til sidst - og jeg tror, mange mennesker i branchen taler om dataene på denne måde - at det ikke rigtig er så interessant, og efter Rebeccas synspunkt har det været omkring en god, lang tid, men vi har ikke tidligere været i stand til at udnytte det meget godt. Og jeg tror, at den avancerede analysebranche og BI-branchen generelt begynder at vende deres hoved mod IoT. Og Dez, til dit sidste punkt, dette er en del af eller et af de udfordrende punkter i big data-landskabet, synes jeg er meget sandt. Jeg tror, at alle er meget begejstrede for, hvad vi kan gøre med denne type data, men på samme tid, hvis vi ikke kan finde ud af, hvordan vi anvender indsigt, griber ind og, du ved, får analyser, hvor dataene er, tror jeg vi vil have udfordringer, som folk ikke ser virkelig kommer deres vej.
Med det sagt er vi i det avancerede analytiske rum store fans af, hvad vi tror kan ske med IoT-data, især hvis vi anvender analyse til det. Og der er en masse information på dette lysbillede, og jeg vil lade alle bare jage og hakke rundt, men hvis du ser på forskellige sektorer som detailhandel helt til højre, ser deres mulighed opstå omkring at være i stand til at være mere innovativ eller have nogle omkostningsbesparelser eller procesoptimering eller forbedringer er meget vigtigt, og de ser en masse brugssager til det. Hvis du ser, du ved, fra venstre mod højre på tværs af diaset, ser du, hvordan hver af disse individuelle brancher hævder nye kapaciteter og nye differentieringsmuligheder for sig selv, når de anvender analyse til IoT. Og jeg tror, at det, hvis du vil bestræbe dig på at gå ned på den sti, skal du ikke kun bekymre dig om dataene, som vi har diskuteret, og arkitekturen, men du skal også se på, hvordan du bedst kan anvende analysen på den, og hvor analysen skal finde sted.
For mange af os på dagens opkald, ved du, Robin og jeg har kendt hinanden meget lang tid og haft utallige samtaler om traditionelle arkitekturer i fortiden, dem omkring centraliserede databaser eller firmadatapakker og så videre, og som vi ' Vi har fundet i det sidste årti eller så gør vi et ret godt stykke arbejde med at strække begrænsningerne for disse infrastrukturer. Og de er ikke så standhaftige eller så stærke, som vi gerne vil have, at de skal være i dag for at understøtte alle de fantastiske analyser, som vi anvender til informationen, og naturligvis også informationerne bryder arkitekturen, ved du, datahastigheden, datamængden og så videre, strækker bestemt grænserne for nogle af vores mere traditionelle tilgange og strategier til denne type arbejde. Og så tror jeg, at det slags begynder at kræve, at virksomhederne har et mere fleksibelt og måske mere fleksibelt synspunkt på dette, og det er den del, antager jeg, at jeg gerne vil tale om lidt rundt om IoT-siden.
Før jeg gør det, tager jeg et øjeblik bare for at lade alle, der ringer op, give dig lidt baggrund for, hvad Statistica er, og hvad vi gør. Som du kan se på titlen på dette lysbillede, er Statistica en forudsigelig analyse, big data og visualisering til IoT-platformen. Selve produktet er lidt over 30 år gammelt, og vi konkurrerer med de andre markedsledere, som du sandsynligvis er fortrolig med i retning af at være i stand til at anvende forudsigelig analyse, avanceret analyse til data. Vi så en mulighed for at udvide vores rækkevidde til hvor vi lægger vores analyser og begyndte at arbejde på nogle teknologier for et stykke tid tilbage, som har placeret os ret godt til at drage fordel af det, både Dez og Robin har talt om i dag, hvilket er denne nye tilgang og hvor du vil placere analyserne, og hvordan du skal smelte den sammen med dataene. Langs den side kommer andre ting, som du skal være i stand til at adressere med platformen, og som jeg nævnte, Statistica har været på markedet i lang tid. Vi er meget gode til at blande siden af ting, og jeg tror, du ved, vi har ikke talt for meget om datatilgang i dag, men at være i stand til at nå ud over disse forskellige netværk og få dine hænder på de rigtige data på det rette tidspunkt bliver mere og mere interessant og vigtigt for slutbrugerne.
Til sidst vil jeg kommentere endnu et stykke her, fordi Dez gjorde et godt punkt om selve netværkene, har et vist niveau af kontrol og sikkerhed over analytiske modeller i hele dit miljø, og hvordan de knytter sig til data bliver meget vigtigt. Da jeg kom ind i denne branche for et par år tilbage - næsten 20 tror jeg på dette tidspunkt - da vi talte om avanceret analyse, var det på en meget kurateret måde. Kun et par mennesker i organisationen havde deres hænder på det, de indsatte det, og de gav folk svaret efter behov eller leverede indsigt efter behov. Det ændrer virkelig, og det, vi ser, er mange mennesker, der arbejdede med en eller flere forskellige og mere fleksible måder at nå dataene på, anvende sikkerhed og regeringsførelse på dataene og derefter kunne samarbejde om dem. Det er nogle af de vigtige ting, som Dell Statistica ser på.
Men jeg vil dykke ind i det emne, der er lidt tættere på dagens titel, hvilket er, hvordan skal vi adressere de data, der kommer fra tingenes internet, og hvad du måske vil være på udkig efter, når du ser på forskellige løsninger. Det lysbillede, jeg har rejst foran dig lige nu, er en slags traditionel udsigt, og både Dez og Robin berørte slags på dette, ved du, denne idé om at tale med en sensor, hvad enten det drejer sig om en bil eller en brødrister eller en vindmølle, eller hvad har du, og derefter flytte disse data fra datakilden over til dit netværk tilbage til en centraliseret slags konfiguration, som Dez nævnte. Og det netværk ganske godt, og mange virksomheder kommer ind i IoT-rummet oprindeligt begynder at gøre det med denne model.
Den anden ting, der fulgte med, hvis du kigger mod bunden af diaset, er denne idé om at tage andre traditionelle datakilder, øge dine IoT-data og derefter på denne slags kerne, uanset om din kerne tilfældigvis er et datacenter eller det kan være i skyen, det betyder ikke rigtig noget, du vil tage et produkt som Statistica og derefter anvende analyser på det på det tidspunkt og derefter give disse indsigt til forbrugerne til højre. Og jeg tror, at dette er tabelindsatser på dette tidspunkt. Dette er noget, du skal være i stand til, og du skal have en åben nok arkitektur til en avanceret analytisk platform og tale med alle disse, slags, forskellige datakilder, alle disse sensorer og alle disse forskellige destinationer, hvor du har dataene. Og jeg tror, at dette er noget, du skal være i stand til, og jeg tror, at du finder det sandt, at mange ledere på markedet er i stand til at gøre denne type ting. Her på Statistica snakker vi slags om dette som kerneanalyse. Gå og hent dataene, bring dataene tilbage til kernen, behandl dem, tilføj flere data, hvis det er nødvendigt eller hvis det er fordelagtigt, og gør dine analyser og del derefter oplysningerne til handling eller til indsigt.
Og så jeg tror, at disse bestemt er fra et funktionsmæssigt synspunkt, vi ville sandsynligvis alle være enige om, at du ved, dette er den blotte nødvendighed, og at alle har brug for at gøre dette. Hvor det begynder at blive slags interessant, er hvor du har enorme mængder data, du ved, der kommer fra forskellige datakilder, som IoT sensorer, som jeg nævnte, hvad enten det er en bil eller sikkerhedskamera eller en fremstillingsproces, der begynder at blive en fordel ved at være i stand til at udføre den analytiske, hvor dataene faktisk produceres. Og fordelen for de fleste mennesker, tror jeg, når vi begynder at flytte den analytiske fra kernen ud til kanten, er denne evne til at sprede nogle af de dataudfordringer, der sker, og Dez og Robin vil sandsynligvis kommentere dette i slutningen i dag, men jeg tror, at du skal være i stand til at overvåge og handle med data ud på kanten, så det ikke altid er nødvendigt at flytte alle disse data videre til dit netværk. Robin talte om dette i hans, slags arkitekturbilleder, han udarbejdede, hvor du har alle disse forskellige kilder, men der er normalt et samlet aggregeringspunkt. Samlingspunktet, vi ser ret ofte, er enten på et sensorniveau, men endnu oftere på et gateway-niveau. Og disse gateways findes som en slags formidler i dataflyten fra datakilderne, før du kommer tilbage til kernen.
En af mulighederne, som Dell Statistica benyttede sig af, er, at vores evne til at eksportere en model fra vores centraliserede avancerede analytiske platform for at være i stand til at tage en model og derefter udføre den model ud på kanten på en anden platform, som en gateway eller inde af en database, eller hvad har du. Og jeg tror, at den fleksibilitet, der giver os, er det, der virkelig er det interessante punkt i dagens samtale, har du det i din infrastruktur i dag? Er du i stand til at flytte en analytiker, hvor dataene bor kontra bare altid at flytte dataene til dit sted, hvor din analytik bor? Og det er noget, som Statistica har fokuseret på i ganske lang tid, og når du ser nærmere på lysbillederne, vil du se, at der er noget anden teknologi derinde fra vores søsterselskab, Dell Boomi. Dell Boomi er en dataintegrations- og applikationsintegrationsplatform i skyen, og vi bruger faktisk Dell Boomi som en handel med enhed til at flytte vores modeller fra Dell Statistica, gennem Boomi og fra til kant-enheder. Og vi tror, at dette er en smidig tilgang, som virksomheder vil være krævende, så meget som de kan lide den version, jeg viste dig for et minut siden, hvilket er slags kernetanken om at flytte data fra sensorer helt tilbage til center, samtidig vil virksomheder gerne være i stand til at gøre det på den måde, som jeg slags skitserer her. Og fordelene ved at gøre dette er nogle af de punkter, som både Robin og Dez gjorde, hvilket er, kan du tage en beslutning og gribe ind i hastigheden på din virksomhed? Kan du flytte analyse fra et sted til et andet og være i stand til at spare dig selv tid, penge og energi og kompleksitet ved konstant at flytte disse kantdata tilbage til kernen.
Nu er jeg den første til at sige, at nogle af kantdataene altid vil være af høj nok fortjeneste, hvor det ville være fornuftigt at gemme disse data og opbevare dem og bringe dem tilbage til dit netværk, men hvilken kantanalyse giver dig mulighed for at gør er evnen til at tage beslutninger med den hastighed, som dataene faktisk kommer til, ikke? At du er i stand til at anvende indsigten og handlingen med en hastighed, hvor den højest mulige værdi er. Og jeg tror, at det er noget, som vi alle vil være på udkig efter, når det kommer til at bruge avanceret analyse og IoT-data er denne mulighed for at bevæge sig på hastighed i virksomheden eller den hastighed, som kunden kræver. Jeg tror, vores holdning er, er, at jeg tror, du skal være i stand til at gøre begge dele. Og jeg tror, at temmelig hurtigt og meget hurtigt, når flere virksomheder ser på mere forskellige datasæt, især dem fra IoT-siden, vil de begynde at se på leverandørpladsen og kræve, hvad Statistica er i stand til at gøre. Hvilket er at implementere en model i kernen, som vi traditionelt har gjort i mange år, eller at implementere den på platforme, der måske måske er utraditionelle, som en IoT-gateway, og faktisk kan score og anvende analytics på dataene i kanten som de producerede data. Og jeg tror, at det er her, den spændende del af denne samtale kommer ind. Fordi ved at være i stand til at anvende en analytiker på kanten på det tidspunkt, dataene kommer ud af en sensor, giver os mulighed for at handle så hurtigt, som vi har brug for, men giver os også mulighed for at beslutte, er disse data nødt til at gå helt tilbage til kernen med det samme? Kan vi batch det her og derefter sende det tilbage i stykker og dele og foretage yderligere analyse senere? Og det er, hvad vi ser mange af vores førende kunder gøre.
Den måde, som Dell Statistica gør dette på, har vi en mulighed for at udnytte, så sig for eksempel at du bygger et neuralt netværk inde i Statistica, og du ville placere det neurale netværk et andet sted i dit datalandskab. Vi har evnen til at udgive disse modeller og alle de sprog, du har bemærket i det højre hjørne der - Java, PPML, C og SQL og så videre, vi inkluderer også Python, og vi er også i stand til at eksportere vores scripts - og når du flytter den væk fra vores platform, der er centraliseret, kan du derefter distribuere den model eller den algoritme, uanset hvor du har brug for den. Og som jeg nævnte tidligere, bruger vi Dell Boomi til at placere det og parkere det, hvor vi har brug for at køre dem, og så kan vi bringe resultaterne tilbage, eller vi kan hjælpe med at bringe data tilbage, eller score dataene og gribe ind ved hjælp af vores regelmotor . Alle disse ting bliver slags vigtige, når vi begynder at se på denne type data, og vi tænker igen.
Dette er noget, som de fleste af jer på telefonen har et behov for at gøre, fordi det vil blive meget dyrt og beskatte på dit netværk, som Dez nævnte, at flytte data fra venstre for disse diagrammer til højre for disse diagrammer over tid. Det lyder ikke meget, men vi har set producere kunder med ti tusind sensorer i deres fabrikker. Og hvis du har ti tusind sensorer på din fabrik, selvom du bare laver disse en en anden slags test eller signaler, taler du om fireogtyve rækker med data fra hver af disse individuelle sensorer pr. Dag. Så dataene høres bestemt op, og Robin nævnte det slags. På forhånd nævnte jeg et par af de brancher, hvor vi ser folk få nogle temmelig interessante ting gjort ved hjælp af vores software og IoT-data: At bygge automatisering, energi, forsyningsselskaber er et virkelig vigtigt rum. Vi ser meget arbejde på systemoptimering, endda kundeservice og selvfølgelig samlet drift og vedligeholdelse, inden for energifaciliteter og inden for bygning til automatisering. Og dette er nogle brugssager, som vi ser, er temmelig magtfulde.
Vi har foretaget kantanalyser før, antager jeg, at udtrykket blev myntet. Som jeg nævnte, har vi dybe rødder hos Statistica. Virksomheden blev grundlagt for næsten 30 år siden, så vi har fået kunder til at gå tilbage ganske lang tid, der integrerer IoT-data med deres analyser og har været i et stykke tid. Og Alliant Energy er en af vores brugssager eller referencekunder. Og du kan forestille dig det problem, en energifirma har med et fysisk anlæg. Skalering ud over murvæggene i et fysisk anlæg er vanskeligt, og derfor er energifirmaer som Alliant på udkig efter måder at optimere deres energiproduktion, dybest set forbedre deres produktionsproces og optimere det til det højeste niveau. Og de bruger Statistica til at håndtere ovne i deres planter. Og for alle os, der går tilbage til vores tidlige dage i naturfagsklasse, ved vi alle, at ovnene skaber varme, varmen får damp, turbinerne snurrer, vi får strøm. Problemet for virksomheder som Alliant er faktisk at optimere, hvordan tingene opvarmes og brændes i de store cyklonovne. Og optimerer output for at undgå de ekstra omkostninger til forurening, kulstofforskydning og så videre. Og så skal du være i stand til at overvåge indersiden af en af disse cyklonovne med alle disse enheder, sensorer og derefter tage alle disse sensordata og foretage løbende ændringer i energiprocessen. Og det er præcis, hvad Statistica har gjort for Alliant siden omkring 2007, før selv udtrykket IoT var super populært.
Til Rebeccas punkt tidligt er dataene bestemt ikke nye. Evnen til at behandle den og bruge den korrekt er virkelig, hvor de spændende ting sker. Vi har talt lidt om sundhedsvæsenet i forudgående opkald i dag, og vi ser alle slags applikationer til folk til at gøre ting som bedre patientpleje, forebyggende vedligeholdelse, forsyningskædeledelse og operationel effektivitet inden for sundhedsvæsenet. Og det er ret løbende, og der er en masse forskellige anvendelsessager. En af dem, vi er meget stolte af her hos Statistica, er med vores kunde Shire Biopharmaceuticals. Og Shire fremstiller specialmedicin til virkelig vanskelige at behandle sygdomme. Og når de opretter en batch af deres medicin til deres kunder, er det en ekstremt dyr proces, og den ekstremt dyre proces tager også tid. Når du tænker på en fremstillingsproces, mens du ser, at udfordringerne er at forene alle dataene, være fleksible nok på tværs af forskellige måder at sætte data i systemet på, validere informationerne og derefter være i stand til at være forudsigelige om, hvordan vi hjælper denne kunde. Og de processer, der trak det meste af informationen fra vores produktionssystemer og selvfølgelig enheder og sensorer, der driver disse produktionssystemer. Og det er en stor brugssag for, hvordan virksomheder undgår tab og optimerer deres produktionsprocesser ved hjælp af en kombination af sensordata, IoT-data og regelmæssige data fra deres processer.
Så du ved, et godt eksempel på, hvor fremstilling og især højteknologisk produktion er til gavn for sundhedsvæsenet omkring denne type arbejde og data. Jeg tror, jeg har lige et par andre punkter, jeg gerne vil gøre, før jeg pakker det op og giver det tilbage til Dez og Robin. Men du ved, jeg tror, at denne idé om at kunne skubbe din analytiske overalt i dit miljø er noget, der vil blive ekstremt vigtigt for de fleste virksomheder. At være bundet til det traditionelle format af ETL-ing-data fra kilder tilbage til centrale placeringer vil altid have et sted i din strategi, men bør ikke være din eneste strategi. Du er nødt til at tage en meget mere fleksibel tilgang til tingene i dag. For at anvende den sikkerhed, jeg nævnte, skal du undgå beskatning af dit netværk, være i stand til at administrere og filtrere dataene, når de kommer fra kanten, og bestemme, hvilke data der er værd at opbevare på lang sigt, hvilke data der er værd at flytte på tværs til vores netværk, eller hvilke data der bare skal analyseres på det tidspunkt, de er oprettet, for at vi kan tage de bedst mulige beslutninger. Denne overalt og overalt analytiske tilgang er noget, som vi tager meget af hjertet ved Statistica, og det er noget, som vi er meget dygtige til. Og det går tilbage til et af disse lysbilleder, jeg nævnte tidligere, muligheden for at eksportere dine modeller på en række forskellige sprog, så de kan matche op og justere de platforme, hvor dataene oprettes. Og så selvfølgelig at have en distributionsenhed til disse modeller, som også er noget, vi bringer til bordet, og som vi er meget begejstrede for. Jeg tror, at samtalen i dag er, hvis vi virkelig vil blive seriøse over disse data, der har været i vores systemer i lang tid, og vi gerne vil finde en konkurrencefordel og en innovativ vinkel til at udnytte dem, skal du anvende noget teknologi til det, der giver dig mulighed for at komme væk fra nogle af de restriktive modeller, som vi har brugt i fortiden.
Igen, min pointe er, at hvis du skal gøre IoT, tror jeg, du skal være i stand til at gøre det i kernen, og bringe dataene ind og matche dem med andre data og udføre dine analyser. Men også, lige så vigtig eller måske endnu mere vigtig, er du nødt til at have denne fleksibilitet til at sætte analytikeren med dataene og flytte den analytiske ud fra den centrale side af din arkitektur ud til kanten for de fordele, jeg har nævnt Før. Det handler lidt om, hvem vi er, og hvad vi laver på markedet. Og vi er meget begejstrede for IoT, vi tror, at det bestemt kommer i alder, og der er store muligheder for alle her til at påvirke deres analyser og kritiske processer med denne type data.
Rebecca Jozwiak: Shawn, tak så meget, det var en virkelig fantastisk præsentation. Og jeg ved, at Dez sandsynligvis dør for at stille dig et par spørgsmål, så Dez, jeg vil lade dig gå først.
Dez Blanchfield: Jeg har en million spørgsmål, men jeg skal indeholde mig selv, fordi jeg ved, at Robin også vil have det. En af de ting, jeg ser vidt og bredt, er et spørgsmål, der dukker op, og jeg er virkelig ivrig efter at få en vis indsigt i din oplevelse i dette lys, da du har ret i hjertet af tingene. Organisationer kæmper med udfordringen, og se nogle af dem netop har læst om Klaus Schwabs "Den fjerde industrielle revolution" og derefter haft et panikanfald. Og dem, der ikke er bekendt med denne bog, det er i det væsentlige en indsigt fra en herrer, af Klaus Schwab, som jeg synes er en professor, som er grundlæggeren og udøvende formand for World Economic Forum fra hukommelsen, og bogen handler i det væsentlige om hele denne allestedsnærværende internet af tingeksplosion og noget af indvirkningen på verden generelt. Organisationer, jeg taler med, er usikre på, om de skal gå og eftermontere det aktuelle miljø eller investere alt i at bygge alt nyt miljø, infrastruktur og platforme. I Dell Statistica ser du også mennesker eftermontere de nuværende miljøer og distribuere din platform ud i eksisterende infrastruktur, eller ser du dem flytte deres fokus til at bygge al ny infrastruktur og forberede sig på denne oversvømmelse?
Shawn Rogers: Du ved, vi har haft muligheden for at betjene begge typer kunder og være på markedet, så længe vi har, du får disse muligheder for at gå vidt. Vi har kunder, der har skabt helt nye fab-planter i de sidste par år og udstyret dem med sensordata, IoT, analyse fra kanten, ende til ende gennem hele denne proces. Men jeg må sige, at de fleste af vores kunder er mennesker, der har udført denne type arbejde i et stykke tid, men er blevet tvunget til at ignorere disse data. Du ved, Rebecca gjorde opmærksomheden lige foran - dette er ikke nye data, denne type information har været slags tilgængelig i mange forskellige formater i meget lang tid, men hvor problemet havde været, er det at oprette forbindelse til det, flytte det, bringe det et sted, hvor du kunne få noget smart gjort med det.
Og så vil jeg sige, at de fleste af vores kunder ser på, hvad de har i dag, og Dez, du har gjort dette punkt før, at dette er en del af den store datarevolution, og jeg tror, hvad det virkelig handler om, er at det handler om alt datarevolution, ikke? Vi behøver ikke at ignorere visse systemdata eller fremstille data eller opbygge automatiseringsdata, vi har nu de rigtige legetøj og værktøjer til at få det og derefter gøre smarte ting med det. Og jeg tror, at der er mange chauffører i dette rum, der får det til at ske, og nogle af dem er teknologiske. Du ved, de store datainfrastrukturløsninger som Hadoop og andre har gjort det lidt billigere og lidt lettere for nogle af os at tænke på at skabe en datasø af den type information. Og vi ser nu omkring virksomheden for at gå, ”Hej, vi har analyser i vores fremstillingsproces, men ville de blive forbedret, hvis vi kunne tilføje en vis indsigt fra disse processer?” Og det er, tror jeg, hvad de fleste af vores kunder gør. Det er ikke så meget at skabe fra bunden af, men at øge og optimere den analyse, de allerede har, med data, der er nye for dem.
Dez Blanchfield: Ja, der er nogle spændende ting, der kommer igennem i nogle af de største industrier, vi har set, og du nævnte, strømmen og værktøjer. Luftfart gennemgår bare denne boom, hvor et af mine favoritapparater til enhver tid, som jeg regelmæssigt taler om, Boeing 787 Dreamliner, og bestemt Airbus-ækvivalent, A330 er gået den samme rute. Der var som seks tusinde sensorer i 787, da den først blev frigivet, og jeg tror, de taler nu om femten tusinde sensorer i den nye version af den. Og det underlige ved at tale med nogle af de folk, der er i den verden, var, at ideen om at sætte sensorer i vingerne og så videre, og det fantastiske ved 787 i en designplatform er, at du ved, de genopfandt alt i flyvemaskinen. Ligesom vingerne, for eksempel, når flyet tager af, vinger vingerne op til tolv og en halv meter. Men i ekstremer kan vingerne bøje sig i spidsen op til 25 meter. Denne ting ligner en fugl, der klapper. Men hvad de ikke havde tid til at løse, var konstruktionen af analysen af alle disse data, så de har sensorer, der får lysdioder til at blinke grønt og rødt, hvis der sker noget dårligt, men de ender faktisk ikke med dyb indsigt i realtid. Og de løste heller ikke problemet med, hvordan man flytter datamængden, fordi der i det hjemlige luftrum i USA dagligt er 87.400 flyvninger. Når hvert fly indhenter sine buy-in af en 787 Dreamliner, er der 43 petabyte om dagen med data, fordi disse fly i øjeblikket skaber cirka en halv terabyte med data hver. Og når du multiplicerer de 87.400 flyvninger om dagen indenlandske i USA med punkt fem eller en halv terabyte, ender du med 43, 5 petabyte data. Vi kan fysisk ikke flytte det rundt. Så ved design er vi nødt til at skubbe analysen ud i enheden.
Men en af de ting, der er interessant, når jeg ser på hele denne arkitektur - og jeg er interesseret i at se, hvad du synes om dette - er, at vi er gået mod masterdatastyring, slags, første principper for datastyring, trækker alt til en central placering. Vi har datasøer, og så opretter vi små datamammer, hvis du vil, ekstrakter af det, som vi udfører analyse af, men ved at distribuere til kanten er en af de ting, der fortsætter med at komme op, især fra databasefolk og databehandlere eller mennesker, der handler med at administrere information, er det, hvad der sker, når jeg har masser af distribuerede små miniatyrsøer? Hvilken slags ting er blevet anvendt til denne tænkning med hensyn til kantanalyse i din løsning, idet alt traditionelt kommer alt sammen centralt med datasøen, nu ender vi med disse små pytter med data overalt, og selvom vi kan udføre analyser af dem lokalt for at få en vis lokal indsigt, hvad er nogle af de udfordringer, du har står over for, og hvordan du har løst det ved at have det distribuerede datasæt, og især når du får mikrokosmos af datasøer og distribuerede områder?
Shawn Rogers: Jeg tror, det er en af udfordringerne, ikke? Når vi går væk fra, ved du, at du transporterer alle data tilbage til centrumplacering eller det kerneanalytiske eksempel, som jeg gav, og så gør vi den distribuerede version, at du ender med alle disse små siloer, ikke? Ligesom du skildrede, ikke? De laver lidt arbejde, nogle analyser kører, men hvordan bringer du dem sammen igen? Og jeg tror, at nøglen kommer til at være orkestrering på tværs af alt dette, og jeg tror, at I fyre vil være enige med mig, men jeg er glad, hvis I ikke gør det, at jeg tror, at vi har set denne udvikling for ganske stykke tid.
Når vi vender tilbage til vores venner, Mr. Inmon og Mr. Kimball, som hjalp alle med arkitekturen af deres tidlige datalagerinvesteringer, var det, at vi er gået væk fra den centraliserede model i lang tid. Vi har vedtaget denne nye idé om at lade dataene demonstrere deres alvor, hvor de bedst skal opholde sig inde i dit økosystem og tilpasse dataene til den bedst mulige platform for det bedst mulige resultat. Og vi er begyndt at bruge lidt på en mere orkestreret tilgang til vores økosystem som en overordnet slags måde at gøre tingene på, som det er, hvor vi prøver at tilpasse alle disse stykker på én gang. Hvilken type analytisk eller arbejde skal jeg gøre med dataene, hvilken type data er det, der hjælper med at diktere, hvor de skal bo. Hvor produceres den, og hvilken type tyngdekraft har dataene?
Du ved, vi ser en masse af disse big data-eksempler, hvor folk taler om at have 10- og 15-petabyte datasøer. Hvis du har en datasø, der er så stor, er det meget upraktisk for dig at flytte den, og så skal du være i stand til at bringe analytics til det. Men når du gør det, til kernen i dit spørgsmål, tror jeg, det giver mange nye udfordringer for alle at orkestrere miljøet og anvende regeringsførelse og sikkerhed og forstå, hvad der skal gøres med disse data for at kuratere dem og få den højeste værdi ud af det. Og for at være ærlig med dig - jeg vil meget gerne høre din mening her - jeg tror, vi er tidlige dage der, og jeg synes, at der endnu er meget godt arbejde, der skal gøres. Jeg tror, programmer som Statistica fokuserer på at give flere mennesker adgang til data. Vi er bestemt fokuseret på disse nye personer som borgerdata-videnskabsmand, der vil køre forudsigelig analyse til steder i organisationen, som det måske ikke har været før. Og jeg tror, at det er nogle af de tidlige dage omkring dette, men jeg tror, at modenhedsbuen bliver nødt til at demonstrere et højt niveau eller orkestrering og tilpasning mellem disse platforme, og en forståelse af, hvad der er på dem, og hvorfor. Og det er et ældgamalt problem for os alle datafolk.
Dez Blanchfield: Det er det faktisk, og jeg er helt enig med dig i det, og jeg synes, at det gode ved, vi hører her i dag, er i det mindste forenden af problemet med faktisk at fange dataene på, antager jeg, gateway-niveau i kanten af netværket og evnen til at udføre analyser på det tidspunkt er i det væsentlige løst nu. Og det frigør os nu til faktisk at begynde at tænke på den næste udfordring, der er distribuerede datasøer. Mange tak for det, det var en fantastisk præsentation. Jeg værdsætter virkelig chancen for at chatte med dig om det.
Jeg overgår til Robin nu, fordi jeg ved, at han har det, og så fik Rebecca også en lang liste med store spørgsmål fra publikum efter Robin. Robin?
Dr. Robin Bloor: Okay. Shawn, jeg vil gerne have, at du siger lidt mere, og jeg prøver ikke at give dig chancen for at annoncere det, men det er faktisk meget vigtigt. Jeg er interesseret i at vide, på hvilket tidspunkt Statistica faktisk genererede modeleksportkapaciteten. Men også jeg vil gerne have, at du siger noget om Boomi, fordi alt det, du hidtil har sagt om Boomi, er, at det er ETL, og det er faktisk ETL. Men det er faktisk meget kapabelt ETL og for den slags timinger, vi taler om, og nogle af de situationer, vi diskuterer her, er det en meget vigtig ting. Kunne du tale med disse to ting for mig?
Shawn Rogers: Ja, det kan jeg absolut. Du ved, vores bevægelse i denne retning var bestemt iterativ, og det var en slags trin for trin. Vi er lige klar til at lancere version 13.2 af Statistica i den kommende uge. Og det har de nyeste opdateringer af alle de muligheder, vi taler om i dag. Men tilbage til version 13, for et år siden oktober, annoncerede vi vores evne til at eksportere modeller fra vores platform, og vi kaldte det NDAA på det tidspunkt. Forkortelsen stod for Native Distribueret Analytics-arkitektur. Hvad vi gjorde, er at vi lægger meget tid, energi og fokus på at åbne vores platform med mulighed for at bruge den som et centralt kommandocenter til din avancerede analyse, men også til at implementere derfra. Og de første steder, Robin, som vi implementerede, gjorde vi en virkelig, virkelig god tilføjelse til platformen omkring maskinlæring. Og derfor havde vi evnen til at distribuere fra Statistica til Microsofts Azure Cloud for at bruge Azure til at drive maskinlæring, som du ved, er meget intensiv, og det er en fantastisk måde at bruge sky-teknologier. Og så var det den første bit.
Nu eksporterede vi vores modeller til Azure og brugte Azure til at køre dem og sendte derefter dataene eller resultaterne tilbage til Statistica-platformen. Og så gik vi videre til andre sprog, som vi ønskede at kunne eksportere fra, og selvfølgelig et af dem, der er Java, åbner døren for, at vi nu kan begynde at eksportere vores modeller udad til andre steder som Hadoop, så da gav det os et skuespil der også.
Og til sidst fokuserede vi på at være i stand til at udgive vores modeller med denne udgivelse i databaser. Og så det var den første iteration og for at være ærlig med dig, slutspillet var IoT, men vi var ikke helt der endnu med version 13 i oktober sidste år. Siden da er vi kommet dertil, og det har at gøre med evnen til at gøre alle de ting, jeg lige har nævnt, men derefter at have en slags transportenhed. Og når vi vender tilbage til Dezs spørgsmål om, ved du, hvad er udfordringen, og hvordan gør vi det, når vi har alle disse analyser løbende rundt? Vi bruger Boomi som en slags distributionshub, og fordi det er i skyen, og fordi det er så magtfuldt, som jeg nævnte før, er det en dataintegrationsplatform, men det er også en applikationsintegrationsplatform, og den bruger JVM'er til at tillade os at parkere og udføre arbejde overalt, hvor du kan lande en virtuel Java-maskine. Det er det, der virkelig svingte døren for alle disse gateways og edge computing-platforme og kantservere, fordi alle af dem har computeren og den platform, der er tilgængelig til at køre en JVM i. Og fordi vi kan køre JVM hvor som helst, har Boomi slået ud til at være en vidunderlig distribution og ved hjælp af mit ord fra tidligere, en orkestreringsenhed.
Og dette bliver virkelig vigtigt, for vi har alle, du ved, jeg synes flyscenariet for et minut siden var en stor en, og jeg nævnte, du ved, producenter som Shire, der har ti tusind sensorer i en af deres fabrikker, du nødt til at begynde at adressere den slags centrale tilgang til avanceret analyse på et tidspunkt. At være ad hoc om det fungerer egentlig ikke mere. Det plejede at når volumen af modeller og algoritmer, som vi kørte, var minimal, men nu er det maksimalt. Der er tusinder af dem i en organisation. Så det har vi, en del af vores platform er serverbaseret, og når du har vores enterprise software, har du også muligheden for at finpusse og score og styre dine modeller på tværs af miljøet. Og det er også en del af den orkestreringsting. Vi var nødt til at have et lag, Robin, på plads, der ikke kun gjorde det muligt for dig at få en model der i første omgang, men også gav dig en kanal til at finjustere modellerne og udskifte dem løbende så ofte som du havde brug for, fordi dette er ikke noget, du kan gøre manuelt. Du kan ikke gå rundt på et raffinaderi med et tommelfingerrev der prøver at uploade modeller til gateways. Du skal have et transport- og styringssystem imellem, og så kombinationen af Statistica og Boomi giver det til vores kunder.
Dr. Robin Bloor: Ja. Nå, jeg vil være meget kort, men du ved, denne udsagn, der blev fremsat før om datasøen og ideen om at akkumulere petabytes på et givet sted, og det faktum, at det har tyngdekraft. Ved du, da du begyndte at tale om orkestrering, begyndte det bare at få mig til at tænke på den meget enkle kendsgerning, at du ved, at placere en datasø, der er meget stor et sted sandsynligvis betyder, at du faktisk er nødt til at tage backup af det, og det betyder sandsynligvis, at du skal alligevel flytte en masse data rundt. Du ved, den rigtige dataarkitektur er efter min mening alligevel meget mere i den retning, du taler om. Hvilket er at distribuere det til fornuftige steder, er sandsynligvis det, jeg vil sige. Og det ser ud til, at du har en meget god evne til at gøre dette. Jeg mener, jeg er godt orienteret om Boomi, så det er på en eller anden måde næsten urimeligt, at jeg kan se det, og måske kan publikum ikke. Men Boomi er efter min mening så vigtig med hensyn til hvad du laver, fordi den har applikationsfunktioner. Og også fordi sandheden i sagen er, at du ikke foretager disse analytiske beregninger uden at ville handle noget eller andet sted af en eller anden grund. Og Boomi spiller en rolle i det, ikke?
Shawn Rogers: Ja, absolut. Og så som du ved fra tidligere samtaler, har Statistica en fuldt udblæst forretningsregler i den. Og jeg tror, at det er virkelig vigtigt, når vi finder ud af, hvorfor vi gør dette. Du ved, jeg spøgte forfra, at der virkelig ikke er nogen grund til at gøre IoT overhovedet, medmindre du vil analysere, bruge dataene til at træffe bedre beslutninger eller tage handlinger. Og det, vi fokuserede på, var ikke bare at være i stand til at sætte modellen derude, men at være i stand til at mærke sammen med den, et regelsæt. Og fordi Boomi er så robust i sine evner til at flytte ting fra et sted til et andet, inden for et Boomi-atom, kan vi også integrere evnen til at udløse, advare og handle.
Og det er her, vi begynder at få den slags sofistikerede visning af IoT-data, hvor vi siger: ”Okay, disse data er værd at lytte til.” Men virkelig, ved du, ved at ”lyset er tændt, lyset er tændt, lyset er tændt, lyset er tændt ”er ikke så interessant at når lyset slukkes, eller når røgdetektoren slukker, eller når hvad der sker med vores fremstillingsproces går ud af spec. Når dette sker, vil vi være i stand til øjeblikkeligt at gribe ind. Og dataene bliver næsten sekundære her på dette tidspunkt. Fordi det ikke er så vigtigt, at vi reddede alle disse, "det er okay, det er okay, det er okay" -signaler, det, der er vigtigt, er, at vi bemærker "Hej, det er dårligt", og vi tog straks handling. Uanset om det er at sende en e-mail til nogen, eller vi kan få domæneekspertise involveret, eller om vi sætter en række andre processer i gang eller ej for at tage øjeblikkelig handling, hvad enten det er korrigerende eller som svar på informationen. Og jeg tror, at det er derfor, du er nødt til at have dette orkestrerede syn på det. Du kan ikke bare fokusere på at håndtere dine algoritmer overalt. Du skal være i stand til at koordinere og orkestrere dem. Du skal være i stand til at se, hvordan de klarer sig. Og virkelig, vigtigst af alt, mener jeg, hvorfor pokker ville du gøre dette, hvis du ikke kan tilføje muligheden for at tage en øjeblikkelig handling mod dataene?
Dr. Robin Bloor: Okay, Rebecca, jeg tror, du har spørgsmål fra publikum?
Rebecca Jozwiak: Det gør jeg. Jeg har masser af spørgsmål til publikum. Shawn, jeg ved, at du ikke ville hænge på for længe forbi timen. Hvad synes du?
Shawn Rogers: Jeg er glad. Fortsæt. Jeg kan svare på nogle få.
Rebecca Jozwiak: Lad os se. Jeg ved, at en af de ting, du nævnte, var, at IoT er i de tidlige dage, og det har en modenhedsgrad, der bliver nødt til at finde sted, og det taler slags til dette spørgsmål, en deltager stillede. Hvis IPv6-rammerne vil være robuste nok til at imødekomme væksten af IoT i de næste fem eller ti år?
Shawn Rogers: Åh, jeg vil lade Dez give lyd fra mit svar, fordi jeg tror, han er tættere på denne type information, som jeg er. Men jeg har altid tænkt, at vi er på en meget hurtig bane til at bøje og bryde de fleste af de rammer, vi har på plads. Og selvom jeg synes, at tilføjelsen af den nye slags spec eller den retning, vi går med IPv6-rammer, er vigtig, og det åbner døren for, at vi har meget flere enheder, og for at kunne give alt det, vi vil give en adresse. Jeg tror, at alt, hvad jeg læser og ser sammen med mine kunder, og antallet af adresser, der kræves, jeg tror på et tidspunkt vil forårsage endnu et skift i det landskab. Men jeg er ikke rigtig en netværksekspert, så jeg kan ikke sige hundrede procent, at vi vil bryde det på et tidspunkt. Men min erfaring fortæller mig, at vi vil forstyrre den model på et tidspunkt.
Rebecca Jozwiak: Jeg ville ikke blive overrasket. Jeg synes, rammer er slags at bryde under vægten af alle slags ting. Og det er bare logisk, ikke? Jeg mener, du kan ikke sende en e-mail med en skrivemaskine. En anden deltager spørger: ”Kan du bruge en Hadoop-ramme?”, Men jeg gætter måske på at ændre det for at sige, hvordan ville du bruge en Hadoop-ramme til distribueret analyse?
Shawn Rogers: Nå, Robin gjorde mig den fordel at stille mig et historisk spørgsmål, og siden version 13 for Statistica for et år siden for Statistica, har vi haft evnen til at drive modeller ud af vores system og ind i Hadoop. Og vi arbejder meget tæt med alle de store smag fra Hadoop. Vi har virkelig gode succeshistorier omkring evnen til at arbejde med Cloudera som en af de vigtigste Hadoop-distributioner, som vi arbejder med. Men fordi vi kan output i Java, giver det os denne mulighed for at være åben og placere vores analyser overalt. At placere dem i en Hadoop-klynge er noget, vi gør på en normal og regelmæssig og daglig basis for mange af vores kunder. Det korte svar er ja, absolut.
Rebecca Jozwiak: Fremragende. Og jeg skal bare smide en mere ud på dig og lade dig fortsætte med din ferie. En anden deltager spørger, med IoT analytics plus maskinlæring, tror du, at alle data skal gemmes til historiske formål, og hvordan vil det påvirke løsningsarkitekturen?
Shawn Rogers: Nå, jeg tror ikke, at alle data skal gemmes. Men jeg synes, det er meget interessant at have evnen til at underholde, lytte til enhver datakilde, som vi ønsker inden for vores organisation, uanset hvor den kommer fra. Og jeg tror, at de ændringer, vi har set på markedet i løbet af de sidste par år, har gjort det muligt for os at tage denne all-data-tilgang til tingene, og det ser ud til at være virkelig slags at betale sig. Men det vil være anderledes for alle virksomheder og enhver brugssag. Du ved, når vi ser på sundhedsdata, er der nu en masse lovgivningsmæssige problemer, en masse overholdelsesproblemer vi skal være opmærksomme på, og det får os til at gemme data, som andre virksomheder måske ikke forstår, hvorfor det skal gemmes, ikke ? I fremstillingsprocesserne er der for mange af vores produktionskunder en reel opside for at kunne historisk undersøge dine processer og være i stand til at se tilbage på store mængder af disse data for at lære af dem og opbygge bedre modeller ud fra dem.
Jeg tror, at meget af dataene skal opbevares, og jeg tror, at vi har løsninger, der gør det mere økonomisk og skalerbart i dag. Men på samme tid tror jeg, at enhver virksomhed vil finde værdi i data, som de ikke behøver at holde på et atomniveau, men de vil ønske at analysere på en realtidsform og tage beslutninger om det for at drive innovation inden for deres firma.
Rebecca Jozwiak: Okay godt. Nej, publikum, jeg kom ikke til alles spørgsmål i dag, men jeg vil sende dem videre til Shawn, så han kan nå dig direkte og besvare disse spørgsmål. Men tak, alle for at deltage. Tak så meget til Shawn Rogers fra Dell Statistica og fra alle vores analytikere, Dez Blanchfield og Dr. Robin Bloor. Du kan finde arkivet her på insideanalysis.com, SlideShare, vi er begyndt at lægge vores ting derop igen, og vi forny vores YouTube, så se efter det også der. Tak så mange folk. Og med det vil jeg byde dig farvel, så ses vi næste gang.