Artikkel av Erik Holm Hartvedt
Tiår kommer, og tiår går. Buzz words kommer og går. Trender kommer og går, de utgjør bare mindre deler av en kontinuerlig utvikling. Ti-året som nettopp er påbegynt, blir tilsvarende enda en periode hvor nyere teknologi forandrer hvordan vi strukturerer arbeid og fritid. Containere flyvende på skyer er i vinden,og datasenternettverkene må tilpasses en ny tid for å kunne understøtte skiftende værsystemer med skyer som ikke alltid blåser i samme retning.
It-industrien har kanskje mer enn noen annen bransje sett trender komme og gå. Vi hadde stormaskiner med terminalemulering som ble erstattet av mindre og billigere servere og tykke klienter. Datasentrene ble mindre da stormaskinene ble båret ut. De billigere serverne ble flere, datasentrene økte i størrelse igjen, trafikkmengden økte og responstidene mot stadig tykkere klienter øker igjen. Følgelig kommer behovet for virtualisering tilbake, noe som vel ikke var så spesielt sett fra stormaskinens perspektiv. Klientene blir igjen tynnere, de «emulerer».
World Wide Web - eller Internettet – får øket kapasitet fordi etterspørselen stiger. Med øket kapasitet samt smartere og «smalere» kode, kan applikasjoner lettere leveres gjennom Internettet. Ikke helt uventet øker derfor markedet for SaaS. Programvareprodusentene evner å låse kundene tettere til seg når skiftet av leverandør blir mer utfordrende, tidkrevende og kostbart.
Vi så betydelig vekst i datasentre i løpet av 1990 -årene, drevet av behovet for å levere arbeidsmengder over Internett. Etter massespredningen av datasentre på 1990- og 2000 -tallet begynte bedrifter sin søken etter å konsolidere disse datasentrene, og de fortsetter å gjøre det i dag. Parallelt så vi lanseringen av eksempelvis AWS og den offentlige skyen, som brakte oss det store datasenteret og et alternativ for hosting av arbeidsbelastninger.
Når vi nå er inne i 20 -årene, er det tydelig at en annen datasenterutvikling er i gang.
Etter to tiår preget av sentralisering av databehandling og infrastruktur, svinger pendelen mot kanten. I dag er mengden innsamlede data enorm, og takten i innsamlingen øker ufortrødent. Vi snakker om Digital transformasjon, hvor behovet for å utnytte data fra tilkoblede enheter for å skape sanntidsopplevelser på kanten, driver dette paradigmeskiftet.
Ifølge Gartner opprettes og behandles i dag 90% av data i sentraliserte datasentre eller skyen. Men innen 2025 må omtrent 75% av data behandles, analyseres og eksekveres på kant. Med denne helt nødvendige endringen må vi forvente noen endringer i datasentrene. Edge-to-Cloud er altså dagens Buzz Word. Det er ikke uten grunn vi syntes akronymet etoc var et passende navn på en bedrift som skal bidra til denne reisen. Med denne Edge-to-Cloud utviklingen, kan vi forvente at tradisjonelle datasentre fortsetter å krympe på grunn av høyere tetthet fra hyperkonvergens, men også fordi arbeidsmengder i stadig høyere takt flyttes til skyen – en sky som nåes i enden av en kabel lagt til kjelleren i en annen bygning. Dernest, ettersom stadig flere arbeidsmengder plasseres der "data sentreres" for å optimalisere ytelse og kostnader, kan vi også forvente fremveksten av «datasenterkant». Sannsynligvis vil bedriftsinterne datasentre etter hvert bestå av to typer:
En blanding av tradisjonelle datasentre og større it-miljøer
Mindre og spredte datasentre med IoT-orienterte miljøer, for eksempel i større produksjons- og fabrikkanlegg.
Ettersom DevOps tvinges frem i flere bedrifter, og utviklingsmiljøene driver «smidigere» applikasjonsutvikling, får vi unektelig et større press på nettverksteamene som til stadighet må forsøke å optimalisere forutsetningene for mer lastkrevende operasjoner.
Når behovet for å behandle data på kanten der de skal brukes øker, må nettverkene endres. Mer behandling av data på kanten, i parallell med øket bruk av skytjenester i tillegg til det eksisterende tradisjonelle datasenteret, krever en annen form for og balansering i nettverket.
Mange bedrifter er allerede på vei, men flere har ennå til gode å legge ut på veien mot denne nye og nødvendige formen for datasenternettverk. Det er noen sentrale poeng vi mener det er viktig å ta hensyn til på veien. Denne anbefalingen gjelder egentlig alle dagens typer datasenter, både tradisjonelle, hostede og datasentere på kant.
Forenkling gjennom automatisering
Applikasjonsteamene øker bruken av DevOps og andre smidige metoder for å utvikle programvare raskere. Mange tradisjonelle IT driftsavdelinger er uheldigvis litt på bakbena ref denne utviklingen, og de risikerer både egen avdelings fremtid i konkurranse med eksterne leverandører, samt å miste kontrollen over sikkerheten når forretningsenheter gjør eksterne plattformavtaler uten IT organisasjonens kjennskap. For å støtte utviklingsteamene og virksomhetens forretningsbehov bedre, må vi forvente at graden av automatisering og forenklingen av nettverksadministrasjonen i tiden som kommer må øke betraktelig.
Det organisasjonen nå behøver er løsninger som støtter både nåværende og fremtidige driftsmodeller, og de investeringene som allerede er gjort. Det er viktig å tenke over behovet for nøkkelferdig automatisering for å forenkle vanlige, men tidkrevende konfigurasjonsoppgaver. For de nettverksteamene som har en mer moden DevOps-praksis, vil utvidet bruk av vanlige automatiseringsplattformer som Ansible for nettverksrelaterte arbeidslaster være et must.
Sist, men ikke minst, når vi ser mer DevOps og smidig praksis hos applikasjonsteamene innen IT, må det kunne forventes at denne praksisen påvirker hvorledes de andre avdelingene innen i IT opererer.
Operasjonell innsikt via analyser
Å feilsøke nettverksproblemer er kanskje det mest ressurskrevende en nettverksavdeling driver med.
Å ha bedre innsyn i nettverket er avgjørende for å forkorte MTTR (mean time to repair). Bedre innsyn i nettverket gir og muligheten til å levere en bedre SLA fra nettverksavdelingen. Det viktigste er kanskje at mindre tid brukt til feilsøking ofte gir en ressursbegrenset nettverksavdeling bedre tid til å sette søkelyset på strategiske spørsmål. Innen nettverksområdet har telemetriinformasjon økt i popularitet av årsaker som nevnt ovenfor. Nettverkstelemetri overvåker konstant nettverket og kan umiddelbart varsle om problemer. Å få telemetri for hele nettverket, samlet og behandlet lokalt på hver enkelt node, vil være et stort sprang fremover. Slike analyser, med automatisk utbedring, vil være avgjørende for å gi bedre nettverkssikkerhet og å bidra til proaktivt å identifisere eller til og med forhindre bruker- eller forretningspåvirkende problemer.
Prediktiv analyse hjelper til med å forutse problemer før de oppstår, og kan også bidra til kapasitetsplanleggingsarbeid, spesielt i perioder med høy bruk, og sikre at nettverket er skalert for å levere nødvendige krav til gode brukeropplevelser.
Alltid tilgjengelig
99,999% oppetider ikke et nytt krav til datasentrene. Imidlertid kan vi argumentere for at behovet for svært motstandsdyktige nettverk bare vil intensiveres i en digital tid der selv et lite hikk har store konsekvenser for forretningsvirksomheten.
Automatisering av den daglige driften vil bidra til å forbedre oppetiden ved å unngå menneskelige feil. Men det nettverksteamet også trenger er en langt enklere og mer pålitelig måte å sikre høy tilgjengelighet på, samtidig som de leverer oppgraderinger uten nedetid. Å ha et skybasert, mikroservicebasert operativsystem vil sikre litt ekstra «futt» på programvarenivå, og det vil også være helt nødvendig å kunne administrere «live» programvareoppgraderinger for å eliminere behovet for vedlikeholdsvinduer.
Som i tidligere tiår ser vi ikke en nedgang i tradisjonelle datasentre, men snarere en utvikling. I dette tilfellet fremveksten av datasentre på kant for å drive IoT og andre digitale prosesser på desentrale lokasjoner.
Mange IT-organisasjoner skal gjøre dette skiftet, og flere av dem er uforberedt. Kanter med silobaserte arbeidslaster og lagring er koblet via mer eller mindre usammenhengende nettverksarkitekturer, med driftsmodeller som hindrer sentralisert administrasjon, orkestrering, sikkerhet og synlighet. Mens sammenkoblingene på tvers av kantene i økende grad blir løst med teknologier som SD-WAN og SASE (secure access service edge), er den generelle IT-operasjonelle enkelheten fortsatt et stort problem.
Det vi behøver er en ny arkitektonisk tilnærming, en som er kant-sentrisk, skyvennlig og datadrevet. Til syvende og sist må vi levere en skyopplevelse til administratorer enten det er for et tradisjonelt datasenter, co-location eller en ny digital kant - med enkelhet, hastighet og sikkerhet pakket inn i fleksible forbruksmodeller.
Når organisasjonen begynner denne siste overgangen, er det greit å ikke være alene. HPE og Aruba er ledende i å tilby teknologiske løsninger for disse trendy nymotens datasentre.
Arubas cloud-native OS er bygget på en mikroservicebasert arkitektur med identisk administrasjon for alle switcher, enten de står sentralt i et datasenter eller et distribuert campusmiljø. Aruba er unik i så måte fordi en felles arkitektur leverer en konsekvent og skylignende driftsopplevelse på tvers av alle domener i bedriftsnettverket.
Med Arubas integrerte Network Analytics Engine (NAE), kan man utføre intelligent overvåking, oppdage problemer i sanntid, og forutsi sikkerhets- og ytelsesproblemer. Dette er tilgjengelig i hver enkelt Aruba CX-switch.
Med Aruba AIOps får man sanntidsinnsikt i hele nettverket med tilhørende analyse i hver enkelt switch. Det gjør en i stand til å feilsøke og ordne problemer raskere slik at dynamiske nettverksproblemer løses automatisk før forretningen påvirkes.
Ved siden av Aruba Fabric Composer som er en løsning for å programvaredefinere datasenternettverket har Aruba en serie switcher som tilbyr portkonfigurasjoner fra 12 til 48 porter som skalerer fra 1 Gb/s til 100 Gb/s. I likhet med resten av Aruba's CX-linje, kjører disse switchene på selskapets AOS-CX-nettverksoperativsystem med en innebygget nettverksanalysemotor. Switchene og Aruba har også en egen ASIC som gir muligheter ikke alle andre har. Aruba har blant annet utviklet flere unike formfaktorer. Switcher med færre porter, men høye hastigheter per port gjør at disse switchene passer godt inn i flere av de nyere brukertilfellene rundt dagens datasentertilkobling.
Etoc AS har i samarbeid med HPE Aruba og distributøren Arrow ECS levert flere nettverksdataromsløsninger. En av de nylige implementeringene er gjort hos elektrokjeden POWER. Power kom til et punkt hvor trafikkmengden over tid hadde økt så mye at den eksisterende arkitekturen og kjernswitchene nådde sine maksimale verdier for belastning. I vurderingen av nye switcher var det flere faktorer som lå til grunn for valget av Arubas nye AOS-CX linje.
«Det viktigste for oss var å finne en løsning som kunne ta unna både dagens trafikkmengde og den trafikkveksten vi estimerer for ethernettet de neste årene – til en fornuftig pris.
Like viktig var det å finne en funksjonell løsningsarkitektur, og en leverandør som kan bistå oss når vi støter på utfordringer. Det har Aruba med sitt moderne OS og funksjonelle løsninger og Etoc AS allerede vist oss viktigheten av. Nå kjører vi nettverket nærmest på tomgang og alt flyter som det skal.»
- Rune Bojesen, Nettverksansvarlig i Power
It's a treat to use modern and responsive device APIs. I regularly build time-saving workflows and tools for the task at hand, benefitting both the customer and developer
- Conor Cunningham, Senior nettverksarkitekt i Etoc