IT in 2030: dit staat ons te wachten
Naar schatting is momenteel slechts 40 procent van de wereldbevolking met internet verbonden, extrapolerend op de huidige ontwikkelingen betekent dit dat er in 2020 grofweg zo'n 50 miljard apparaten met het internet verbonden zullen zijn. Daarbij komt dat het Internet of Things eigenlijk nog in de luiers zit. Dit alles heeft grote consequenties voor datacenters. Kort samengevat: die kunnen die tsunami aan data niet bolwerken. Althans, niet in hun huidige vorm. Een andere en vooral slimmere inrichting is essentieel.
Nieuwe generatie datacenters
Capaciteit is de meest prangende uitdaging waar onze toekomstige datacenters tegenaan hikken, maar ook energieconsumptie en veiligheid zijn twee zaken die veel aandacht vergen. Het datacentrum van de toekomst kan daardoor verschillende verschijningsvormen aannemen:
-
Het datafort
In het datafort hebben veiligheid en bescherming van bedrijfkritische applicaties en data prioriteit. Want waarom moet alles aangesloten worden op netwerken die ook toegankelijk zijn via internet? Het is dus zaak om deze af te sluiten van de algemene infrastructuur. En om gevoelige data buiten het netwerk te plaatsen. Deze kunnen ondergebracht worden in aparte datapods, voorzien van eigen stroom- en klimaatbeheersingsapparatuur. -
Multi-inzetbare cloud
Een tweede mogelijkheid is die van de multi-inzetbare cloud. Veel servers binnen organisaties draaien niet op volle capaciteit. Sterker nog, vaak is er sprake van een schrikbarende onderbenutting van de servercapaciteit. Om deze vorm van kapitaalvernietiging om te zetten in een verdienmodel, kan die overcapaciteit tegen betaling beschikbaar gesteld worden aan derden die capaciteit tekort komen door capaciteit terug te leveren aan de cloud. -
Fog computing
Met fog computing kan efficiëntie, productiviteit en beheer geoptimaliseerd worden. Fog computing wil zeggen dat je geen gebruik maakt van één ingerichte infrastructuur, maar van kleinere infrastructuren die gericht zijn op het doel waarvoor ze gebruikt worden. Uiteindelijk kunnen die kleinere netwerken dan weer in een groter netwerk worden geïntegreerd. Applicaties worden op die manier meer decentraal aangestuurd en data komt veel dichter bij de apparatuur en netwerken te liggen waarvoor ze bedoeld zijn.
Hybride cloud
De aanzwellende datastroom stelt niet alleen eisen aan de opslag, data moet in toenemende mate sneller geanalyseerd worden. En dat zonder dat de kosten uit de hand lopen. Het antwoord hierop moet gezocht worden in een hybride cloudbenadering. Hierbij eet het datacenter eigenlijk van 'twee walletjes': er wordt gebruikgemaakt van SaaS-technologie vanuit de public cloud voor de standaard businessprocessen zoals kantoorapplicaties, e-mail en diensten, terwijl de meer bedrijfkritische zaken in de private cloud in het eigen datacenter worden ondergebracht of in een extern hosting datacenter. Die hybride constructie betekent dat het eigen datacenter zal blij ven, maar wel anders ingericht moet worden. Dat moet dynamischer en flexibeler worden.
Software defined datacenter
Het is onwaarschijnlijk dat de nieuwste generatie datacenters nog gebruik zal maken van silogebaseerde technologie met vaste functies voor applicaties. In plaats daarvan zal het datacenter van overmorgen een softwaregedefinieerde infrastructuur hebben. Enter SDDC, Software Defined Datacenter. Een SDDC bestaat uit drie componenten: storage, netwerken en servers die centraal beheerd en geautomatiseerd worden. De basis van het SDDC is dat deze kerncomponenten gevirtualiseerd worden. In technische termen wil dit zeggen dat in zo'n datacenter alle technische subdomeinen gevirtualiseerd zij n op een standaard hardwarelaag – van server en netwerk tot en met security en backup. Door die virtualisatie wordt de workload ontkoppeld van de fysieke laag. Dit betekent dat de IT-infrastructuur op alle terreinen ‘kneedbaar’ is en daarmee nauwkeurig is af te stemmen op de behoeften en vereisten van de eigen organisatie. Maatwerk tot in de haarvaten dus.
Maar een SDDC-architectuur is ook gemakkelijk schaalbaar. En doordat de intelligente functies zich in die virtuele laag bevinden, is het ook eenvoudiger om die functionaliteiten te combineren. Het is ook veel veiliger: in een SDDC wordt beveiliging toegepast op elke afzonderlijke virtuele server. Breekt er dan een hacker in, dan kan deze niet meer onbeperkt zij n gang gaan. Ook de aansturing en besturing van de IT-infrastructuur in een SDDC zij n anders dan in een traditioneel datacenter. Binnen deze laatste is de benadering bottom-up en vanuit de harde techniek, binnen een SDDC wordt een integrale top-down benadering gehanteerd. Centrale spil is het beheerplatform dat verregaande automatisering van volledige operationele IT-processen ondersteunt.
Het moet zuiniger
Nieuwe generaties datacenters zullen meer energie verbruiken. Tegelijk is er een toenemende behoefte aan duurzame oplossingen. Dat betekent dat datacenters efficiënter moeten omspringen met energie. Bijvoorbeeld op het gebied van koeling: nieuwe datacenters en computerruimten gaan steeds meer lijken op warme machinekamers. Oplossingen op dit gebied zullen bijvoorbeeld gezocht moeten worden in het gebruik van zogeheten flash memory storage-oplossingen. Deze zijn energiezuinig en hebben daardoor minder koeling nodig. Andere energiezuinige toepassingen zijn LED-verlichting van ruimtes en vloeistof-gekoelde servers.
Glasvezel, een blijvertje
In 2030 zal lang niet alle communicatie draadloos zijn. Supersnelle vaste verbindingen zullen nodig blijven, bijvoorbeeld om data snel van de ene naar de andere zendmast te sturen. Dat betekent dat we gebruik zullen blijven maken van glasvezelnetwerken waar heel veel antennes op aangesloten zijn. In ruimtelijke zin zal de dichtheid van antennes op sommige plekken hoog zijn. Langs autosnelwegen bijvoorbeeld – als we ervan uitgaan dat in 2030 de meeste auto's zelfrijdend zijn, dan betekent dat immers dat signalen geen moment mogen uitvallen en dat het netwerk voor de volle 100 procent betrouwbaar moet zijn. Glasvezel zal ook de onontbeerlijke basis vormen voor mobiele communicatie via nieuwe soorten netwerken waarbij zelfstandige zenders automatisch onderling verbindingen maken voor rechtstreekse communicatie zonder dat daar zendmasten aan te pas komen.
Ook waar het bandbreedte betreft kunnen we nog veel van glasvezel verwachten. Veel potentie heeft ‘hollow fiber’ waar in laboratoria hard aan gewerkt wordt. Via hollow fiber kunnen namelijk nog meer data met grotere snelheden getransporteerd worden. Die winst zit overigens niet zozeer in de vezel an sich, maar in de apparatuur waarmee die belicht wordt. Nu al is het mogelijk om voor twee weken aan non-stop HD videobeelden binnen de seconde van Amsterdam naar Parijs te transporteren, iets wat vijf jaar geleden nog pure science fiction was. Naar verwachting zal die bandbreedte in 2030 opnieuw verveelvoudigd zijn.
Zelflerende netwerken
Ook van de netwerken kunnen we het nodige verwachten. In elk geval worden ze steeds slimmer. Op veel terreinen wordt nu al gebruik gemaakt van zelflerende computers of artificiële intelligentie – denk bijvoorbeeld aan online vertaalmachines, de slimme spraakherkenning van Baidu of de slimme en zelfsturende auto's. Die kunstmatige intelligentie zal uiteindelijk ook haar intrede doen op het gebied van infrastructuur. Het is niet ondenkbaar dat je in 2030 in een trein zit en een video wilt versturen en het netwerk jou automatisch de benodigde bandbreedte toewijst.
Jouw data op andermans mobieltje?
Die sterk toegenomen bandbreedte heeft weer implicaties voor dataopslag: het zal niet meer nodig zijn om die centraal op te slaan. Gegevens zullen mogelij k grotendeels opgeslagen worden op apparaten zelf, zoals mobiele telefoons of laptops. Het is zelfs niet ondenkbaar dat mensen onderling opslagcapaciteit op hun eigen devices met elkaar gaan delen. Hoewel niemand natuurlij k kritische data op andermans wearable gaat opslaan, wordt veiligheid wel een groot issue in dit scenario.
Nieuwe datacenters zouden dit probleem echter kunnen ondervangen door te fungeren als centrale controlepunten die met intelligente toepassingen data op afstand kunnen beheren. Zo zouden veel en geografisch verspreide data samen virtuele databanken kunnen vormen die centraal toegankelijk zijn. En dat is veiliger dan je op het eerste gezicht zou denken: een hacker die op een device inbreekt heeft pas iets aan data wanneer hij over alle opgeslagen deeltjes beschikt.