För att ge rätt kontext till den här presentationen behöver vi börja på en lite högre nivå och bara prata liite om Cloud… Vi haar gjort det länge och idag är det inte bara prat, vi använder det också. Vad är då drivkratferna bakom Cloud? Några stycken är.. SkalbarhetDynamik & Elasticitet, att snabbt vid behov kunna utöka eller minska kapacitet och därmed kostnaden AutomationNya applikationer mm.. Idag kommer jag prata en hel del kring Software Defined Datacenter och det råder en del begreppsförvirring
Idag råder en hel del begreppsförvirring.. Cloud, Public, private och hybrid modeller.. Software defined etc… För att reda ut vad de olika begreppen innebär för oss så ser vi det som att IT as a Service eller cloud har att göra med operationella modeller… Hur vi konsumerar IT. Detta är den långsiktiga visionen som finns för att generera och konsumera IT på det mest effektiva sättet. Software Defined Datacenter är en teknisk plattform för att enklare kunna leverera konsumptionsbaserad IT eller Cloud eller vad vi vill kalla det. IaaS, PaaS SaaS mfl.. Den här presentationen kommer att handla om software defined datacenter med ett fokus kring storage. Det är ju fmycket prat om software defined everything nu förtiden och varför är det så? Vi tar och tittar tillbaka lite i tiden..
Fysisk begränsning - Vi tar en server som exempel för fysiska element.KlickOavsett hur kraftfull server du har så finns det en begränsning i hur mycket den kan hantera.. Någon gång kommer du till en gräns då antingen du själv inte kommer att sova gott eller om du inte har problem med sömn så tar det ett tag till tills servern har nått sin gräns och inte längre kan leverera enligt SLA. KlickAutomation –Nästa del som blir en begränsning i fysisk infrastruktur är svårigheten att automatisera förändring av fysiska konstruktioner eller komponenter. I virtuell hårdvara är det inga problem att addera ytterligare nätverkskort, disk, CPU, minne etc förutsatt att operativsystemet stödjer det. Samma sak är betydligt mer problematiskt i en fysisk hårdvara. KlickMobilitet - Idetta exempel pratar vi om en server, den behöver ju inte vara jättetung, men mobilitet är nästa begränsande faktor som jag vill lyfta fram. En server kanske inte är något problem att flytta, men tänk om vi skall flytta den 50 mil? Hade den vart virtuell skulle vi flyttat den via nätverket eller i värsta fall en extern disk. Nu blir det i stället UPS eller liknande. Om vi vill flytta alla våra servrar till en extern leverantör, vore det inte bra om dessa var virtuella? Det finns såklart en massa andra fördelar med virtualisering så som hårdvaru abstraktion enkapsulering mm.. Men för denna diskussion tror jag argumenten räcker. KlickLösningen - Vi behöver någonting som kan bryta fysikens lagar och överbrygga begränsningarna och ändra datacentret så som vi känner det idag… Detta är något som görs bit för bit och låt oss kika på detta. KLICK förrändringar, låta infrastrukturen förändra hur de olika elementen skall vara konfigurerade för att köra optimalt.
ServrarÖver tiden så har serverplatformen genomgått en stor resa. Från mainframe till virtualiserad x86 platform med allt det innebär. En extremt viktig faktor är standardisering till intel x86 arkitekturen som även återfinns inom andra delar av datacentret som tex storage. En annan viktig faktor är övergången till en mer distribuerad arkitektur för att få en skalbar, flexibel miljö. Vi behöver inte gå in mer på detta nu. KlickNätverk Tittar vi på nätverkssidan så händer liknande saker… Man kan dra en parallell mellan serversidans mainframe till nätverkssidans Chassibaserade Core.. Utvecklingen som vi ser här är att gå från Chassi baserad Core till Distribuerad Core. Man konstruerar virtuella chassin med standardswitchar i Spine/ Leaf konstruktioner som ger möjlighet till extrem skalbarhet och stor flexibilitet. Två stora faktorer driver på denna utveckling och det är SDN samt standardisering. Om vi tar ett standardformat som 1Us 10GbE switch så har nästan alla tillverkare samma chipset där idag. Varför det? Tidigare plöjdes stora summur R&D pengar ner i att bygga egna ASIC´s, proprietär hårdvara med varje tillverkares USPar djupt begravna nere i hårdvarustacken. Själva tanken med software defined är att befria varje hårdvarukomponent från specifik intelligens och lyfta ut den till ett ovanförliggande lager. I nätverkets fall innebär det att all nätverkskonfig ligger i en egen kontroller utanför alla switchar. Med andra ord, så behöver man inte längre manuellt konfigurera varje enhet i nätverket. Sedan finns det en massa andra fördelar så klart. KlickSäkerhetPå säkerhetssidan så har vi ramverket vShield där VMware med hjälp av olika API:er släppt in partners inom säkerhets-ecosystemet att exekvera på i hypervisor lagret utanför själva attackytan vilket är omöjligt i en fysisk implementation. Denna approach kompletteras även här med att lägga intelligensen utanför en begränsande hårdvara. Virtualiserade säkerhetsfunktioner kan enklare skalas ut och anpassa sig efter dynamiken i applikationslagret.. KlickVad som händer i storagelagret är det vi ska titta närmre på i denna presentation.
In the mostly physical world, it often took weeks to fully deploy a new application. [Note: you might want to choose if you want to talk about deploying apps or services. Some people prefer the term “services” because it implies background “services” that apps depend on, as well as apps. Analysts will often refer to it that way.]<click>In a mostly virtual world, it’s certainly better. Many customers can set-up and deliver new applications within hours. But there’s still a lot of work to be done.<click>Setting up a new VM is easy. It’s instant. The difficult part is all the surrounding infrastructure services you need to support that new app. It has dependencies on storage, networking, security. It has requirements around availability and business continuity that must be taken into consideration. It’s all these other services that take the most time, not getting a VM deployed!<click>What if we could shrink down that problem, and make it as simple and straightforward as it is to configure and deploy a new VM. Make it almost “automatic”, by having a fully dynamic, software-driven datacenter.<click>If we can capture a set of policies that can drive and automate the provisioning of all the infrastructure services needed for a new application, and capture it in a container – a virtual datacenter, or VDC – then we can achieve our goal of deploying new applications within minutes or seconds.
What all of this is adding up to is that Virtualized Software is Replacing Specialized Hardware as the core material in designing the modern datacenter. In short, differentiated value lies in how software interacts and integrates, passing hardware control from proprietary management tools to higher level orchestration tools via open programmable APIs rather than deterministic, proprietary, scriptable CLIs.
Exempelpåettflödeinom software defined datacenter. Härkommerettexempelpåhurdetkanfungera… Låtsägaatt du är skallprovisioneraupp 50 virtuellamaskinerför test ochutvecklingeller en utbildningsmiljöellerliknande. <Click> I dennanyamodellgår du då in I en självbetjäningsportalochbeställerdinaservrar. Vi förutsätterattbeställningengodkännsoch vid dennapunkt tar mjukvaranöver. <Click> Orkestreringsmjukvaraanvändsförattkoordineraskapandetochleveransenutavdessatjänster. <Click> Vid användningav en EMC/Vmware stack skulleportalenochorkestreringenutgörasavvCloudAutomationcenterochvCloud Orchestrator. DessaskulleanvändavCloudAPIerföratt be vCloud Director attprovisioneradessaservrar till rättaffärsenhetochdessisoleradebubbla I detvirtuella datacentret. vCloud Director skulleanvändavCenter APIs förattanvända templates I vCenter. Om vi antarattlagringssytemetsupporterar VAAI ,vilketallaemc system gör, såskullevCentergöra en API request till storage attskapa 50 kopiorav de block somutgör din template. Vid dennapunktskullevCenterregistreradessasomunika VMs startaigångdemochresultatetskulle sedan skickasgenomstackenhelavägen till dig somatttransaktionen är genomfördochattdinamaskiner ¨ållerpåattbootaupp. Noteraatt den endamänskligatransaktionenvar I börjannär du beställdedinamaskiner. Allt annatsköttesgenomprogramerbarmjukvaraochhårdvarasomkoordineradesav en orkestreringsmotorfrån start till mål.
Det traditionella datacentret beståroftaavolikateknikochapplikations silos. Ofta är detapplikationenochdessägaresomdikterarkravensom sedan trattasner I olikateknologiskavalförinfrastrukturen. Man kan se appägarnasombortskämdatonårsbarnoch vi är curlingföräldrarna… Varje app har sin egnavertikal med CPU, OS, storage, nät, säkerhetochäven management system. Om vi fortsätteratt CURLA våraapplikationsägarepådettasättkommerinfrastrukturenattblimerspretigochkomplexvilketleder till att vi behövermerresurserförattklappaominfrastrukturenochhållalampantänd. Det blir kostsamt, såmycketsomupp till 70% av OPEX gåråt till detta I många fall. Click
Vadsombehövergörasärattomvandla de olikafysiskasilokonstruktionerna till pooler avgemensammaresurser. Pooler avlagring, server, nätverkochsäkerhetsomärcentraltmanagerat. Idagharnästanalla 80-90% avvadsomkrävsförattåstakommadetta. Detmestasombehövergörasärrelaterat till processer ochorganisatoriskafrågor. Närdettaärgjortkan man bytafokusfrånattkonfigureraochövervakafysiskhårdvara till attjobbamer med affärsunderstöd. Nu har vi kommit till ettlägedär den fiiinaochmycketkompetentahårdvaranfår en nedgraderad roll. Vi behöverintelängrebryossomvilkenmodellellerfärg en hårdvaruprylharlängre.. Detkrävsmycketavhårdvaranföratt den I slutändanskalluppnåstatusenattblinedgraderad till hårvarupryl. Hårdvaranmåstevaraså pass välintegrerad med ovanförliggandeinfrastrukturatt den isigkanförståvilkenkapacatitetprestandaochtillgänglighetsomhårdvaruprylenkanlevereraoch sedan förändrakonfigurationenvarteftersomdetbehövsföratthålla SLA kraven. Hurserdetdåut med integrationerfrån EMC´s sidaupp till Vmware? KLICK
Alternate shorter slide to previous slide … make up your own talk track focusing on multi-year evolution focusingon integration and passing up control … baby steps, over time, leading to SDDC.
All of these things … billions of dollars of R&D … lead us to slides like this. Now its important to look at this through the right lens. This isn’t here to simply flash to the customer, thump our chest and say that we are #1, but rather it is a critical proof point in our most important differentiator. In the current world, the question of why EMC isn’t answered with some list of feature and functionality, but rather our greatest asset is that we have an invisibility cloak. Our software better integrates with everything in the broader IT stack making the lives of our customers easier. Our deep integration allows customers to do the following …
As the Cloud Operations model evolves towards the Software-Defined Data Center, we see greater levels of abstraction of the underlying infrastructure hardware, with greater levels of intelligence moving up the stack. Infrastructure resources are now virtualized and accessed via open RESTful APIs. EMC and VMware have been enabling this type of functionality through VMware APIs (VASA, VAAI, VADP) for the past couple years, allowing greater visibility between Server/VM and Storage. This abstracted, API-driven models will continue to evolve for Networks, Security and other management elements.
Just as we laid out a step-by-step model to help customers on their “journey to the cloud”, we will also lay out a model to manage the transition to the new management models needed for Cloud Operations. [Phase 1] At the foundation is the automation that is needed within each of the technology areas (server, storage, network and security). By leveraging tools that not only provide granular management, but also can integrate with the virtualization platform, IT groups can begin to deliver more agile operations and automate repetitive tasks. [INSERT DISCUSSIONS ABOUT EMC PROSPHERE, UNISPHERE, IONIX, SMARTS, NCM, WATCH4NET][Phase 2] Begin to leverage the Cloud Operations functionality that is available with the virtualization platform. This will treat the infrastructure as pools of resources, allowing IT to manage demand and performance in a more cost-effective, flexible way. [INSERT DISCUSSION OF VMWARE VCLOUD SUITE]
PROJECT BOURNE will allow Cloud Operations to manage heterogenous storage environments, working closely with VMware Software-Defined Data Center architecture components (vCLOUD SUITE). BOURNE provides the control-plane (not the data-plane) for Cloud Operations interaction with VMware. Data plane interaction is still between the Application/VM and the Storage systems using standard protocols.
Mycket I datahallen är idagvirtualiserat, men fortfarandeanvändssammamekanismerföratttilldelaochhanteralagring. Dettakommer VMware attändrapå! Det jag skaprataom nu är framtid, detfinnsinteidag, men detkommertroligen under nästaår. Vad är detdåsom är pågång? Vmwarejobbarpå en ny storage stack där sto9ra förändringarkommerattgöras. Delsförbättringarför den traditionellalagringen, SAN / NAS, men man tittarävenpåattkomplettera med en distribueradinfrastrukturbestående av interndisk (DAS). Det är trehuvudkategorier vi skalltittapå. klickVirtual Volumes ellervVolsKlickKlickVirtual Flash, där intern flash disk blir en Tier 1 resurssomkanstyrasliktminneoch CPU resurs I en host. KlickSamt virtual SAN – distribueradeinternadiskar.. Kommerattpassa bra förnyaapplikationerdärnärhet till disk är viktigttexhadoop. Tillsammansutgör de Software Defined Storage.
Visionen för Software Defined storage är att kunna samla resurser från alla typer avlagring SAN, NAS, DAS & Flash i stora virtualiserade lagrings pooler. Man ska kunna upprätta lagringsenheter baserat på tjänsteprofiler istället för att anpassa sig efter fysiska begränsningar som det är idag. Varje Virtuell maskin får den kapacitet, tillgänglighet och prestanda som just den behöver. Tjänsteprofilen appliceras på varje enskild VMDK, inte per datastore eller LUN / filsystem som det är idag. Varje objekt för sin tjänsteprofil och den är policydefinitionen för all automation som sker i lagringen.
Genom att virtualisera Server flash och konvertera det till en resurspool i klustret precis som man gör med
In the mostly physical world, it often took weeks to fully deploy a new application. [Note: you might want to choose if you want to talk about deploying apps or services. Some people prefer the term “services” because it implies background “services” that apps depend on, as well as apps. Analysts will often refer to it that way.]<click>In a mostly virtual world, it’s certainly better. Many customers can set-up and deliver new applications within hours. But there’s still a lot of work to be done.<click>Setting up a new VM is easy. It’s instant. The difficult part is all the surrounding infrastructure services you need to support that new app. It has dependencies on storage, networking, security. It has requirements around availability and business continuity that must be taken into consideration. It’s all these other services that take the most time, not getting a VM deployed!<click>What if we could shrink down that problem, and make it as simple and straightforward as it is to configure and deploy a new VM. Make it almost “automatic”, by having a fully dynamic, software-driven datacenter.<click>If we can capture a set of policies that can drive and automate the provisioning of all the infrastructure services needed for a new application, and capture it in a container – a virtual datacenter, or VDC – then we can achieve our goal of deploying new applications within minutes or seconds.