SlideShare une entreprise Scribd logo
1  sur  86
SPONSOR
Who am I?
Andrea Garattini
Senior Architect & Engineer
ACME Consulting srl
Andrea Garattini
Andrea.garattini@acmeconsulting.it
MCT, MCSE, CCDP. CCNP, CCSI,
Who am I?
Mario Serra
IT Consultant
Delsy srl
Mario Serra
mario.serra@delsy.eu
MVP RECONNECT, MCITP, MCP, MCSDT,MCTS
Iperconvergenza con Windows Server
Andrea Garattini
Mario Serra
Agenda
HyperChe???
Storage Spaces Direct
Setup e configurazione
Windows Admin Center
IperChe???
Una «veloce» introduzione all’iperconvergenza
Cos’è l’iperconvergenza?
• Un’architettura Iperconvergente utilizza tecnologie diverse:
• Software Defined Storage
• Software Defined Networking
• Software Defined Compute
• Software Defined Data Center
• Offre una piattaforma di virtualizzazione
• Facilmente scalabile
• Relativamente economica
• Semplice da manutenere e gestire
• In Windows Server 2016 e migliorata con Windows Server 2019
• Basata su Storage Spaces Direct e Hyper-V
Cos’è l’iperconvergenza?
• I sistemi iperconvergenti:
• Hardware
• Software
• Storage
• Fuzionalità aggiuntive: deduplica, compressione e replica geografica.
• Tutto in un unico box (appliance) gestita con una singola interfaccia
che “maschera” i sistemi sottostanti.
• L’iperconvergenza è un’infrastruttura che non separa le operazioni
dell’infrastruttura dall’hardware di sistema.
Sistemi “Tradizionali”
Convergenza: SMB3 + Storage Spaces (Direct)
Iperconvergenza
Storage Spaces Direct (S2D)
Ma chi l’ha detto che sui server serve il RAID???
S2D
• Raccoglie e migliora due tecnologie di Windows 2012
• Storage Spaces (SS)
• Clustered SS
• Caratteristiche
• Capacità e scalabilità
• Prestazioni
• Affidabilità
S2D caratteristiche
• Capacità e scalabilità
• I classici server 2U adesso possono avere anche più di 12 dischi da 3.5”.
• In caso fosse necessario aumentare oltre le capacità del singolo server si scala
aggiungendo un nuovo nodo.
• Prestazioni
• Affidabilità
S2D caratteristiche
• Capacità e scalabilità
• Prestazioni
• S2D può utilizzare dischi meccanici, SSD e NVMe.
• Implementa nativamente funzioni di caching e di tiering.
• Le reti attualmente disponibili (10 Gb, 40 Gb e 100Gb) non sono un collo di
bottiglia.
• Affidabilità
S2D caratteristiche
• Capacità e scalabilità
• Prestazioni
• Affidabilità
• S2D non si appoggia su controller RAID HW o SW.
• L’affidabilità e la ridondanza sono affidate alle funzioni del sistema operativo.
• Lo storage può essere configurato come simple spaces, mirror spaces o parity
spaces.
S2D - Caching
• S2D scenari di deployment:
• La gerarchia di caching
• Algoritmo di caching
S2D – Caching, scenari
• All Flash
• massimizza le prestazioni
• non include dischi meccanici
• All NVMe
• NVMe come cache SSD come capacità
• All SSD
• Ibrido
• bilancia capacità e prestazioni o massimizza la capacità
• include dischi meccanici
• NVMe come cache, HDD come capacità
• SSD come cache, HDD come capacità
• NVMe come cache, SSD e HDD come capacità
S2D – Caching, gerarchia
• La gerarchia di caching è basata sulla velocità:
• NVMe > SSD > HDD
• Quindi:
• NVMe può fare da cache per SSD e HDD
• SSD può fare da cache per HDD
• Non sono supportati meccanismi di caching tra HDD (es 15K su 7.2K)
S2D – Caching, algoritmo
• Determinato automaticamente
• Write Only caching per soluzioni all flash
• Read & Write caching per soluzioni ibride
• In caso si usino tutte e due le strategie:
• Si sommano le strategie precedenti
• NVMe fa RO caching verso i dischi SSD
• NVMe fa RW caching verso i dichi HDD
SSD- Caching, algoritmo
• Il Binding della cache ai dischi è dinamico
(da un ratio di 1:1 a 1:12 e oltre).
• Il rapporto varia automaticamente
• In caso di aggiunta di nuovi dischi capacitivi
• In caso di aggiunta di nuovi dischi di cache
• In caso di guasto di un disco di cache
• Best Practice: mantenere il numero di
dischi capacitivi come multiplo dei dischi
di cache
SSD – Caching, algoritmo
• Quando un disco di cache fallisce, tutti i dati
non ancora scritti (cache RW) sono persi
LOCALMENTE.
• Come nel caso di perdita di un disco
capacitivo, Storage Space recupera il guasto
accedendo alle copie valide sugli altri server.
• Per il tempo che SS impiega a ricostruire il
disco di cache, i dischi capacitivi associati
appaiono in stato unhealthy.
• Per garantire le prestazioni dell’architettura
è richiesto avere almeno due dischi di cache
SSD - Resiliency
• Oltre delle prestazioni Storage Spaces garantisce la fault tolerance o
l’affidabilità dei dati.
• Come nel caso del RAID la FT è ottenuta ridondando il dato.
• A differenza del RAID, si ridondano i dischi su server diversi invece che
localmente.
• Come per il RAID esistono diverse implementazioni che si caratterizzano
per livello di fault tolerance, storage efficiency, e complessità.
• In particolare si identificano due architetture: mirroring e parità
SSD – Resiliency: Mirroring
• Il Mirroring garantisce la FT mantenendo più copie dei dati.
• Concettualmente simile al RAID1.
• Ogni dato sottoposto a Mirroring è scritto (integralmente) diverse volte in
più copie.
• Ogni copia è scritta su hardware fisco diverso (dichi diversi in server diversi)
che per assunzione si deve poter guastare indipendentemente.
• Esistono due implementazioni: Mirroring a due vie e Mirroring a tre vie.
SSD – Resiliency: Parity
• La parità o Parity Encoding o Erasure Coding garantisce la FT per
mezzo della matematica bitwise o logica.
• Migliora la Storage Efficency senza compromettere la FT.
• In Windows 2016/2019 si può implementare in due modi: Simple o
Dual.
SSD – Resiliency: Note Importanti
• Per calcolare lo spazio effettivo:
https://s2dcalc.blob.core.windows.net/www/index.html
• Con i workload di tipo performance-sensitive, usate il mirroring.
• In caso abbiate solo tre server, usate il three-way mirroring. (la Single Parity... non
è molto incoraggiata: “But, it's there if you insist on using it, and it is fully
supported.”).
• Prima di iniziare a usate la resiliency con SSD, tre letture obbligatorie:
• https://blogs.technet.microsoft.com/filecab/2016/11/21/deep-dive-pool-in-spaces-direct/
• https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/LRC12-
cheng20webpage.pdf
• https://blogs.technet.microsoft.com/filecab/2016/09/06/volume-resiliency-and-efficiency-
in-storage-spaces-direct/
SSD – Resiliency: recap
SSD – Resiliency: recap
SSD: Requirements
• Nota dolente: SSD richiede Windows 2016/2019 DATACENTER!
• Server:
• Minimo due server, Massimo 16 server.
• Tutti i server devono essere uguali
• CPU:
• Intel Nehalem o successivi/superiori
• AMD EPYC o successivi/superiori
SSD: Requirements
RAM
• 4 GB of RAM per terabyte (TB) di capacità dei cache drive su ciascun
server SOLO per i metadati di S2D
• A questa va aggiunta la memoria per Windows, le VM, gli applicativi
ecc ecc.
SSD: Configurazione del Networking
• Networking
• Almeno 1 scheda 10 GbE per le comunicazioni intra-cluster.
• Due schede sono raccomandate
• Raccomandate schede remote-direct memory access (RDMA)
• Se possiblie usare NIC con SMB Direct e SMB Multichannel
• iWARP (Chelsio)
• Infinyband
• RCoE (RDMA over Converged Ethernet)
SSD: Requirements, Dischi
• SOLO dischi local-attached SATA, SAS, o NVMe.
• Ogni disco deve essere connesso esclusivamente a un singolo server.
• Tutti i server devono avere lo stesso tipo di dischi.
• I dischi SSD devono avere la power-loss protection
• NON SONO SUPPORTATI i controller RAID
• RAID 1 NON è necessario, è supportato per i dischi di boot
SSD: Requirements, Dischi
Numero minimo di unità SSD (esclude le unità di avvio)
• Se utilizzo delle unita SSD come cache, devono averne almeno due
per server
SSD: Requirements, HBA
• NON SONO SUPPORATATE le HBA RAID o le SAN (di nessun tipo: Fibre
Channel, iSCSI, FCoE).
• Se il disco di boot è in RAID 1 i dischi usati da SSD devono essere
connessi ad un differente controller, NON RAID
• NON SONO SUPPORTATE connessioni MPIO
Setup e configurazione
Notes from the field
SSD: passi di installazione (su tutti i nodi)
1. Installare il SO, Update drivers, firmware e Windows su tutti i nodi
a. Configurare scheda management
b. Settare schema di alimentazione (POWERCFG.EXE /S SCHEME_MIN)
2. Join al dominio (prerequisito)
3. Configurare il Networking
4. Installare i ruoli minimi:
a. Hyper-V
b. Failover Cluster
SSD: passi di installazione
5. Creare il Cluster
6. Configurare S2D
7. Creare i volumi
8. Preparare le VM in alta disponibilità
SSD: Configurazione del Networking
• Con la convergenza e l’iperconvergenza, si parla di due reti:
• Rete Nord - Sud
• Rete Est - Ovest
SSD: Configurazione del Networking
• Con la convergenza e l’iperconvergenza, si parla di due reti:
• Rete Nord - Sud
• Cluster e Client networks
• Usata per l’accesso di Hyper-V allo storage Storage (SOFS – Scale out File
server)
• Usata per l’accesso degli utenti alle Vm (HCI)
• Rete Est - Ovest
SSD: Configurazione del Networking
• Con la convergenza e l’iperconvergenza, si parla di due reti:
• Rete Nord - Sud
• Rete Est - Ovest
• Reti di Cluster
• Heartbeat
• Storage Replica
• CSVFS redirect
• Storage Spaces Direct
SSD: Configurazione del Networking
Situazione delle Nic
SSD: Configurazione del Networking
Rinominare le Nic
• Management
• Storage
• Produzione
• Heartbeat
SSD: Configurazione del Networking
• Disabilito binding non necessari:
• Produzione:
• ms_msclient
• ms_server
• ms_tcpip
• ms_tcpip6
• HB:
• ms_msclient
• ms_server
SSD: Configurazione del Networking
SSD: Configurazione del Networking
Creo Virtual Switch per VM (rete di Produzione)
New-VMSwitch -Name ProdNet -NetAdapterName 1-
ProdNet-01, 2-ProdNet-02 -EnableEmbeddedTeaming
$True -AllowManagementOS $False
SSD: Configurazione del Networking
• Disabilitare VMQ da Scheda Management SE presente
• verifico con get-NetAdapterVMQ -Name Management-00
• disabilito con Disable-NetAdapterVMQ -Name Management-00
• Abilito RSS sulla scheda per lo storage
• Core 1 e 2 per StorageNet-01
Set-NetAdapterRSS StorageNet-01 -BaseProcessorNumber 0 -
MaxProcessorNumber 1
• Core 3 e 4 per StorageNet-02
Set-NetAdapterRSS StorageNet-02 -BaseProcessorNumber 2 -
MaxProcessorNumber 3
• Controllo con Get-NetAdapterRSS StorageNet-01
SSD: Configurazione del Networking
SSD: Configurazione del Networking
Jumbo Frame
• Impostare con
Get-NetAdapterAdvancedProperty -Name sto* -
RegistryKeyword "*jumbopacket" | Set-
NetAdapterAdvancedProperty -RegistryValue 9014
• Controllare con
Get-NetAdapterAdvancedProperty -Name sto* -
RegistryKeyword "*jumbopacket"
SSD: Configurazione del Networking
SSD: Configurazione del Networking
Configuro IP e DNS sulle schede Storage e HB
Disabilito la registrazione nel DNS Storage e HB
Set-DNSClient -InterfaceAlias sto* -
RegisterThisConnectionsAddress $False
SSD: Installare ruoli e funzionalità
Install-WindowsFeature -Name rsat
Install-WindowsFeature -Name File-Services
Install-WindowsFeature -Name Failover-Clustering –
IncludeManagementTools
Install-WindowsFeature -Name Hyper-V -
IncludeManagementTools –Restart
SSD: Creazione del cluster
• Quattro passi:
1. Validazione del Cluster (OBBLIGATORIA)
2. Creazione del cluster
3. Configurazione del witness (se si hanno solo due nodi)
1. Creo la share per il witness (FS o Cloud)
4. Preparazione (pulizia) dei dischi
SSD - Configurazione del cluster: Validazione
• Validare sempre il cluster e forzare la validazione di S2D
Test-Cluster –Node HyperV-00, HyperV-01–Include "Storage
Spaces Direct", "Inventory", "Network", "System
Configuration”
SSD - Configurazione del cluster: Installazione
• Installare il cluster via powershell - con il parametro –
NoStorage (per per evitare che i volumi vengano aggiunti
automaticamate al cluster)
New-Cluster -Name HV-cluster00 -Node HyperV-
00,HyperV-01 –NoStorage -StaticAddress
192.168.1.205
SSD - Configurazione del cluster: Witness
• Obbligatorio solo in caso di deployment a 2 nodi
• file share witness
Set-ClusterQuorum -Cluster HV-cluster00 -
FileShareWitness dc1.lab.localHV-cluster00
• cloud witness
Set-ClusterQuorum -CloudWitness -Cluster HV-
cluster00 -AccountName "pmincloudhyperstorage" -
AccessKey "=="
SSD - Configurazione del cluster: Pulizia
• I dischi che useremo con S2D devono essere vuoti senza dati
o partizioni
• Se un disco non è visto come vuoto non può essere aggiunto
a un sistema S2D
• In pratica:
Clear-Disk
oppure
Get-PhysicalDisk | Reset-PhysicalDisk
Controllo dei dischi
SSD - Configurazione del cluster: S2D
• Abilitare con il cmdlet:
Enable-ClusterStorageSpacesDirect
• Questo cmdlet esegue tre operazioni:
• Crea un singolo pool
• Configura la cache S2D (se trova supporti adatti ) e la configura (RW o RO)
• Crea due tier (se trova supporti adatti; uno chiamato Capacicty e uno
Performance)
SSD - Configurazione del cluster: Creazione SP
• Abilito con il comdlet:
New-StoragePool -StorageSubSystemFriendlyName *Cluster* -
FriendlyName S2D -ProvisioningTypeDefault Fixed -PhysicalDisk
(Get-PhysicalDisk | ? CanPool -eq $true)
SSD - Configurazione del cluster: Volumi
• Creazione dei Volumi
• Senza Tiering
New-Volume -StoragePoolFriendlyName S2D* -FriendlyName
“HV-Cluster00" -FileSystem CSVFS_ReFS -Size 1TB
• Con Tiering
New-Volume -FriendlyName "HV-Cluster00" -FileSystem
CSVFS_ReFS -StoragePoolFriendlyName S2D* -
StorageTierFriendlyNames Performance, Capacity -
StorageTierSizes 300GB, 700GB
Passi successivi – Live Migration
• Abilito e configuro la Live Migration
• Configuro la "kerberos delegation" per Live Migration
• Abilito kerberos per live Migration
SSD – Creare le VM
Creare le Virtual Machines in alta disponibilità sul cluster
Windows Admin Center
O meglio Windows Admin Center e HCI
Windows Admin Center
• Strumento di gestione di prossima generazione per Windows
Server.
• È gratuito e può essere installato e usato senza una
connessione Internet.
• Può gestire e monitorare l'infrastruttura iperconvergente
• Sia 2016
• Sia 2019
Requisiti per WAC
• Per Windows Server 2016, è necessario installare un aggiornamento
rilasciato ad aprile 2018 per l'utilizzo di Windows Admin Center per
l'infrastruttura iperconvergente
• https://support.microsoft.com/en-hk/help/4000825/windows-10-windows-
server-2016-update-history
• È necessario installare gli aggiornamenti cumulativi più recenti,
incluso KB4093120
• Eseguire il cmdlet di PowerShell seguente come amministratore nel
cluster:
• Add-ClusterResourceType -Name "SDDC Management" -dll
"$env:SystemRootClustersddcres.dll" -DisplayName
"SDDC Management"
Windows Admin Center
Windows Admin Center
Windows Admin Center
Windows Admin Center
Windows Admin Center
Windows Admin Center
Windows Admin Center
E... Quindi??
Ma alla fin fine…
Iperconvergenza: quando usarla
• È comunque un investimento
• È un trend… ma è anche una scommessa
• Non è adatta a tutti gli ambienti
• Ambiti d’eccellenza
• Virtual desktop
• Remote Office, Branch Office
• Hybrid Cloud
Iperconvergenza: vantaggi e svantaggi
• PRO
• Deployment semplificato
• “basso costo”
• “Agile”
• Scalabilità
• Apprendimento
semplificato
• CONTRO
• Prestazioni
• “alto costo”
• Scalabilità “rigida”
• Vendor Lock-in (ma non se
fatta Vendor Independent)
Hardware Certificato
• Per la produzione, è consigliabile andare su soluzioni hardware e software
certificato dai partners di Microsoft. Sono concepiti, assemblati e quindi
convalidati per garantire la compatibilità e affidabilità.
https://microsoft.com/wssd
Iperconvergenza: per testing
• Non serve (per il lab) hw esoterico
• Si può simulare molto
#Abilitazione Nested Virtualization
Set-VMProcessor -VMName SRV-01,SRV-02 -
ExposeVirtualizationExtensions 1
#Forzare l’utilizzo dei dischi HDD per simulare i dischi SSD
Enable-ClusterS2D -CacheState Disabled -AutoConfig:0 –
SkipEligibilityChecks
#Utilizzare modelli su Microsoft Azure
https://azure.microsoft.com/it-it/resources/templates/?pageNumber=1&term=s2d
L’hardware del lab - Nodo
I nodi sono:
2X Server Dell T20
Ram 32 GB/nodo
Dischi:
1x SSD Boot/SO
2x SSD Cache
4X HDD Storage
L’hardware del lab – Controller Storage
Controller No Raid per i
dischi HDD di Storage
L’hardware del lab - Networking
Networking:
1x Management 1GB
1x Hertbeat 1GB
2x Cluster Storage 10GB SFF
2x Rete produzione 10GB RJ45
Domande???
E, se possibile…. Risposte!
Let the past go and step off into the future

Contenu connexe

Tendances

SQL Server Back to Basics: Sicurezza
SQL Server Back to Basics: SicurezzaSQL Server Back to Basics: Sicurezza
SQL Server Back to Basics: SicurezzaGianluca Hotz
 
#vBrownBag.IT - Session 1
#vBrownBag.IT - Session 1#vBrownBag.IT - Session 1
#vBrownBag.IT - Session 1Andrea Mauro
 
October 2009 - JBoss Cloud
October 2009 - JBoss CloudOctober 2009 - JBoss Cloud
October 2009 - JBoss CloudJBug Italy
 
Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...
Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...
Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...Marco Obinu
 
SQL Server Workload Profiling
SQL Server Workload ProfilingSQL Server Workload Profiling
SQL Server Workload ProfilingGianluca Hotz
 
Veeam - Always-on Enterprise: chimera o realtà?
Veeam - Always-on Enterprise: chimera o realtà?Veeam - Always-on Enterprise: chimera o realtà?
Veeam - Always-on Enterprise: chimera o realtà?VMUG IT
 
May 2010 - Infinispan
May 2010 - InfinispanMay 2010 - Infinispan
May 2010 - InfinispanJBug Italy
 
SPBM VSAN VVOL @ VMUG.IT 20150529
SPBM VSAN VVOL @ VMUG.IT 20150529SPBM VSAN VVOL @ VMUG.IT 20150529
SPBM VSAN VVOL @ VMUG.IT 20150529VMUG IT
 
Azure SQL Database Ledger
Azure SQL Database LedgerAzure SQL Database Ledger
Azure SQL Database LedgerGianluca Hotz
 
SQL Server Modern Query Processing
SQL Server Modern Query ProcessingSQL Server Modern Query Processing
SQL Server Modern Query ProcessingGianluca Hotz
 
Come utilizzare AWS DMS per migrare SQL Server ad Amazon Aurora
Come utilizzare AWS DMS per migrare SQL Server ad Amazon AuroraCome utilizzare AWS DMS per migrare SQL Server ad Amazon Aurora
Come utilizzare AWS DMS per migrare SQL Server ad Amazon AuroraGianluca Hotz
 
VMUGIT UC 2013 - 09b VMUGIT SMB
VMUGIT UC 2013 - 09b VMUGIT SMB VMUGIT UC 2013 - 09b VMUGIT SMB
VMUGIT UC 2013 - 09b VMUGIT SMB VMUG IT
 
SQL Server Modern Query Processing
SQL Server Modern Query ProcessingSQL Server Modern Query Processing
SQL Server Modern Query ProcessingGianluca Hotz
 
#vBrownBag.IT - Session 2
#vBrownBag.IT - Session 2#vBrownBag.IT - Session 2
#vBrownBag.IT - Session 2Andrea Mauro
 
SDS,la pietra d’angolo dell SDDC
SDS,la pietra d’angolo dell SDDC SDS,la pietra d’angolo dell SDDC
SDS,la pietra d’angolo dell SDDC VMUG IT
 
Best Practices on SQL Server
Best Practices on SQL ServerBest Practices on SQL Server
Best Practices on SQL ServerGianluca Hotz
 

Tendances (20)

SQL Server Back to Basics: Sicurezza
SQL Server Back to Basics: SicurezzaSQL Server Back to Basics: Sicurezza
SQL Server Back to Basics: Sicurezza
 
#vBrownBag.IT - Session 1
#vBrownBag.IT - Session 1#vBrownBag.IT - Session 1
#vBrownBag.IT - Session 1
 
October 2009 - JBoss Cloud
October 2009 - JBoss CloudOctober 2009 - JBoss Cloud
October 2009 - JBoss Cloud
 
Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...
Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...
Global Azure BootCamp 2019 - Verona - Ottimizzazione delle VM SQL Server su A...
 
SQL Server Workload Profiling
SQL Server Workload ProfilingSQL Server Workload Profiling
SQL Server Workload Profiling
 
Veeam - Always-on Enterprise: chimera o realtà?
Veeam - Always-on Enterprise: chimera o realtà?Veeam - Always-on Enterprise: chimera o realtà?
Veeam - Always-on Enterprise: chimera o realtà?
 
May 2010 - Infinispan
May 2010 - InfinispanMay 2010 - Infinispan
May 2010 - Infinispan
 
SQL Server in AWS
SQL Server in AWSSQL Server in AWS
SQL Server in AWS
 
SQL Server in AWS
SQL Server in AWSSQL Server in AWS
SQL Server in AWS
 
SPBM VSAN VVOL @ VMUG.IT 20150529
SPBM VSAN VVOL @ VMUG.IT 20150529SPBM VSAN VVOL @ VMUG.IT 20150529
SPBM VSAN VVOL @ VMUG.IT 20150529
 
GUIDA VMWARE
GUIDA VMWAREGUIDA VMWARE
GUIDA VMWARE
 
Azure SQL Database Ledger
Azure SQL Database LedgerAzure SQL Database Ledger
Azure SQL Database Ledger
 
SQL Server Modern Query Processing
SQL Server Modern Query ProcessingSQL Server Modern Query Processing
SQL Server Modern Query Processing
 
Come utilizzare AWS DMS per migrare SQL Server ad Amazon Aurora
Come utilizzare AWS DMS per migrare SQL Server ad Amazon AuroraCome utilizzare AWS DMS per migrare SQL Server ad Amazon Aurora
Come utilizzare AWS DMS per migrare SQL Server ad Amazon Aurora
 
VMUGIT UC 2013 - 09b VMUGIT SMB
VMUGIT UC 2013 - 09b VMUGIT SMB VMUGIT UC 2013 - 09b VMUGIT SMB
VMUGIT UC 2013 - 09b VMUGIT SMB
 
SQL Server Modern Query Processing
SQL Server Modern Query ProcessingSQL Server Modern Query Processing
SQL Server Modern Query Processing
 
#vBrownBag.IT - Session 2
#vBrownBag.IT - Session 2#vBrownBag.IT - Session 2
#vBrownBag.IT - Session 2
 
SDS,la pietra d’angolo dell SDDC
SDS,la pietra d’angolo dell SDDC SDS,la pietra d’angolo dell SDDC
SDS,la pietra d’angolo dell SDDC
 
Best Practices on SQL Server
Best Practices on SQL ServerBest Practices on SQL Server
Best Practices on SQL Server
 
Foundation server
Foundation serverFoundation server
Foundation server
 

Similaire à CCI2018 - Iperconvergenza con Windows Server

Presentazione storage concetti base pdf
Presentazione storage   concetti base pdfPresentazione storage   concetti base pdf
Presentazione storage concetti base pdfAFB Net
 
Polyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDB
Polyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDBPolyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDB
Polyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDBSteve Maraspin
 
Build a SQL Server machine - the right way (Italian)
Build a SQL Server machine - the right way (Italian)Build a SQL Server machine - the right way (Italian)
Build a SQL Server machine - the right way (Italian)Danilo Dominici
 
Azure PaaS databases
Azure PaaS databasesAzure PaaS databases
Azure PaaS databasesGianluca Hotz
 
JBoss Data Grid Tech Lab
JBoss Data Grid Tech LabJBoss Data Grid Tech Lab
JBoss Data Grid Tech LabUgo Landini
 
Infinispan codemotion - Codemotion Rome 2015
Infinispan codemotion - Codemotion Rome 2015Infinispan codemotion - Codemotion Rome 2015
Infinispan codemotion - Codemotion Rome 2015Codemotion
 
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQL
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQLMySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQL
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQLPar-Tec S.p.A.
 
VMUGIT - Virtualizzare con i piedi per terra
VMUGIT - Virtualizzare con i piedi per terraVMUGIT - Virtualizzare con i piedi per terra
VMUGIT - Virtualizzare con i piedi per terraVMUG IT
 
Presentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terra
Presentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terraPresentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terra
Presentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terraAndrea Mauro
 
Glusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatileGlusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatileBioDec
 
Glusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatileGlusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatileIvan Rossi
 
Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...
Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...
Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...Clouditalia Telecomunicazioni
 
JBoss Clouds - JBug Roma october 2009
JBoss Clouds -  JBug Roma october 2009JBoss Clouds -  JBug Roma october 2009
JBoss Clouds - JBug Roma october 2009Sanne Grinovero
 
Azure for Game Developers
Azure for Game DevelopersAzure for Game Developers
Azure for Game DevelopersMarco Parenzan
 
Smau Milano 2011 Emilio Perotti
Smau Milano 2011 Emilio PerottiSmau Milano 2011 Emilio Perotti
Smau Milano 2011 Emilio PerottiSMAU
 
VMUG.IT @ ITway Campus 2014
VMUG.IT @ ITway Campus 2014VMUG.IT @ ITway Campus 2014
VMUG.IT @ ITway Campus 2014Andrea Mauro
 
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on Azure
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on AzureSQL Saturday 871 - Sardegna 2019 - SQL Server DR on Azure
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on AzureMarco Obinu
 

Similaire à CCI2018 - Iperconvergenza con Windows Server (20)

Presentazione storage concetti base pdf
Presentazione storage   concetti base pdfPresentazione storage   concetti base pdf
Presentazione storage concetti base pdf
 
Polyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDB
Polyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDBPolyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDB
Polyglot Persistance con PostgreSQL, CouchDB, MongoDB, Redis e OrientDB
 
Build a SQL Server machine - the right way (Italian)
Build a SQL Server machine - the right way (Italian)Build a SQL Server machine - the right way (Italian)
Build a SQL Server machine - the right way (Italian)
 
Azure PaaS databases
Azure PaaS databasesAzure PaaS databases
Azure PaaS databases
 
Infinispan
InfinispanInfinispan
Infinispan
 
JBoss Data Grid Tech Lab
JBoss Data Grid Tech LabJBoss Data Grid Tech Lab
JBoss Data Grid Tech Lab
 
Infinispan codemotion - Codemotion Rome 2015
Infinispan codemotion - Codemotion Rome 2015Infinispan codemotion - Codemotion Rome 2015
Infinispan codemotion - Codemotion Rome 2015
 
Data grid
Data gridData grid
Data grid
 
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQL
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQLMySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQL
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQL
 
VMUGIT - Virtualizzare con i piedi per terra
VMUGIT - Virtualizzare con i piedi per terraVMUGIT - Virtualizzare con i piedi per terra
VMUGIT - Virtualizzare con i piedi per terra
 
Presentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terra
Presentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terraPresentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terra
Presentazione al VMUGIT UC 2014 - Virtualizzare con i piedi per terra
 
Glusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatileGlusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatile
 
Glusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatileGlusterfs: un filesystem altamente versatile
Glusterfs: un filesystem altamente versatile
 
Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...
Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...
Partner Day Milano - dicembre 2015 - Software Difined Storage. Disaster recov...
 
JBoss Clouds - JBug Roma october 2009
JBoss Clouds -  JBug Roma october 2009JBoss Clouds -  JBug Roma october 2009
JBoss Clouds - JBug Roma october 2009
 
Azure for Game Developers
Azure for Game DevelopersAzure for Game Developers
Azure for Game Developers
 
HP software defined storage
HP software defined storageHP software defined storage
HP software defined storage
 
Smau Milano 2011 Emilio Perotti
Smau Milano 2011 Emilio PerottiSmau Milano 2011 Emilio Perotti
Smau Milano 2011 Emilio Perotti
 
VMUG.IT @ ITway Campus 2014
VMUG.IT @ ITway Campus 2014VMUG.IT @ ITway Campus 2014
VMUG.IT @ ITway Campus 2014
 
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on Azure
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on AzureSQL Saturday 871 - Sardegna 2019 - SQL Server DR on Azure
SQL Saturday 871 - Sardegna 2019 - SQL Server DR on Azure
 

Plus de walk2talk srl

CCI 2019 - SQL Injection - Black Hat Vs White Hat
CCI 2019 - SQL Injection - Black Hat Vs White HatCCI 2019 - SQL Injection - Black Hat Vs White Hat
CCI 2019 - SQL Injection - Black Hat Vs White Hatwalk2talk srl
 
CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...
CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...
CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...walk2talk srl
 
CCI 2019 - Come ottimizzare i propri workload su Azure
CCI 2019 - Come ottimizzare i propri workload su AzureCCI 2019 - Come ottimizzare i propri workload su Azure
CCI 2019 - Come ottimizzare i propri workload su Azurewalk2talk srl
 
CCI 2019 - Exchange 2019 da 0 ad HA in 1 ora
CCI 2019 - Exchange 2019 da 0 ad HA in 1 oraCCI 2019 - Exchange 2019 da 0 ad HA in 1 ora
CCI 2019 - Exchange 2019 da 0 ad HA in 1 orawalk2talk srl
 
CCI 2019 - PowerApps for Enterprise Developers
CCI 2019 - PowerApps for Enterprise DevelopersCCI 2019 - PowerApps for Enterprise Developers
CCI 2019 - PowerApps for Enterprise Developerswalk2talk srl
 
CCI 2019 - Architettare componenti in SPFx, esperienze sul campo
CCI 2019 - Architettare componenti in SPFx, esperienze sul campoCCI 2019 - Architettare componenti in SPFx, esperienze sul campo
CCI 2019 - Architettare componenti in SPFx, esperienze sul campowalk2talk srl
 
CCI 2019 - Step by step come attivare un servizio voce in MS Teams
CCI 2019 - Step by step come attivare un servizio voce in MS TeamsCCI 2019 - Step by step come attivare un servizio voce in MS Teams
CCI 2019 - Step by step come attivare un servizio voce in MS Teamswalk2talk srl
 
CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0
CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0
CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0walk2talk srl
 
CCI2019 - I've got the Power! I've got the Shell!
CCI2019 - I've got the Power! I've got the Shell!CCI2019 - I've got the Power! I've got the Shell!
CCI2019 - I've got the Power! I've got the Shell!walk2talk srl
 
CCI2019 - Sistema di controllo del traffico con architettura Big Data
CCI2019 - Sistema di controllo del traffico con architettura Big DataCCI2019 - Sistema di controllo del traffico con architettura Big Data
CCI2019 - Sistema di controllo del traffico con architettura Big Datawalk2talk srl
 
CCI2019 - Governance di una Conversational AI
CCI2019 - Governance di una Conversational AICCI2019 - Governance di una Conversational AI
CCI2019 - Governance di una Conversational AIwalk2talk srl
 
CCI2019 - SQL Server ed Azure: Disaster Recovery per tutti
CCI2019 - SQL Server ed Azure: Disaster Recovery per tuttiCCI2019 - SQL Server ed Azure: Disaster Recovery per tutti
CCI2019 - SQL Server ed Azure: Disaster Recovery per tuttiwalk2talk srl
 
CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...
CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...
CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...walk2talk srl
 
CCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and Azure
CCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and AzureCCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and Azure
CCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and Azurewalk2talk srl
 
CCI2019 - Teams Direct Routing e servizi fonia avanzati
CCI2019 - Teams Direct Routing e servizi fonia avanzatiCCI2019 - Teams Direct Routing e servizi fonia avanzati
CCI2019 - Teams Direct Routing e servizi fonia avanzatiwalk2talk srl
 
CCI2019 - Microservizi: Idee per un'architettura con al centro l'utente
CCI2019 - Microservizi: Idee per un'architettura con al centro l'utenteCCI2019 - Microservizi: Idee per un'architettura con al centro l'utente
CCI2019 - Microservizi: Idee per un'architettura con al centro l'utentewalk2talk srl
 
CCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal Fronte
CCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal FronteCCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal Fronte
CCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal Frontewalk2talk srl
 
CCI2019 - Monitorare SQL Server Senza Andare in Bancarotta
CCI2019 - Monitorare SQL Server Senza Andare in BancarottaCCI2019 - Monitorare SQL Server Senza Andare in Bancarotta
CCI2019 - Monitorare SQL Server Senza Andare in Bancarottawalk2talk srl
 
CCI2019 - Architecting and Implementing Azure Networking
CCI2019 - Architecting and Implementing Azure NetworkingCCI2019 - Architecting and Implementing Azure Networking
CCI2019 - Architecting and Implementing Azure Networkingwalk2talk srl
 
CCI2019 - Teams e lo Shadow IT
CCI2019 - Teams e lo Shadow ITCCI2019 - Teams e lo Shadow IT
CCI2019 - Teams e lo Shadow ITwalk2talk srl
 

Plus de walk2talk srl (20)

CCI 2019 - SQL Injection - Black Hat Vs White Hat
CCI 2019 - SQL Injection - Black Hat Vs White HatCCI 2019 - SQL Injection - Black Hat Vs White Hat
CCI 2019 - SQL Injection - Black Hat Vs White Hat
 
CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...
CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...
CCI 2019 - Exploiting Custom Vision SDK in Python to create an efficient imag...
 
CCI 2019 - Come ottimizzare i propri workload su Azure
CCI 2019 - Come ottimizzare i propri workload su AzureCCI 2019 - Come ottimizzare i propri workload su Azure
CCI 2019 - Come ottimizzare i propri workload su Azure
 
CCI 2019 - Exchange 2019 da 0 ad HA in 1 ora
CCI 2019 - Exchange 2019 da 0 ad HA in 1 oraCCI 2019 - Exchange 2019 da 0 ad HA in 1 ora
CCI 2019 - Exchange 2019 da 0 ad HA in 1 ora
 
CCI 2019 - PowerApps for Enterprise Developers
CCI 2019 - PowerApps for Enterprise DevelopersCCI 2019 - PowerApps for Enterprise Developers
CCI 2019 - PowerApps for Enterprise Developers
 
CCI 2019 - Architettare componenti in SPFx, esperienze sul campo
CCI 2019 - Architettare componenti in SPFx, esperienze sul campoCCI 2019 - Architettare componenti in SPFx, esperienze sul campo
CCI 2019 - Architettare componenti in SPFx, esperienze sul campo
 
CCI 2019 - Step by step come attivare un servizio voce in MS Teams
CCI 2019 - Step by step come attivare un servizio voce in MS TeamsCCI 2019 - Step by step come attivare un servizio voce in MS Teams
CCI 2019 - Step by step come attivare un servizio voce in MS Teams
 
CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0
CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0
CCI 2019 - Strumenti Azure per l'Anomaly Detection in ambito Industria 4.0
 
CCI2019 - I've got the Power! I've got the Shell!
CCI2019 - I've got the Power! I've got the Shell!CCI2019 - I've got the Power! I've got the Shell!
CCI2019 - I've got the Power! I've got the Shell!
 
CCI2019 - Sistema di controllo del traffico con architettura Big Data
CCI2019 - Sistema di controllo del traffico con architettura Big DataCCI2019 - Sistema di controllo del traffico con architettura Big Data
CCI2019 - Sistema di controllo del traffico con architettura Big Data
 
CCI2019 - Governance di una Conversational AI
CCI2019 - Governance di una Conversational AICCI2019 - Governance di una Conversational AI
CCI2019 - Governance di una Conversational AI
 
CCI2019 - SQL Server ed Azure: Disaster Recovery per tutti
CCI2019 - SQL Server ed Azure: Disaster Recovery per tuttiCCI2019 - SQL Server ed Azure: Disaster Recovery per tutti
CCI2019 - SQL Server ed Azure: Disaster Recovery per tutti
 
CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...
CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...
CCI2019 - Reagire agli eventi generati dalla propria infrastruttura con Azure...
 
CCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and Azure
CCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and AzureCCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and Azure
CCI2019 - What's new in Remote Desktop Services on Windows Server 2019 and Azure
 
CCI2019 - Teams Direct Routing e servizi fonia avanzati
CCI2019 - Teams Direct Routing e servizi fonia avanzatiCCI2019 - Teams Direct Routing e servizi fonia avanzati
CCI2019 - Teams Direct Routing e servizi fonia avanzati
 
CCI2019 - Microservizi: Idee per un'architettura con al centro l'utente
CCI2019 - Microservizi: Idee per un'architettura con al centro l'utenteCCI2019 - Microservizi: Idee per un'architettura con al centro l'utente
CCI2019 - Microservizi: Idee per un'architettura con al centro l'utente
 
CCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal Fronte
CCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal FronteCCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal Fronte
CCI2019i - Implementare Azure Multi-Factor Authentication Lettere dal Fronte
 
CCI2019 - Monitorare SQL Server Senza Andare in Bancarotta
CCI2019 - Monitorare SQL Server Senza Andare in BancarottaCCI2019 - Monitorare SQL Server Senza Andare in Bancarotta
CCI2019 - Monitorare SQL Server Senza Andare in Bancarotta
 
CCI2019 - Architecting and Implementing Azure Networking
CCI2019 - Architecting and Implementing Azure NetworkingCCI2019 - Architecting and Implementing Azure Networking
CCI2019 - Architecting and Implementing Azure Networking
 
CCI2019 - Teams e lo Shadow IT
CCI2019 - Teams e lo Shadow ITCCI2019 - Teams e lo Shadow IT
CCI2019 - Teams e lo Shadow IT
 

CCI2018 - Iperconvergenza con Windows Server

  • 1.
  • 3. Who am I? Andrea Garattini Senior Architect & Engineer ACME Consulting srl Andrea Garattini Andrea.garattini@acmeconsulting.it MCT, MCSE, CCDP. CCNP, CCSI,
  • 4. Who am I? Mario Serra IT Consultant Delsy srl Mario Serra mario.serra@delsy.eu MVP RECONNECT, MCITP, MCP, MCSDT,MCTS
  • 5. Iperconvergenza con Windows Server Andrea Garattini Mario Serra
  • 6. Agenda HyperChe??? Storage Spaces Direct Setup e configurazione Windows Admin Center
  • 8. Cos’è l’iperconvergenza? • Un’architettura Iperconvergente utilizza tecnologie diverse: • Software Defined Storage • Software Defined Networking • Software Defined Compute • Software Defined Data Center • Offre una piattaforma di virtualizzazione • Facilmente scalabile • Relativamente economica • Semplice da manutenere e gestire • In Windows Server 2016 e migliorata con Windows Server 2019 • Basata su Storage Spaces Direct e Hyper-V
  • 9. Cos’è l’iperconvergenza? • I sistemi iperconvergenti: • Hardware • Software • Storage • Fuzionalità aggiuntive: deduplica, compressione e replica geografica. • Tutto in un unico box (appliance) gestita con una singola interfaccia che “maschera” i sistemi sottostanti. • L’iperconvergenza è un’infrastruttura che non separa le operazioni dell’infrastruttura dall’hardware di sistema.
  • 11. Convergenza: SMB3 + Storage Spaces (Direct)
  • 13. Storage Spaces Direct (S2D) Ma chi l’ha detto che sui server serve il RAID???
  • 14. S2D • Raccoglie e migliora due tecnologie di Windows 2012 • Storage Spaces (SS) • Clustered SS • Caratteristiche • Capacità e scalabilità • Prestazioni • Affidabilità
  • 15. S2D caratteristiche • Capacità e scalabilità • I classici server 2U adesso possono avere anche più di 12 dischi da 3.5”. • In caso fosse necessario aumentare oltre le capacità del singolo server si scala aggiungendo un nuovo nodo. • Prestazioni • Affidabilità
  • 16. S2D caratteristiche • Capacità e scalabilità • Prestazioni • S2D può utilizzare dischi meccanici, SSD e NVMe. • Implementa nativamente funzioni di caching e di tiering. • Le reti attualmente disponibili (10 Gb, 40 Gb e 100Gb) non sono un collo di bottiglia. • Affidabilità
  • 17. S2D caratteristiche • Capacità e scalabilità • Prestazioni • Affidabilità • S2D non si appoggia su controller RAID HW o SW. • L’affidabilità e la ridondanza sono affidate alle funzioni del sistema operativo. • Lo storage può essere configurato come simple spaces, mirror spaces o parity spaces.
  • 18. S2D - Caching • S2D scenari di deployment: • La gerarchia di caching • Algoritmo di caching
  • 19. S2D – Caching, scenari • All Flash • massimizza le prestazioni • non include dischi meccanici • All NVMe • NVMe come cache SSD come capacità • All SSD • Ibrido • bilancia capacità e prestazioni o massimizza la capacità • include dischi meccanici • NVMe come cache, HDD come capacità • SSD come cache, HDD come capacità • NVMe come cache, SSD e HDD come capacità
  • 20. S2D – Caching, gerarchia • La gerarchia di caching è basata sulla velocità: • NVMe > SSD > HDD • Quindi: • NVMe può fare da cache per SSD e HDD • SSD può fare da cache per HDD • Non sono supportati meccanismi di caching tra HDD (es 15K su 7.2K)
  • 21. S2D – Caching, algoritmo • Determinato automaticamente • Write Only caching per soluzioni all flash • Read & Write caching per soluzioni ibride • In caso si usino tutte e due le strategie: • Si sommano le strategie precedenti • NVMe fa RO caching verso i dischi SSD • NVMe fa RW caching verso i dichi HDD
  • 22. SSD- Caching, algoritmo • Il Binding della cache ai dischi è dinamico (da un ratio di 1:1 a 1:12 e oltre). • Il rapporto varia automaticamente • In caso di aggiunta di nuovi dischi capacitivi • In caso di aggiunta di nuovi dischi di cache • In caso di guasto di un disco di cache • Best Practice: mantenere il numero di dischi capacitivi come multiplo dei dischi di cache
  • 23. SSD – Caching, algoritmo • Quando un disco di cache fallisce, tutti i dati non ancora scritti (cache RW) sono persi LOCALMENTE. • Come nel caso di perdita di un disco capacitivo, Storage Space recupera il guasto accedendo alle copie valide sugli altri server. • Per il tempo che SS impiega a ricostruire il disco di cache, i dischi capacitivi associati appaiono in stato unhealthy. • Per garantire le prestazioni dell’architettura è richiesto avere almeno due dischi di cache
  • 24. SSD - Resiliency • Oltre delle prestazioni Storage Spaces garantisce la fault tolerance o l’affidabilità dei dati. • Come nel caso del RAID la FT è ottenuta ridondando il dato. • A differenza del RAID, si ridondano i dischi su server diversi invece che localmente. • Come per il RAID esistono diverse implementazioni che si caratterizzano per livello di fault tolerance, storage efficiency, e complessità. • In particolare si identificano due architetture: mirroring e parità
  • 25. SSD – Resiliency: Mirroring • Il Mirroring garantisce la FT mantenendo più copie dei dati. • Concettualmente simile al RAID1. • Ogni dato sottoposto a Mirroring è scritto (integralmente) diverse volte in più copie. • Ogni copia è scritta su hardware fisco diverso (dichi diversi in server diversi) che per assunzione si deve poter guastare indipendentemente. • Esistono due implementazioni: Mirroring a due vie e Mirroring a tre vie.
  • 26. SSD – Resiliency: Parity • La parità o Parity Encoding o Erasure Coding garantisce la FT per mezzo della matematica bitwise o logica. • Migliora la Storage Efficency senza compromettere la FT. • In Windows 2016/2019 si può implementare in due modi: Simple o Dual.
  • 27. SSD – Resiliency: Note Importanti • Per calcolare lo spazio effettivo: https://s2dcalc.blob.core.windows.net/www/index.html • Con i workload di tipo performance-sensitive, usate il mirroring. • In caso abbiate solo tre server, usate il three-way mirroring. (la Single Parity... non è molto incoraggiata: “But, it's there if you insist on using it, and it is fully supported.”). • Prima di iniziare a usate la resiliency con SSD, tre letture obbligatorie: • https://blogs.technet.microsoft.com/filecab/2016/11/21/deep-dive-pool-in-spaces-direct/ • https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/LRC12- cheng20webpage.pdf • https://blogs.technet.microsoft.com/filecab/2016/09/06/volume-resiliency-and-efficiency- in-storage-spaces-direct/
  • 30. SSD: Requirements • Nota dolente: SSD richiede Windows 2016/2019 DATACENTER! • Server: • Minimo due server, Massimo 16 server. • Tutti i server devono essere uguali • CPU: • Intel Nehalem o successivi/superiori • AMD EPYC o successivi/superiori
  • 31. SSD: Requirements RAM • 4 GB of RAM per terabyte (TB) di capacità dei cache drive su ciascun server SOLO per i metadati di S2D • A questa va aggiunta la memoria per Windows, le VM, gli applicativi ecc ecc.
  • 32. SSD: Configurazione del Networking • Networking • Almeno 1 scheda 10 GbE per le comunicazioni intra-cluster. • Due schede sono raccomandate • Raccomandate schede remote-direct memory access (RDMA) • Se possiblie usare NIC con SMB Direct e SMB Multichannel • iWARP (Chelsio) • Infinyband • RCoE (RDMA over Converged Ethernet)
  • 33. SSD: Requirements, Dischi • SOLO dischi local-attached SATA, SAS, o NVMe. • Ogni disco deve essere connesso esclusivamente a un singolo server. • Tutti i server devono avere lo stesso tipo di dischi. • I dischi SSD devono avere la power-loss protection • NON SONO SUPPORTATI i controller RAID • RAID 1 NON è necessario, è supportato per i dischi di boot
  • 34. SSD: Requirements, Dischi Numero minimo di unità SSD (esclude le unità di avvio) • Se utilizzo delle unita SSD come cache, devono averne almeno due per server
  • 35. SSD: Requirements, HBA • NON SONO SUPPORATATE le HBA RAID o le SAN (di nessun tipo: Fibre Channel, iSCSI, FCoE). • Se il disco di boot è in RAID 1 i dischi usati da SSD devono essere connessi ad un differente controller, NON RAID • NON SONO SUPPORTATE connessioni MPIO
  • 37. SSD: passi di installazione (su tutti i nodi) 1. Installare il SO, Update drivers, firmware e Windows su tutti i nodi a. Configurare scheda management b. Settare schema di alimentazione (POWERCFG.EXE /S SCHEME_MIN) 2. Join al dominio (prerequisito) 3. Configurare il Networking 4. Installare i ruoli minimi: a. Hyper-V b. Failover Cluster
  • 38. SSD: passi di installazione 5. Creare il Cluster 6. Configurare S2D 7. Creare i volumi 8. Preparare le VM in alta disponibilità
  • 39. SSD: Configurazione del Networking • Con la convergenza e l’iperconvergenza, si parla di due reti: • Rete Nord - Sud • Rete Est - Ovest
  • 40. SSD: Configurazione del Networking • Con la convergenza e l’iperconvergenza, si parla di due reti: • Rete Nord - Sud • Cluster e Client networks • Usata per l’accesso di Hyper-V allo storage Storage (SOFS – Scale out File server) • Usata per l’accesso degli utenti alle Vm (HCI) • Rete Est - Ovest
  • 41. SSD: Configurazione del Networking • Con la convergenza e l’iperconvergenza, si parla di due reti: • Rete Nord - Sud • Rete Est - Ovest • Reti di Cluster • Heartbeat • Storage Replica • CSVFS redirect • Storage Spaces Direct
  • 42. SSD: Configurazione del Networking Situazione delle Nic
  • 43. SSD: Configurazione del Networking Rinominare le Nic • Management • Storage • Produzione • Heartbeat
  • 44. SSD: Configurazione del Networking • Disabilito binding non necessari: • Produzione: • ms_msclient • ms_server • ms_tcpip • ms_tcpip6 • HB: • ms_msclient • ms_server
  • 46. SSD: Configurazione del Networking Creo Virtual Switch per VM (rete di Produzione) New-VMSwitch -Name ProdNet -NetAdapterName 1- ProdNet-01, 2-ProdNet-02 -EnableEmbeddedTeaming $True -AllowManagementOS $False
  • 47. SSD: Configurazione del Networking • Disabilitare VMQ da Scheda Management SE presente • verifico con get-NetAdapterVMQ -Name Management-00 • disabilito con Disable-NetAdapterVMQ -Name Management-00 • Abilito RSS sulla scheda per lo storage • Core 1 e 2 per StorageNet-01 Set-NetAdapterRSS StorageNet-01 -BaseProcessorNumber 0 - MaxProcessorNumber 1 • Core 3 e 4 per StorageNet-02 Set-NetAdapterRSS StorageNet-02 -BaseProcessorNumber 2 - MaxProcessorNumber 3 • Controllo con Get-NetAdapterRSS StorageNet-01
  • 49. SSD: Configurazione del Networking Jumbo Frame • Impostare con Get-NetAdapterAdvancedProperty -Name sto* - RegistryKeyword "*jumbopacket" | Set- NetAdapterAdvancedProperty -RegistryValue 9014 • Controllare con Get-NetAdapterAdvancedProperty -Name sto* - RegistryKeyword "*jumbopacket"
  • 51. SSD: Configurazione del Networking Configuro IP e DNS sulle schede Storage e HB Disabilito la registrazione nel DNS Storage e HB Set-DNSClient -InterfaceAlias sto* - RegisterThisConnectionsAddress $False
  • 52. SSD: Installare ruoli e funzionalità Install-WindowsFeature -Name rsat Install-WindowsFeature -Name File-Services Install-WindowsFeature -Name Failover-Clustering – IncludeManagementTools Install-WindowsFeature -Name Hyper-V - IncludeManagementTools –Restart
  • 53. SSD: Creazione del cluster • Quattro passi: 1. Validazione del Cluster (OBBLIGATORIA) 2. Creazione del cluster 3. Configurazione del witness (se si hanno solo due nodi) 1. Creo la share per il witness (FS o Cloud) 4. Preparazione (pulizia) dei dischi
  • 54. SSD - Configurazione del cluster: Validazione • Validare sempre il cluster e forzare la validazione di S2D Test-Cluster –Node HyperV-00, HyperV-01–Include "Storage Spaces Direct", "Inventory", "Network", "System Configuration”
  • 55. SSD - Configurazione del cluster: Installazione • Installare il cluster via powershell - con il parametro – NoStorage (per per evitare che i volumi vengano aggiunti automaticamate al cluster) New-Cluster -Name HV-cluster00 -Node HyperV- 00,HyperV-01 –NoStorage -StaticAddress 192.168.1.205
  • 56. SSD - Configurazione del cluster: Witness • Obbligatorio solo in caso di deployment a 2 nodi • file share witness Set-ClusterQuorum -Cluster HV-cluster00 - FileShareWitness dc1.lab.localHV-cluster00 • cloud witness Set-ClusterQuorum -CloudWitness -Cluster HV- cluster00 -AccountName "pmincloudhyperstorage" - AccessKey "=="
  • 57. SSD - Configurazione del cluster: Pulizia • I dischi che useremo con S2D devono essere vuoti senza dati o partizioni • Se un disco non è visto come vuoto non può essere aggiunto a un sistema S2D • In pratica: Clear-Disk oppure Get-PhysicalDisk | Reset-PhysicalDisk
  • 58.
  • 60. SSD - Configurazione del cluster: S2D • Abilitare con il cmdlet: Enable-ClusterStorageSpacesDirect • Questo cmdlet esegue tre operazioni: • Crea un singolo pool • Configura la cache S2D (se trova supporti adatti ) e la configura (RW o RO) • Crea due tier (se trova supporti adatti; uno chiamato Capacicty e uno Performance)
  • 61. SSD - Configurazione del cluster: Creazione SP • Abilito con il comdlet: New-StoragePool -StorageSubSystemFriendlyName *Cluster* - FriendlyName S2D -ProvisioningTypeDefault Fixed -PhysicalDisk (Get-PhysicalDisk | ? CanPool -eq $true)
  • 62. SSD - Configurazione del cluster: Volumi • Creazione dei Volumi • Senza Tiering New-Volume -StoragePoolFriendlyName S2D* -FriendlyName “HV-Cluster00" -FileSystem CSVFS_ReFS -Size 1TB • Con Tiering New-Volume -FriendlyName "HV-Cluster00" -FileSystem CSVFS_ReFS -StoragePoolFriendlyName S2D* - StorageTierFriendlyNames Performance, Capacity - StorageTierSizes 300GB, 700GB
  • 63.
  • 64. Passi successivi – Live Migration • Abilito e configuro la Live Migration • Configuro la "kerberos delegation" per Live Migration • Abilito kerberos per live Migration
  • 65. SSD – Creare le VM Creare le Virtual Machines in alta disponibilità sul cluster
  • 66. Windows Admin Center O meglio Windows Admin Center e HCI
  • 67. Windows Admin Center • Strumento di gestione di prossima generazione per Windows Server. • È gratuito e può essere installato e usato senza una connessione Internet. • Può gestire e monitorare l'infrastruttura iperconvergente • Sia 2016 • Sia 2019
  • 68. Requisiti per WAC • Per Windows Server 2016, è necessario installare un aggiornamento rilasciato ad aprile 2018 per l'utilizzo di Windows Admin Center per l'infrastruttura iperconvergente • https://support.microsoft.com/en-hk/help/4000825/windows-10-windows- server-2016-update-history • È necessario installare gli aggiornamenti cumulativi più recenti, incluso KB4093120 • Eseguire il cmdlet di PowerShell seguente come amministratore nel cluster: • Add-ClusterResourceType -Name "SDDC Management" -dll "$env:SystemRootClustersddcres.dll" -DisplayName "SDDC Management"
  • 76.
  • 77. E... Quindi?? Ma alla fin fine…
  • 78. Iperconvergenza: quando usarla • È comunque un investimento • È un trend… ma è anche una scommessa • Non è adatta a tutti gli ambienti • Ambiti d’eccellenza • Virtual desktop • Remote Office, Branch Office • Hybrid Cloud
  • 79. Iperconvergenza: vantaggi e svantaggi • PRO • Deployment semplificato • “basso costo” • “Agile” • Scalabilità • Apprendimento semplificato • CONTRO • Prestazioni • “alto costo” • Scalabilità “rigida” • Vendor Lock-in (ma non se fatta Vendor Independent)
  • 80. Hardware Certificato • Per la produzione, è consigliabile andare su soluzioni hardware e software certificato dai partners di Microsoft. Sono concepiti, assemblati e quindi convalidati per garantire la compatibilità e affidabilità. https://microsoft.com/wssd
  • 81. Iperconvergenza: per testing • Non serve (per il lab) hw esoterico • Si può simulare molto #Abilitazione Nested Virtualization Set-VMProcessor -VMName SRV-01,SRV-02 - ExposeVirtualizationExtensions 1 #Forzare l’utilizzo dei dischi HDD per simulare i dischi SSD Enable-ClusterS2D -CacheState Disabled -AutoConfig:0 – SkipEligibilityChecks #Utilizzare modelli su Microsoft Azure https://azure.microsoft.com/it-it/resources/templates/?pageNumber=1&term=s2d
  • 82. L’hardware del lab - Nodo I nodi sono: 2X Server Dell T20 Ram 32 GB/nodo Dischi: 1x SSD Boot/SO 2x SSD Cache 4X HDD Storage
  • 83. L’hardware del lab – Controller Storage Controller No Raid per i dischi HDD di Storage
  • 84. L’hardware del lab - Networking Networking: 1x Management 1GB 1x Hertbeat 1GB 2x Cluster Storage 10GB SFF 2x Rete produzione 10GB RJ45
  • 86. Let the past go and step off into the future

Notes de l'éditeur

  1. Hyperfish intro We are really excited to bring you something great
  2. Founded 2015 Co-Founders Brian Cook & Chris Johnson Brian was the founder and CEO of Workflow company Nintex, Chris Johnson was a Group Product Management in Office 365 & SharePoint Joining them were
  3. Founded 2015 Co-Founders Brian Cook & Chris Johnson Brian was the founder and CEO of Workflow company Nintex, Chris Johnson was a Group Product Management in Office 365 & SharePoint Joining them were
  4. Founded 2015 Co-Founders Brian Cook & Chris Johnson Brian was the founder and CEO of Workflow company Nintex, Chris Johnson was a Group Product Management in Office 365 & SharePoint Joining them were
  5. La nuova funzionalità S2D di Windows Server 2016 permette infatti di creare sistemi di storage ad alta disponibilità utilizzando dischi locali. Se poi sugli stessi nodi fisici utilizzati per creare l’infrastruttura S2D installiamo anche Hyper-V, abbiamo la possibilità di creare un cluster hyper-convergente.
  6. Considerazioni sulla simmetria unità per spazi di archiviazione diretta: https://docs.microsoft.com/it-it/windows-server/storage/storage-spaces/drive-symmetry-considerations
  7. Twinax