Il tread dell’iperconvergenza aumenta sempre di più sia grazie al numero sempre crescente di standard (sd* e simili) sia grazie alla presenza di soluzioni ready to go.
Ma spesso le soluzioni proposte sono chiuse e difficilmente integrabili tra loro.
Windows Server (già dalla versione 2012) ha tutto quello che serve per implementare una soluzione iperconvergente out of the box.
In questa sezione andremo ad analizzare cosa ci serve e come possiamo realizzare un semplice cluster a due nodi, senza componenti di terze parti
By Andrea Garattini e Mario Serra
8. Cos’è l’iperconvergenza?
• Un’architettura Iperconvergente utilizza tecnologie diverse:
• Software Defined Storage
• Software Defined Networking
• Software Defined Compute
• Software Defined Data Center
• Offre una piattaforma di virtualizzazione
• Facilmente scalabile
• Relativamente economica
• Semplice da manutenere e gestire
• In Windows Server 2016 e migliorata con Windows Server 2019
• Basata su Storage Spaces Direct e Hyper-V
9. Cos’è l’iperconvergenza?
• I sistemi iperconvergenti:
• Hardware
• Software
• Storage
• Fuzionalità aggiuntive: deduplica, compressione e replica geografica.
• Tutto in un unico box (appliance) gestita con una singola interfaccia
che “maschera” i sistemi sottostanti.
• L’iperconvergenza è un’infrastruttura che non separa le operazioni
dell’infrastruttura dall’hardware di sistema.
14. S2D
• Raccoglie e migliora due tecnologie di Windows 2012
• Storage Spaces (SS)
• Clustered SS
• Caratteristiche
• Capacità e scalabilità
• Prestazioni
• Affidabilità
15. S2D caratteristiche
• Capacità e scalabilità
• I classici server 2U adesso possono avere anche più di 12 dischi da 3.5”.
• In caso fosse necessario aumentare oltre le capacità del singolo server si scala
aggiungendo un nuovo nodo.
• Prestazioni
• Affidabilità
16. S2D caratteristiche
• Capacità e scalabilità
• Prestazioni
• S2D può utilizzare dischi meccanici, SSD e NVMe.
• Implementa nativamente funzioni di caching e di tiering.
• Le reti attualmente disponibili (10 Gb, 40 Gb e 100Gb) non sono un collo di
bottiglia.
• Affidabilità
17. S2D caratteristiche
• Capacità e scalabilità
• Prestazioni
• Affidabilità
• S2D non si appoggia su controller RAID HW o SW.
• L’affidabilità e la ridondanza sono affidate alle funzioni del sistema operativo.
• Lo storage può essere configurato come simple spaces, mirror spaces o parity
spaces.
18. S2D - Caching
• S2D scenari di deployment:
• La gerarchia di caching
• Algoritmo di caching
19. S2D – Caching, scenari
• All Flash
• massimizza le prestazioni
• non include dischi meccanici
• All NVMe
• NVMe come cache SSD come capacità
• All SSD
• Ibrido
• bilancia capacità e prestazioni o massimizza la capacità
• include dischi meccanici
• NVMe come cache, HDD come capacità
• SSD come cache, HDD come capacità
• NVMe come cache, SSD e HDD come capacità
20. S2D – Caching, gerarchia
• La gerarchia di caching è basata sulla velocità:
• NVMe > SSD > HDD
• Quindi:
• NVMe può fare da cache per SSD e HDD
• SSD può fare da cache per HDD
• Non sono supportati meccanismi di caching tra HDD (es 15K su 7.2K)
21. S2D – Caching, algoritmo
• Determinato automaticamente
• Write Only caching per soluzioni all flash
• Read & Write caching per soluzioni ibride
• In caso si usino tutte e due le strategie:
• Si sommano le strategie precedenti
• NVMe fa RO caching verso i dischi SSD
• NVMe fa RW caching verso i dichi HDD
22. SSD- Caching, algoritmo
• Il Binding della cache ai dischi è dinamico
(da un ratio di 1:1 a 1:12 e oltre).
• Il rapporto varia automaticamente
• In caso di aggiunta di nuovi dischi capacitivi
• In caso di aggiunta di nuovi dischi di cache
• In caso di guasto di un disco di cache
• Best Practice: mantenere il numero di
dischi capacitivi come multiplo dei dischi
di cache
23. SSD – Caching, algoritmo
• Quando un disco di cache fallisce, tutti i dati
non ancora scritti (cache RW) sono persi
LOCALMENTE.
• Come nel caso di perdita di un disco
capacitivo, Storage Space recupera il guasto
accedendo alle copie valide sugli altri server.
• Per il tempo che SS impiega a ricostruire il
disco di cache, i dischi capacitivi associati
appaiono in stato unhealthy.
• Per garantire le prestazioni dell’architettura
è richiesto avere almeno due dischi di cache
24. SSD - Resiliency
• Oltre delle prestazioni Storage Spaces garantisce la fault tolerance o
l’affidabilità dei dati.
• Come nel caso del RAID la FT è ottenuta ridondando il dato.
• A differenza del RAID, si ridondano i dischi su server diversi invece che
localmente.
• Come per il RAID esistono diverse implementazioni che si caratterizzano
per livello di fault tolerance, storage efficiency, e complessità.
• In particolare si identificano due architetture: mirroring e parità
25. SSD – Resiliency: Mirroring
• Il Mirroring garantisce la FT mantenendo più copie dei dati.
• Concettualmente simile al RAID1.
• Ogni dato sottoposto a Mirroring è scritto (integralmente) diverse volte in
più copie.
• Ogni copia è scritta su hardware fisco diverso (dichi diversi in server diversi)
che per assunzione si deve poter guastare indipendentemente.
• Esistono due implementazioni: Mirroring a due vie e Mirroring a tre vie.
26. SSD – Resiliency: Parity
• La parità o Parity Encoding o Erasure Coding garantisce la FT per
mezzo della matematica bitwise o logica.
• Migliora la Storage Efficency senza compromettere la FT.
• In Windows 2016/2019 si può implementare in due modi: Simple o
Dual.
27. SSD – Resiliency: Note Importanti
• Per calcolare lo spazio effettivo:
https://s2dcalc.blob.core.windows.net/www/index.html
• Con i workload di tipo performance-sensitive, usate il mirroring.
• In caso abbiate solo tre server, usate il three-way mirroring. (la Single Parity... non
è molto incoraggiata: “But, it's there if you insist on using it, and it is fully
supported.”).
• Prima di iniziare a usate la resiliency con SSD, tre letture obbligatorie:
• https://blogs.technet.microsoft.com/filecab/2016/11/21/deep-dive-pool-in-spaces-direct/
• https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/LRC12-
cheng20webpage.pdf
• https://blogs.technet.microsoft.com/filecab/2016/09/06/volume-resiliency-and-efficiency-
in-storage-spaces-direct/
30. SSD: Requirements
• Nota dolente: SSD richiede Windows 2016/2019 DATACENTER!
• Server:
• Minimo due server, Massimo 16 server.
• Tutti i server devono essere uguali
• CPU:
• Intel Nehalem o successivi/superiori
• AMD EPYC o successivi/superiori
31. SSD: Requirements
RAM
• 4 GB of RAM per terabyte (TB) di capacità dei cache drive su ciascun
server SOLO per i metadati di S2D
• A questa va aggiunta la memoria per Windows, le VM, gli applicativi
ecc ecc.
32. SSD: Configurazione del Networking
• Networking
• Almeno 1 scheda 10 GbE per le comunicazioni intra-cluster.
• Due schede sono raccomandate
• Raccomandate schede remote-direct memory access (RDMA)
• Se possiblie usare NIC con SMB Direct e SMB Multichannel
• iWARP (Chelsio)
• Infinyband
• RCoE (RDMA over Converged Ethernet)
33. SSD: Requirements, Dischi
• SOLO dischi local-attached SATA, SAS, o NVMe.
• Ogni disco deve essere connesso esclusivamente a un singolo server.
• Tutti i server devono avere lo stesso tipo di dischi.
• I dischi SSD devono avere la power-loss protection
• NON SONO SUPPORTATI i controller RAID
• RAID 1 NON è necessario, è supportato per i dischi di boot
34. SSD: Requirements, Dischi
Numero minimo di unità SSD (esclude le unità di avvio)
• Se utilizzo delle unita SSD come cache, devono averne almeno due
per server
35. SSD: Requirements, HBA
• NON SONO SUPPORATATE le HBA RAID o le SAN (di nessun tipo: Fibre
Channel, iSCSI, FCoE).
• Se il disco di boot è in RAID 1 i dischi usati da SSD devono essere
connessi ad un differente controller, NON RAID
• NON SONO SUPPORTATE connessioni MPIO
37. SSD: passi di installazione (su tutti i nodi)
1. Installare il SO, Update drivers, firmware e Windows su tutti i nodi
a. Configurare scheda management
b. Settare schema di alimentazione (POWERCFG.EXE /S SCHEME_MIN)
2. Join al dominio (prerequisito)
3. Configurare il Networking
4. Installare i ruoli minimi:
a. Hyper-V
b. Failover Cluster
38. SSD: passi di installazione
5. Creare il Cluster
6. Configurare S2D
7. Creare i volumi
8. Preparare le VM in alta disponibilità
39. SSD: Configurazione del Networking
• Con la convergenza e l’iperconvergenza, si parla di due reti:
• Rete Nord - Sud
• Rete Est - Ovest
40. SSD: Configurazione del Networking
• Con la convergenza e l’iperconvergenza, si parla di due reti:
• Rete Nord - Sud
• Cluster e Client networks
• Usata per l’accesso di Hyper-V allo storage Storage (SOFS – Scale out File
server)
• Usata per l’accesso degli utenti alle Vm (HCI)
• Rete Est - Ovest
41. SSD: Configurazione del Networking
• Con la convergenza e l’iperconvergenza, si parla di due reti:
• Rete Nord - Sud
• Rete Est - Ovest
• Reti di Cluster
• Heartbeat
• Storage Replica
• CSVFS redirect
• Storage Spaces Direct
46. SSD: Configurazione del Networking
Creo Virtual Switch per VM (rete di Produzione)
New-VMSwitch -Name ProdNet -NetAdapterName 1-
ProdNet-01, 2-ProdNet-02 -EnableEmbeddedTeaming
$True -AllowManagementOS $False
47. SSD: Configurazione del Networking
• Disabilitare VMQ da Scheda Management SE presente
• verifico con get-NetAdapterVMQ -Name Management-00
• disabilito con Disable-NetAdapterVMQ -Name Management-00
• Abilito RSS sulla scheda per lo storage
• Core 1 e 2 per StorageNet-01
Set-NetAdapterRSS StorageNet-01 -BaseProcessorNumber 0 -
MaxProcessorNumber 1
• Core 3 e 4 per StorageNet-02
Set-NetAdapterRSS StorageNet-02 -BaseProcessorNumber 2 -
MaxProcessorNumber 3
• Controllo con Get-NetAdapterRSS StorageNet-01
51. SSD: Configurazione del Networking
Configuro IP e DNS sulle schede Storage e HB
Disabilito la registrazione nel DNS Storage e HB
Set-DNSClient -InterfaceAlias sto* -
RegisterThisConnectionsAddress $False
53. SSD: Creazione del cluster
• Quattro passi:
1. Validazione del Cluster (OBBLIGATORIA)
2. Creazione del cluster
3. Configurazione del witness (se si hanno solo due nodi)
1. Creo la share per il witness (FS o Cloud)
4. Preparazione (pulizia) dei dischi
54. SSD - Configurazione del cluster: Validazione
• Validare sempre il cluster e forzare la validazione di S2D
Test-Cluster –Node HyperV-00, HyperV-01–Include "Storage
Spaces Direct", "Inventory", "Network", "System
Configuration”
55. SSD - Configurazione del cluster: Installazione
• Installare il cluster via powershell - con il parametro –
NoStorage (per per evitare che i volumi vengano aggiunti
automaticamate al cluster)
New-Cluster -Name HV-cluster00 -Node HyperV-
00,HyperV-01 –NoStorage -StaticAddress
192.168.1.205
56. SSD - Configurazione del cluster: Witness
• Obbligatorio solo in caso di deployment a 2 nodi
• file share witness
Set-ClusterQuorum -Cluster HV-cluster00 -
FileShareWitness dc1.lab.localHV-cluster00
• cloud witness
Set-ClusterQuorum -CloudWitness -Cluster HV-
cluster00 -AccountName "pmincloudhyperstorage" -
AccessKey "=="
57. SSD - Configurazione del cluster: Pulizia
• I dischi che useremo con S2D devono essere vuoti senza dati
o partizioni
• Se un disco non è visto come vuoto non può essere aggiunto
a un sistema S2D
• In pratica:
Clear-Disk
oppure
Get-PhysicalDisk | Reset-PhysicalDisk
60. SSD - Configurazione del cluster: S2D
• Abilitare con il cmdlet:
Enable-ClusterStorageSpacesDirect
• Questo cmdlet esegue tre operazioni:
• Crea un singolo pool
• Configura la cache S2D (se trova supporti adatti ) e la configura (RW o RO)
• Crea due tier (se trova supporti adatti; uno chiamato Capacicty e uno
Performance)
61. SSD - Configurazione del cluster: Creazione SP
• Abilito con il comdlet:
New-StoragePool -StorageSubSystemFriendlyName *Cluster* -
FriendlyName S2D -ProvisioningTypeDefault Fixed -PhysicalDisk
(Get-PhysicalDisk | ? CanPool -eq $true)
64. Passi successivi – Live Migration
• Abilito e configuro la Live Migration
• Configuro la "kerberos delegation" per Live Migration
• Abilito kerberos per live Migration
65. SSD – Creare le VM
Creare le Virtual Machines in alta disponibilità sul cluster
67. Windows Admin Center
• Strumento di gestione di prossima generazione per Windows
Server.
• È gratuito e può essere installato e usato senza una
connessione Internet.
• Può gestire e monitorare l'infrastruttura iperconvergente
• Sia 2016
• Sia 2019
68. Requisiti per WAC
• Per Windows Server 2016, è necessario installare un aggiornamento
rilasciato ad aprile 2018 per l'utilizzo di Windows Admin Center per
l'infrastruttura iperconvergente
• https://support.microsoft.com/en-hk/help/4000825/windows-10-windows-
server-2016-update-history
• È necessario installare gli aggiornamenti cumulativi più recenti,
incluso KB4093120
• Eseguire il cmdlet di PowerShell seguente come amministratore nel
cluster:
• Add-ClusterResourceType -Name "SDDC Management" -dll
"$env:SystemRootClustersddcres.dll" -DisplayName
"SDDC Management"
78. Iperconvergenza: quando usarla
• È comunque un investimento
• È un trend… ma è anche una scommessa
• Non è adatta a tutti gli ambienti
• Ambiti d’eccellenza
• Virtual desktop
• Remote Office, Branch Office
• Hybrid Cloud
79. Iperconvergenza: vantaggi e svantaggi
• PRO
• Deployment semplificato
• “basso costo”
• “Agile”
• Scalabilità
• Apprendimento
semplificato
• CONTRO
• Prestazioni
• “alto costo”
• Scalabilità “rigida”
• Vendor Lock-in (ma non se
fatta Vendor Independent)
80. Hardware Certificato
• Per la produzione, è consigliabile andare su soluzioni hardware e software
certificato dai partners di Microsoft. Sono concepiti, assemblati e quindi
convalidati per garantire la compatibilità e affidabilità.
https://microsoft.com/wssd
81. Iperconvergenza: per testing
• Non serve (per il lab) hw esoterico
• Si può simulare molto
#Abilitazione Nested Virtualization
Set-VMProcessor -VMName SRV-01,SRV-02 -
ExposeVirtualizationExtensions 1
#Forzare l’utilizzo dei dischi HDD per simulare i dischi SSD
Enable-ClusterS2D -CacheState Disabled -AutoConfig:0 –
SkipEligibilityChecks
#Utilizzare modelli su Microsoft Azure
https://azure.microsoft.com/it-it/resources/templates/?pageNumber=1&term=s2d
82. L’hardware del lab - Nodo
I nodi sono:
2X Server Dell T20
Ram 32 GB/nodo
Dischi:
1x SSD Boot/SO
2x SSD Cache
4X HDD Storage
83. L’hardware del lab – Controller Storage
Controller No Raid per i
dischi HDD di Storage
Hyperfish intro
We are really excited to bring you something great
Founded 2015
Co-Founders Brian Cook & Chris Johnson
Brian was the founder and CEO of Workflow company Nintex,
Chris Johnson was a Group Product Management in Office 365 & SharePoint
Joining them were
Founded 2015
Co-Founders Brian Cook & Chris Johnson
Brian was the founder and CEO of Workflow company Nintex,
Chris Johnson was a Group Product Management in Office 365 & SharePoint
Joining them were
Founded 2015
Co-Founders Brian Cook & Chris Johnson
Brian was the founder and CEO of Workflow company Nintex,
Chris Johnson was a Group Product Management in Office 365 & SharePoint
Joining them were
La nuova funzionalità S2D di Windows Server 2016 permette infatti di creare sistemi di storage ad alta disponibilità utilizzando dischi locali. Se poi sugli stessi nodi fisici utilizzati per creare l’infrastruttura S2D installiamo anche Hyper-V, abbiamo la possibilità di creare un cluster hyper-convergente.
Considerazioni sulla simmetria unità per spazi di archiviazione diretta: https://docs.microsoft.com/it-it/windows-server/storage/storage-spaces/drive-symmetry-considerations