SlideShare une entreprise Scribd logo
1  sur  23
Télécharger pour lire hors ligne
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows Azure
Dominik Wojciechowski, eOpen; Adrian Przygoda, eOpen.
Waldemar Skrzypiec, w firmie Microsoft jest odpowiedzialny
za wsparcie techniczne Windows Azure.
Tematem drugiego eSeminarium firmy Microsoft z cyklu
„Chmura publiczna w scenariuszach biznesowych” jest
Backup i Disaster Recovery w chmurze Windows Azure.
Rozpoczniemy od przedstawienia wyzwań związanych
z backupem danych w chmurze. Następnie opowiemy jak
działa Windows Azure Storage.
Pojęcie kopii zapasowych nie jest związane wyłącznie z systemami
informatycznymi. Każdy z nas ma jakieś dane. Każdy stara się
w pewien sposób te dane zabezpieczać. Backup danych jest więc
zagadnieniem, które dotyczy każdego kto korzysta z komputerów
i systemów IT.
Prelegenci
Cykl
eSeminariów
Agenda
spotkania
Wyzwania
backupu
1.
Prowadzący: Waldemar Skrzypiec, Microsoft
Dominik Wojciechowski oraz Adrian Przygoda z firmy eOpen zajmują się wdrożaniami systemów
informatycznych, w tym rozwiązań backupu w chmurze oraz świadczeniem wsparcia technicznego
dla klientów zewnętrznych.
Wśród najważniejszych wyzwań związanych z tradycyjnym backupem warto wymienić przyrost
danych oraz związany z tym wzrost złożoności systemów informatycznych i rozwiązań backupu.
Z badań firmy analitycznej Forrester Research wynika, że liczba danych, które powinny zostać
uwzględnione w kopii zapasowej wzrasta nawet o 50-60% w skali roku. Administratorzy IT muszą
obsługiwać coraz większą liczbę urządzeń i powiązanych ze sobą systemów.
W kolejnej części niniejszego tekstu omówimy usługi backupu w chmurze. Sprawdzimy również,
czy jest to bezpieczne rozwiązanie i w jaki sposób współpracuje ono z oprogramowaniem System
Center Configuration Manager (SCCM). Na koniec zaprezentujemy urządzenie StorSimple, które
umożliwia integrację lokalnego magazynu pamięci masowej, przechowującego kopie zapasowe
i archiwa danych, z usługami chmury publicznej.
Z obserwacji rynku wynika, że wraz ze wzrostem liczby informacji,
można podjąć dwie decyzje dotyczące strategii utrzymania i rozwoju
systemów do tworzenia kopii zapasowych i archiwizacji danych
w przedsiębiorstwie.
Dwie strategie
rozwoju
systemów
backupu
2.
Wariant pierwszy zakłada zakup nowego lub dodatkowego sprzętu i oprogramowania do backu-
pu, które umożliwia przechowywanie coraz większej liczby danych. Wzrost złożoności systemów
backupu oraz liczby danych, które należy zabezpieczać i archiwizować, wiąże się z koniecznością
zatrudnienia dodatkowego personelu IT. To bezpośrednio przekłada się na lawinowo rosnące koszty
utrzymania rozwiązań ochrony danych w firmie.
Drugie podejście zakłada ograniczenie ilości danych, które poddajemy procesowi backupu.
Za każdym razem wymaga ono podjęcia decyzji, które dane są mniej, a które bardziej ważne.
Tutaj nasuwa się zasadnicze pytanie skąd będziemy wiedzieć, które dane, z perspektywy przedsię-
biorstwa i prowadzonego biznesu, są nieistotne i z całą pewnością nie będą potrzebne w przyszłości?
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Badania Forrester Research pokazują,
że przyrost ilości danych w firmach sięga
50%-60% w stosunku rok do roku.
Wzrost liczby danych do backupu przekłada się na wyższe koszty oraz dłuższy czas tworzenia kopii
zapasowych i archiwizacji danych. To z kolei może spowodować, że nie wszystkie dane zostaną
objęte właściwą ochroną.
Spróbujmy przyjrzeć się rozwiązaniom backupu w chmurze, które
stanowią odpowiedź na niektóre wyzwania, jakie stawia przed nami
tradycyjny backup. Jak już zostało wspomniane, wzrost liczby danych
w przedsiębiorstwie wynosi od 50 do 60% rok do roku. Okazuje się
jednak, że liczba danych, na których pracujemy każdego dnia, już tak
szybko nie przyrasta. Nie ma nic odkrywczego w tym, że ludzie pra-
cują na plikach, których w danej chwili potrzebują. Pliki te są później
odkładane, a do większości z nich nigdy więcej nie wracamy.
Z danych Forrester Research wynika, że backup danych w chmurze
jest czterokrotnie tańszy niż backup lokalny (on premise) na ma-
cierzy SAN. Warto zwrócić uwagę, że backup w chmurze daje nam
również większą elastyczność stosowania.
Backup
w chmurze
Backup
lokalny vs.
chmura
3.
Czas życia informacji, które są nam niezbędne w danej chwili, wynosi zaledwie kilka, kilkana-
ście dni. Widać to wyraźnie na przykładzie poczty elektronicznej. E-mail jest dla nas ważny przez
pierwszy tydzień. Później wiadomość ta staje się w pewnym sensie archiwalna, choć istnieje duże
prawdopodobieństwo, że będziemy chcieli do niej wrócić w przyszłości. Jednak im dłuższy czas od
otrzymania e-maila, tym coraz rzadziej odwołujemy się do zawartych w nim informacji.
Podobna sytuacja ma miejsce z plikami. Materiały zgromadzone w trakcie trwania projektu są rzadko
wykorzystywane po jego zakończeniu. Wracamy do nich, jeśli chcemy pobrać szablon dokumentu,
wyciągnąć listę klientów itd. Z całą pewnością pliki te można jednak uznać za archiwalne, bowiem nie
używamy ich w codziennej pracy. Zawarte w nich informacje są wykorzystywane sporadycznie.
W przypadku backupu lokalnego konieczne jest takie zaplanowanie infrastruktury backupu, które
uwzględni przyrost danych w przyszłości. Korzystając z przestrzeni w chmurze, płacimy wyłącznie
za miejsce na dyskach, które zajmujemy w danej chwili. Koszty rozwoju rozwiązań backupu pono-
szone są wraz ze wzrostem liczby danych, a nie na etapie wdrażania systemów zabezpieczeń
w organizacji.
Spróbujmy jeszcze raz nakreślić korzyści, jakie niosą ze sobą usługi backupu w chmurze, a następ-
nie podeprzyjmy te tezy konkretnymi pomysłami i rozwiązaniami.
Najważniejsze korzyści z backupu w chmurze to zmniejszenie kosztów ochrony danych nawet
o 60%, efektywne wykorzystanie zasobów, możliwość włączenia chmury do planu disaster recovery
oraz rozszerzenie znanych usług kopii zapasowych o chmurę.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Bardzo często, analizując koszty backupu, pomijamy wiele elemen-
tów. Bierzemy pod uwagę koszty inwestycji w przestrzeń dyskową,
zapominając o kosztach zakupu przełączników, okablowania oraz
utrzymania systemu w przyszłości. Do tej ostatniej grupy kosztów
zaliczyć można m.in. wynagrodzenia pracowników działu IT.
Kolejna rzecz – szyfrowanie i bezpieczeństwo danych. Wiele osób
wykazuje zainteresowanie backupem w chmurze. Za każdym razem
pojawia się jednak pytanie – jakie mamy gwarancje, że ktoś inny
nam tych danych nie odczyta? Jest to ważna kwestia, która bezpo-
średnio dotyka bezpieczeństwa informacji.
Backup zapisywany w chmurze jest automatycznie backupem
wyniesionym na zewnątrz. W tym kontekście chmura zapewnia
nam kolejny element ochrony danych, który zakłada koniecz-
ność przechowywania kopii zapasowych poza serwerownią
przedsiębiorstwa. Backup w chmurze może być wykorzystany
w trakcie przywracania danych po katastrofie (disaster recovery).
Koszty
tradycyjnego
backupu
Bezpieczne,
bo zaszyfrowane
Plan
disaster
recovery
4.
Pamiętajmy, że w procesie zarządzania kopiami zapasowymi wymagane jest regularne prowadze-
nie prób odzyskiwania danych. Musimy mieć pewność, że to co zapisujemy na nośnikach w kopii,
będziemy mogli odzyskać w przyszłości. To wymaga pracy ludzi, która kosztuje.
Przechowywanie danych backupu w miejscu, w którym te dane powstają i w którym je używamy,
z założenia jest słabym zabezpieczeniem. Każde zdarzenie losowe np. pożar, przepięcie energe-
tyczne, może prowadzić do utraty zarówno informacji, które poddajemy backupowi, jak i naszych
kopii zapasowych. W tym kontekście przechowywanie backupu w zewnętrznej lokalizacji (off-site)
stanowi element planu disaster recovery w przedsiębiorstwie.
W dzisiejszych czasach najczęściej stosowanym rozwiązaniem backupu jest tworzenie kopii zapaso-
wych danych jednocześnie na macierzy dyskowej oraz na taśmach magnetycznych. Backup na dysk
wykorzystywany jest do szybkiego odzyskiwania danych, podczas gdy kopie zapisywane na taśmach
są przechowywane w zewnętrznej lokalizacji np. w skrytce bankowej. Podejście to generuje dodat-
kowe koszty związane z wynajęciem skrytki, koniecznością przenoszenia taśm do banku itd.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
W chmurze płacimy tylko za rzeczywiście wykorzystywane zasoby.
Zaletą chmury jest to, że nie musimy deklarować zapotrzebowania
na miejsce na backup w przyszłości, a co za tym idzie, płacić za
przestrzeń, której w danej chwili nie potrzebujemy.
Efektywne
wykorzystanie
zasobów
5.
Tworząc infrastrukturę backupu na poziomie sprzętowym, bez wykorzystania chmury, można wpaść
w pułapkę związaną z niewłaściwym zaplanowaniem przestrzeni dyskowej.
Planowanie systemu backupu wymaga przyjęcia szeregu założeń. Przykładowo, w ciągu najbliż-
szych 2-3 lat będziemy przechowywać 10-12 TB danych. Wzrost ilości danych w kopii wyniesie ok.
50-60% rocznie. Na początek kupujemy więc połowę dysków, bo tyle potrzebujemy w danej chwili.
Przyjmujemy jednak, że kolejne nośniki pamięci będziemy dodawać wraz ze wzrostem rozmiaru
tworzonych kopii zapasowych.
Bezpieczeсstwo
w Windows Azure
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Pracownicy firmy Microsoft, do której należy Windows Azure, nie mają dostępu do danych swoich
klientów. Klient w swojej lokalnej infrastrukturze przechowuje klucz prywatny, którym szyfrowane
są dane backupu składowane w chmurze. Dane te poddawane są szyfrowaniu przed ich przesła-
niem do chmury.
Dodatkowo, transmisja danych do chmury odbywa się przez szyfrowany protokół SSL. Zwróćmy
uwagę, że Microsoft, ani żadna osoba postronna, nie ma dostępu do klucza prywatnego użytkowni-
ka. Tak więc nikt, kto nie posiada klucza szyfrującego, nie ma dostępu do informacji zawartych
w kopii zapasowej przechowywanej w chmurze.
6.
Znane narzędzia Microsoft np. Windows Backup oraz znane inter-
fejsy programów tej firmy zostały rozszerzone o funkcje tworzenia
kopii zapasowych do chmury. Wdrożenie mechanizmów backupu
w chmurze nie wymaga więc instalowania nowego, nieznanego
administratorom IT oprogramowania.
Rozszerzenie
znanych usług
kopii zapasowych
o chmurę
Osoby, które już korzystają z Windows Backup lub innych narzędzi do tworzenia kopii zapasowych
danych klasy korporacyjnej, nie potrzebują uczyć się nowych rzeczy. Dla nich chmura stanowi
dodatkową przestrzeń dyskową (storage), na której w sposób bezpieczny mogą oni przechowywać
dane. Z perspektywy administratora ważne jest, że kopie te składowane są w zdalnej lokalizacji
(off-site) i dodatkowo zabezpieczone kilkoma replikami w centrum danych Microsoft.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Problem w tym, że przyjęte założenia odnośnie wzrostu ilości danych niekoniecznie muszą okazać
się prawdą. W przypadku gwałtownego rozwoju firmy albo przejęcia innego podmiotu (i tym samym
konieczności obsługi jego infrastruktury informatycznej) może okazać się, że zaplanowany system
kopii zapasowych nie spełnia wymagań postawionych na początku. W tym przypadku, dalszy rozwój
rozwiązań backupu w przedsiębiorstwie wymagać będzie poniesienia istotnych nakładów inwesty-
cyjnych związanych z zakupem nowych macierzy, dysków czy serwerów.
Chmura pozwala w elastyczny sposób reagować na zmieniające się otoczenie. Mamy tutaj tyle miej-
sca na backup, ile w danej chwili potrzebujemy. W przypadku lawinowego wzrostu ilości danych
w kopii zapasowej, nie ponosimy żadnych wydatków związanych np. z zakupem nowych dysków.
Pokuśmy się o zastanowienie, co stoi za rozwiązaniami usług prze-
chowywania danych (storage) w chmurze. Sprawdźmy, czym jest
Windows Azure Storage i ile osób już zaufało chmurze Microsoftu?
Windows
Azure Storage
Na chwilę obecną w Windows Azure Storage składowanych jest ponad 10 bilionów obiektów. Przez
obiekt rozumiemy tutaj pojedynczy plik, blok danych, wiadomość, tabelę. Aby uzmysłowić sobie tę
ilość danych dodajmy, że każdy człowiek na świecie miałby w tej chwili 1400 obiektów przechowy-
wanych w Windows Azure.
W 2013 roku Nasuni, dostawca rozwiązań pamięci masowych dla chmury, określiła Windows Azure
Storage jako usługę wiodącą na rynku. Tym samym firmie Microsoft udało się wyprzedzić Amazona
z jego usługą S3.
Windows Azure Storage działa jak każdy inny twardy dysk. W szczególności, jeśli połączymy to roz-
wiązanie z urządzeniem StorSimple, które szerzej omówimy w dalszej części niniejszego tekstu.
7.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Zaletą tego dysku jest fakt, że wszystkie dane zapisane w chmurze
trzymane są w wielu kopiach. Stanowi to odzwierciedlenie założeń
każdego backupu. Dane backupu muszą być przechowywane
w kilku kopiach, aby awaria któregoś z nośników nie prowadziła do
ich utraty. Planując backup powinniśmy więc starać się zaplanować
co najmniej dwie oddzielne ścieżki zapisu kopii zapasowych.
Podstawowym rozwiązaniem tworzenia kopii zapasowych i przywra-
cania danych dla serwerów Windows jest Windows Azure Backup.
Narzędzie to jest chętnie wykorzystywane przez małe i średnie
firmy. Wynika to z jednej, prostej przyczyny.
Sześć kopii
w dwóch
lokalizacjach
Windows
Azure Backup
Korzystając z backupu w chmurze mamy to zagwarantowane przez dostawcę. W przypadku Win-
dows Azure od razu są to trzy repliki danych poddawanych backupowi. Opcjonalny mechanizm geo-
replikacji wymusza skopiowanie każdej z tych trzech replik do innego centrum danych Microsoft.
W rezultacie mamy aż sześć kopii danych przechowywanych w chmurze.
Centra danych Microsoftu rozsiane są po całym świecie, jednak wybranych polskich klientów
obowiązuje prawo, które zabrania im przekazywania danych poza obszar Europejskiego Obszaru
Gospodarczego (EOG). Z perspektywy tych klientów ważne jest, że dane w chmurze Windows Azure
Storage replikowane są w obrębie tego regionu.
W Europie Microsoft ma dwa centra danych – jedno znajduje się w Amsterdamie, drugie w Dublinie.
Klient może mieć więc pewność, że jego dane przechowywane będą tylko w tych centrach, które
zlokalizowane są na terenie EOG.
W trakcie webinarium przedstawimy trzy różne scenariusze backupu w chmurze z wykorzystaniem
narzędzi Windows Azure Backup, System Center Data Protection Manager oraz sprzętowego roz-
wiązania StorSimple, które umożliwia stworzenie hybrydowego magazynu danych.
Aplikacja ta jest wbudowana w system operacyjny Windows Server i nie wymaga ponoszenia do-
datkowych nakładów finansowych na zakup oprogramowania do backupu. Jednocześnie Windows
Azure Backup jest bardzo funkcjonalnym narzędziem, które umożliwia tworzenie kopii całego dys-
ku, stanu systemu, wolumenów lub wskazanych folderów. Oprogramowanie to może być również
elementem planu odzyskiwania danych (disaster recovery) w przedsiębiorstwie.
Windows Azure Backup pozwala na bezpośredni zapis danych do chmury. Wymagana jest jedynie
instalacja niewielkiego agenta, który odpowiada za przesyłanie danych do zewnętrznej lokalizacji.
Agent usługi zapewnia również wysoką wydajność backupu. Do chmury transmitowane są tylko
zmienione oraz nowe bloki danych. Kopie zapasowe są szyfrowane po stronie serwera, zanim jesz-
cze zostaną przesłane do Windows Azure Storage.
8.
Kluczowym elementem planu odzyskiwania po katastrofie w przed-
siębiorstwie (disaster recovery) jest przechowywanie kopii zapaso-
wych danych w zewnętrznej lokalizacji (off-site). Wyobraźmy sobie
użytkownika, który w swojej serwerowni ma dwa, trzy serwery,
które obsługują wszystkie systemy IT w firmie. Wiele przedsię-
biorstw w Polsce działa właśnie w ten sposób, uruchamiając lokal-
nie na niewielkiej liczbie maszyn kontroler domeny, zwirtualizowany
serwer plików i aplikacje biznesowe.
Disaster
recovery
Wdrożenie systemu backupu klasy korporacyjnej wymaga poniesienia znacznych nakładów na
zakup serwera backupu, macierzy dyskowych do przechowywania kopii zapasowych, biblioteki
taśmowej itd. Jeśli zaczniemy liczyć te koszty, to sprawdza się reguła zgodnie z którą wiemy, że
backup jest jedną z najważniejszych rzeczy w prawidłowym funkcjonowaniu systemów operacyjnych
i dlatego rzadko kiedy działa prawidłowo. O tym, jak ważny jest regularny backup przekonujemy się
z reguły dopiero wtedy, gdy potrzebujemy odzyskać dane z kopii.
Dane kopii zapasowych są szyfrowane po stronie serwera oraz
w trakcie przesyłania ich do chmury. Dane te pozostają cały czas
zaszyfrowane w przestrzeni dyskowej chmury. Klucz szyfrujący
należy do właściciela danych i jest przechowywany lokalnie. Ważne
jest, aby wykonać kopię zapasową tego klucza. W przypadku jego
utraty np. na wskutek katastrofy w lokalnej serwerowni, dostęp do
kopii zapasowej w chmurze, a co za tym idzie odzyskanie zapisanych
w niej danych, będzie po prostu niemożliwe.
Narzędzie Windows Azure Backup przeznaczone jest dla małych firm
i pododdziałów, które nie mają dedykowanych systemów tworzenia kopii
zapasowych oraz nie chcą ponosić wysokich nakładów inwestycyjnych
w obszarze zabezpieczeń danych.
Podsumowanie
części I
Dla kogo
Windows Azure
Backup?
Windows Azure Backup jest prostym, wydajnym i niezawodnym narzędziem, zintegrowanym z sys-
temem operacyjnym Windows Server. To idealne rozwiązanie dla mniejszych firm, które nie muszą
kupować sprzętu i oprogramowania do backupu, a jednocześnie oferuje im możliwość backupu
danych na zewnątrz (off-site).
Usługa ta z powodzeniem stosowana jest również w przedsiębiorstwach, w których wdrożono
narzędzia z rodziny Microsoft System Center. Windows Azure Backup rozszerza funkcje System
Center o mechanizmy backupu do chmury. Z perspektywy łatwości zarządzania, trudno bowiem
wyobrazić sobie żeby firma, która posiada 50-100 serwerów, na każdym z nich używała narzędzia
Windows Azure Backup.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
9.
Sprawdźmy zatem, jak krok po kroku wygląda proces podłączania
się do backupu w chmurze. W pierwszym etapie, na lokalnym ser-
werze, instalujemy agenta Windows Azure Backup.
Kolejny krok wymaga założenia konta na Windows Azure oraz skon-
figurowania usługi backupu po stronie chmury. W tym celu rejestru-
jemy serwer w usłudze, a następnie decydujemy, jakie dane będą
poddawane procesowi backupu.
Backup
w chmurze
w praktyce
Następną rzeczą, którą robimy jest wykonanie kopii zapasowej w chmurze. Przypomnijmy po raz
kolejny – kopie te są szyfrowane lokalnie, przesyłane bezpiecznym tunelem i składowane w formie
zaszyfrowanej po stronie Windows Azure.
Osoby, które mają do czynienia z narzędziem Windows Backup otrzymują po prostu dodatkowe
miejsce (storage) na backup swoich danych w chmurze. Warto wiedzieć, że Windows Backup nie
jest nowym oprogramowaniem, którego obsługi musimy się nauczyć.
Podobnie sprawa wygląda w przypadku System Center. Zakłada-
my subskrypcję w Windows Azure, a następnie instalujemy agenta
usługi na serwerze System Center Data Protection Manager (DPM).
Zwróćmy uwagę, że agent ten nie jest instalowany na każdym
z serwerów, który poddawany jest backupowi. Dalsze kroki są takie
same, jak w poprzednim scenariuszu. Rejestrujemy i konfigurujemy
serwer System Center DPM w chmurze Microsoftu, tworzymy kopię
bezpieczeństwa i w razie potrzeby odzyskujemy dane z backupu.
System
Center Data
Protection
Manager
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
System Center
– Data Protection Manager
10.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Data Protection Manager jest częścią rodziny narzędzi Microsoft
System Center do zarządzania środowiskiem IT w przedsiębior-
stwie. Moduł ten jest przeznaczony do tworzenia kopii zapasowych
systemów klasy korporacyjnej (enterprise). Z uwagi na koszty zaku-
pu i wdrożenia System Center DPM nie jest stosowany do ochrony
danych w mniejszych firmach.
Od wersji 2012 oprogramowanie SQL Server ma wbudowane funk-
cje bezpośredniego backupu do chmury. W SQL Server 2014 dodano
konfigurator, który pozwala uruchomić maszynę wirtualną w Win-
dows Azure z repliką naszej bazy danych. W sytuacji awarii lokal-
nego serwera maszyna ta będzie w stanie podnieść i przejąć prace
transakcyjne bazy danych SQL Server.
Mowa tu o drugim narzędziu z rodziny System Center, a mianowi-
cie Virtual Machine Manager (VMM). W momencie awarii systemu
lokalnego (on premise), Virtual Machine Manager podnosi maszynę
wirtualną w Windows Azure, zapewniając ciągłość działania usług
i systemów biznesowych.
System
Center
DPM
Backup SQL
Server
do chmury
Virtual
Machine
Manager
Data Protection Manager zapewnia kopie danych z serwerów Exchange, SQL Server oraz SharePo-
int, plików Active Directory i innych systemów Microsoftu. Backup danych z wykorzystaniem rozwią-
zań System Center może być prowadzony na wielu poziomach granulacji.
W przypadku zwirtualizowanego środowiska Microsoft Exchange mamy możliwość wykonania
backupu na poziomie maszyny wirtualnej (migawka pliku VHD). Druga metoda polega na instalacji
agenta usługi System Center DPM nie na hoście wirtualizacji, ale bezpośrednio w systemie ope-
racyjnym serwera Exchange. Wówczas mamy możliwość odzyskiwania na poziomie bazy danych
Exchange, jak i pojedynczych skrzynek.
To samo dotyczy pozostałych serwerów i aplikacji Microsoft. W odniesieniu do SharePoint’a mo-
żemy wyciągać informacje z backupu nawet do poziomu dokumentu. W przypadku serwera plików
Windows Server tutaj również mamy możliwość przywracania pojedynczych plików.
11.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Do dyspozycji mamy również usługę Menadżer odzyskiwania. Usłu-
ga ta działa po stronie Windows Azure, a jej zadaniem jest ciągłe
monitorowanie stanu (zdrowia) systemów w lokalnym centrum
danych i w chmurze. Między tymi centrami następuje replikacja
danych z wykorzystaniem technologii Hyper-V Replica.
System Center DPM umożliwia wykorzystanie pamięci masowej
w Windows Azure do przechowywania kopii zapasowych lokalnych
serwerów w chmurze. Kopia zapisana w chmurze staje się auto-
matycznie kopią przechowywaną w zewnętrznej lokalizacji (off-
site), zabezpieczoną przynajmniej trzema replikami, a w przypadku
georeplikacji, nawet sześcioma. System Center DPM jest rozwiąza-
niem klasy korporacyjnej, które zapewnia mechanizmy zarządzania
kopiami zapasowymi dla całej organizacji. W odróżnieniu od Win-
dows Azure Backup, którego agenci instalowani są na każdym
z serwerów z osobna, System Center DPM zarządza backupami,
a agent usługi wysyła dane dalej do chmury.
Wspomnieliśmy wcześniej, jakie dane można backupować
za pomocą narzędzi System Center. Aby uzupełnić tę
wypowiedź dodajmy – gdzie?
Menadżer
odzyskiwania
Podsumowanie
części II
Miejsca
przechowywania
W przypadku awarii serwera w jednym centrum danych, Menadżer odzyskiwania wyłapuje ten stan
i uruchamia działające na nim maszyny wirtualne w chmurze Azure. Sytuacja ta ilustruje doskonały
przykład wykorzystania chmury do zapewnienia bezpieczeństwa i ciągłości działania systemów IT
przedsiębiorstwa.
W przypadku budowania systemów wysokiej dostępności bardzo często pomijamy punkt monito-
rowania. Zdarzyć się może, że usługa monitorowania znajdzie się w tym samym centrum danych,
które w danej chwili przestanie działać. Efektem tego jest utrata wydajności i niezawodności prze-
noszenia systemów między lokalizacjami. Aby uniknąć tej sytuacji warto przenieść punkt monitoro-
wania do chmury.
System Center pozwala na przechowywanie kopii zapasowych na dyskowej pamięci masowej (disk-
disk). Model ten może zostać rozszerzony o replikację danych backupu na taśmy magnetyczne (di-
sk-disk-tape) z wyniesieniem nośnika poza centrum danych. W kontekście tej publikacji zapis kopii
na taśmach zostanie zastąpiony przeniesieniem ich do chmury Windows Azure.
Konsola System Center Data Protection Manager jest zunifikowana.
Wygląd aplikacji jest taki sam, jak pozostałych produktów Microsoftu.
Menu mamy po lewej stronie na dole. Środkową część okna zajmuje
obszar danych, a główny pasek menu zorganizowano w formie wstążki.
Menu dotyczące agentów umożliwia instalację klienta Data Protection
Manager (DPM) na serwerach, które chcemy objąć ochroną. Klient ten
obsługuje komunikację serwerów, na których wykonywana jest kopia
zapasowa za serwerem DPM.
Data Protection
Manager
w praktyce
Instalacja
agentów
Menu konsoli System Center Data Protection Manager podzielono na pięć części: Monitoring, Pro-
tection, Recovery, Reporting oraz Management. W sekcji Management wskazujemy serwery, które
chcemy objąć procesem backupu oraz określamy miejsce składowania kopii zapasowych. Zakładka
Monitoring pokazuje stan działania systemu zarządzania backupem (tutaj mamy informacje, co się
powiodło, a co nie), natomiast zakładka Reporting dostarcza szczegółowe i sumaryczne informacje na
temat wykorzystania zasobów dyskowych, wykonanych zadań backupu itd. Raporty te mogą zawierać
dane zebrane w dłuższym okresie czasu m.in. dotyczące poziomu wykorzystania taśm czy też przyro-
stu danych w zadanym okresie, dzięki czemu mamy podstawy do zaplanowania działań związanych
z rozszerzaniem i rozbudową systemu backupu. Raporty te mogą być wysyłane na e-mail.
Agent DPM jest tylko jeden. Nie ma potrzeby dołączania dodatkowych wtyczek np. do serwerów
Exchange lub SQL Server. Agent usługi wykrywa, jakie podsystemy zainstalowano na serwerze i auto-
matycznie zapewnia nam dostęp do danych, które wymagają ochrony. Instalacja agenta jest prosta
i odbywa się zdalnie. Wszystko co powinniśmy zrobić to wskazać serwery, które chcemy objąć ochroną.
12.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
System Center DPM umożliwia zarządzanie nieograniczoną liczbą kopii zapasowych na serwerach.
Pojedynczy serwer DPM jest w stanie obsłużyć do 120 węzłów. Istnieje możliwość skalowania całe-
go systemu przez wdrożenie kolejnego serwera usługi DPM w organizacji. System Center DPM ma
wbudowaną natywną obsługę Windows Azure w zakresie backupu danych do chmury oraz prowa-
dzenia zadań związanych z odtwarzaniem danych po awarii.
Wiele osób tworzy kopie zapasowe, ale zapomina o konieczności prowadzenia regularnych testów
odtwarzania danych z backupu. Ma to szczególne znaczenie w przypadku zapisu kopii na taśmach
magnetycznych.
Rozwiązania backupu na taśmy istnieją na rynku od dłuższego czasu. Technologia zapisu na ta-
śmach jest stale ulepszana, jednak mimo wszystko mamy tutaj do czynienia z taśmami, które łatwo
zgiąć, przeciąć, urwać, rozmagnetyzować. Nośniki taśmowe są podatne na wysoką temperaturę
i inne czynniki, które de facto powodują, że wykonując kopię na taśmę nie mamy pewności, że te
dane zostały rzeczywiście na niej zapisane. Dopiero próba odtworzenia jakiejkolwiek skopiowanej
informacji daje nam pewną informację, że kopia zapasowa rzeczywiście tam istnieje. Zawsze istnie-
je jednak możliwość utraty danych zapisanych na taśmach w przyszłości. Z tego względu konieczne
jest wykonywanie kopii danych backupu na dwóch lub większej liczbie taśm.
Data Protection Manager może działać w obrębie wielu domen,
zarówno tych które łączy relacja zaufania, jak i domen nie powiąza-
nych ze sobą. Aplikacja pozwala również na zabezpieczenie stacji
pracujących w grupie roboczej.
Definicja grupy zabezpieczeń (Protection Groups) zawiera informa-
cje o tym, jakie dane zostaną uwzględnione w kopii zapasowej.
Z listy serwerów, na których zainstalowano agenta DPM, wybiera-
my zakres danych do backupu np. obraz dysku maszyny wirtualnej,
wskazany wolumen czy folder na dysku. Istnieje możliwość two-
rzenia wykluczeń plików, które nie zostaną skopiowane do kopii
zapasowej. DPM integruje się z konsolą PowerShell, która pozwala
tworzyć złożone konfiguracje zadań backupu.
Schemat backupu można rozszerzyć integrując Data Protection
Manager z urządzeniem StorSimple. Urządzenie to ma wbudowane
algorytmy, które oceniają dane pod kątem wieku oraz częstości ich
używania. Na tej podstawie StorSimple decyduje, które pliki
i obiekty powinny być przechowywane lokalnie, a które tylko
w chmurze Windows Azure. Sam w sobie, Data Protection Manager
nie ma wbudowanej logiki, która pozwalałaby mu decydować, które
pliki są częściej, a które rzadziej używane.
Miejsca
przechowywania
Definicje
grup
zabezpieczeń
Integracje
DPM
Zadaniem administratora jest zapewnienie miejsca na kopie zapasowe wszystkich chronionych
serwerów i stacji roboczych. Miejscem tym mogą być dyski, podpięte fizycznie do DPM jako pamięć
masowa serwera backupu, biblioteki taśmowe oraz Windows Azure Backup. W tym miejscu warto
zauważyć zmianę sposobu, w jaki wyświetlana jest informacja o dostępnej przestrzeni dyskowej.
Jeśli spojrzymy na dyski, DPM pokazuje nam, ile wolnego miejsca mamy do dyspozycji. W przypadku
backupu w Windows Azure, w tym miejscu pojawia się informacja o ilości wykorzystanego miejsca.
Wynika to z faktu, ze chmura Azure dostarcza nam tyle przestrzeni na backup, ile potrzebujemy.
Idźmy dalej. Mamy przygotowanych agentów. Mamy wybrane miejsce, w którym zapiszemy backup
danych. Teraz należy wybrać, co chcemy uwzględnić w kopii zapasowej oraz w jakim trybie będzie
ona przeprowadzana. Służy do tego zakładka Protection.
Administrator ma pełną w swobodę w zakresie wyboru miejsca, na którym zapisywane będą kopie
zapasowe danych. Do wyboru mamy tutaj dyski (lokalne i w pamięci masowej), taśmy magnetyczne
i chmurę Azure z opcja przechowywania backupu w wielu magazynach jednocześnie.
Wyobraźmy sobie sytuację, w której pracownik przypadkowo skasował ważny plik. Backup na lokal-
nych dyskach umożliwia szybkie przywrócenie tego obiektu. Kopia w chmurze Azure przechowywa-
na jest tutaj na wypadek awarii lokalnego środowiska.
13.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Wróćmy do naszego scenariusza. Kolejny etap polega na zdefinio-
waniu retencji backupu. Wprowadzamy harmonogram tworzenia
kopii zapasowych, ustalamy za jaki okres wstecz chcemy mieć moż-
liwość przywracania danych oraz wskazujemy czas synchronizacji
danych w kopii.
Dzięki temu mechanizmowi Data Protection Manager jest jednym
z nielicznych narzędzi, które pozwala tworzyć pełną migawkę bazy
SQL Server w krótkich przedziałach czasu np. co 15 minut.
W kolejnym kroku etapie decydujemy, czy Data Protection Ma-
nager ma przeprowadzić weryfikację spójności utworzonej kopii
zapasowej oraz definiujemy ustawienia dotyczące Windows Azure.
W definicji grupy zabezpieczeń określimy warunki zapisu danych
do chmury. Istnieje możliwość zapisu na dyskach backupu całego
systemu, z opcją przekazywania do zewnętrznej lokalizacji jedynie
wybranych elementów z danej kopii zapasowej.
Ustawienia
backupu
Migawki
SQL Server
Warunki
zapisu
do chmury
W procesie backupu Data Protection Manager tworzy jedną pełną kopię zapasową, a następnie,
w regularnych odstępach czasu (np. co 15 minut) szereg kopii przyrostowych. Na podstawie wy-
konanych wcześniej kopii przyrostowych Data Protection Manager generuje nowy pełny backup
danych. Operacja ta wykonywana jest w ustalonym przedziale czasowym, określonym właśnie opcją
czas synchronizacji danych.
Wyobraźmy sobie awarię systemu produkcyjnego, który przechowuje dane w bazie SQL. Może to być
np. system ERP. Załóżmy, że backup bazy wykonywany jest raz dziennie, a w ciągu dnia 5 tysięcy osób
wprowadzało w niej dane. W przypadku awarii konieczne będzie ponowne uzupełnienie tych danych,
co przekłada się na znaczące koszty i stratę czasu. Data Protection Manager daje możliwość odzyska-
nia tych danych do stanu nawet na kilkanaście minut przed awarią.
Wyobraźmy sobie sytuację, w której procesowi backupu poddajemy dwa serwery plików, ale do
chmury Azure przekazujemy kopię zapasową tylko jednego z nich. Wariant ten może mieć uzasad-
nienie np. dla serwerów skonfigurowanych do pracy w rozproszonym systemie plików Distributed
File System (DFS).
Data Protection Manager jest częścią rodziny System Center, w skład której wchodzą również apli-
kacje Orchestrator oraz Service Manager. Orchestrator, w połączeniu z oprogramowaniem
Data Protection Manager, umożliwia tworzenie przepływów zadań (workflow), które automatyzują
definiowanie zadań i zarządzanie procesami backupu.
14.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Trzeci element całego systemu stanowią mechanizmy odzyskiwania
danych (recovery). W konsoli Data Protection Manager wskazujemy,
które dane i z którego serwera chcemy odtworzyć. Wskazujemy punkt
odzyskiwania (czyli czas wykonania kopii zapasowej) oraz lokalizację
przywracania (lokalne dyski, chmura). Klikamy przycisk Recover. Na
koniec decydujemy, czy obiekt z kopii ma zostać przywrócony do loka-
lizacji źródłowej, czy innego, wskazanego folderu na dysku.
W scenariuszu pokazaliśmy, że za pomocą Data Protection Manager
możemy po pierwsze – tworzyć kopie zapasowe dowolnych danych
do chmury, po drugie – w łatwy sposób zarządzać całym systemem
backupu i po trzecie – szybko i wygodnie odzyskać potrzebne dane
do wskazanego miejsca w czasie. Naszym celem było przedstawie-
nie Data Protection Manager jako narzędzia zarządzania backupem,
które umożliwia intuicyjne i nieskomplikowane tworzenie kopii
zapasowych i przywracanie danych w dużej organizacji.
Odtwarzanie
danych
Podsumowanie
części III
W tym momencie rozpoczyna się proces odzyskiwania. System podłączy się do Windows Azure,
sprawdzi, czy kopia rzeczywiście istnieje oraz pobierze potrzebne dane do lokalizacji użytkownika.
Pewne opóźnienie, które można zauważyć na tym etapie, jest niezależne od wielkości przywracane-
go pliku. Procedura, którą system musi przejść, zajmuje określoną ilość czasu, bez względu na to,
czy plik zajmuje 2 KB, 2 MB czy 2 GB. Czas ten zależy również od ilości danych, którą przechowuje-
my w chmurze. Nie jest to jednak w żaden sposób uciążliwe.
Data Protection Manager jest narzędziem godnym polecenia, w szczególności jeśli musimy zarzą-
dzać backupem z większej liczby serwerów. Przypomnijmy, że Data Protection Manager jest częścią
rozwiązań System Center, które warto wykorzystać do zarządzania środowiskiem IT w przedsiębior-
stwie. Data Protection Manager nie jest produktem sprzedawanym oddzielnie.
Decydując się na Data Protection Manager warto rozważyć możliwość wdrożenia całej rodziny Sys-
tem Center, a przynajmniej sprawdzić, jaką wartość dodaną otrzymamy wykorzystując inne aplika-
cje tego pakietu w naszej organizacji. System Center jest bowiem dużym pakietem narzędzi, które
w istotny sposób ułatwiają zarządzanie systemami informatycznymi w przedsiębiorstwie.
Ustalamy, ile razy dziennie (lub tygodniowo) i o której godzinie Data Protection Manager ma wyko-
nać synchronizację danych do chmury. W trakcie pierwszej synchronizacji następuje wyniesienie
pełnej kopii zapasowej do zewnętrznej lokalizacji. Później mamy do czynienia wyłącznie z synchro-
nizacją przyrostową. Nigdy nie ma sytuacji, w której raz przekazane dane są ponownie przesyłane
do Windows Azure. Mechanizm ten pozwala efektywnie korzystać z łączy internetowych oraz istot-
nie skraca czas backupu danych do chmury.
15.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Hybrydowy magazyn danych
– dodatkowe zabezpieczenie
dla danych przechowywanych
lokalnie
StorSimple jest niezbędnym elementem do budowy hybrydowego
magazynu danych. Nie jest to więc proste urządzenie do tworzenia
backupu, jak mogłoby się początkowo wydawać. Ideą hybrydowego
magazynu danych jest rozwiązanie problemów poprzez integrację
lokalnego środowiska z chmurą publiczną. Lokalnie korzystamy
z wbudowanej pamięci StorSimple, jednak mamy również możli-
wość składowania tych danych bezpośrednio w chmurze.
Hybrydowy
magazyn
danych
Kluczowym założeniem do wdrożenia tej architektury jest przekonanie, że dane przechowywane
lokalnie mogą zostać utracone np. na skutek awarii, katastrofy. W przypadku hybrydowego magazy-
nu, kopia tych danych pozostaje zabezpieczona w chmurze.
16.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
StorSimple to samodzielna macierz SAN klasy korporacyjnej wypo-
sażona w dyski SAS lub SSD. Urządzenie umieszczane jest w cen-
trum danych przedsiębiorstwa. Innymi słowy, StorSimple to pamięć
masowa, w której montujemy potrzebną liczbę dysków różnego
rodzaju, a następnie instalujemy w szafie w lokalnej serwerowni.
StorSimple jest urządzeniem do tworzenia kopii zapasowych, które
zostało wyposażone w funkcje deduplikacji oraz kompresji danych.
Deduplikacja ma na celu wyeliminowanie powtarzających się blo-
ków danych, z kolei mechanizmy kompresji pozwalają składować
na urządzeniu większą liczbę plików i obiektów innego typu.
Dzięki połączeniu głównego magazynu danych oraz archiwum kopii
zapasowych w jednym urządzeniu, StorSimple staje się kluczowym
elementem planu odzyskiwania danych w przypadku katastrofy
(disaster recovery). Dzięki StorSimple nie musimy wykonywać kopii
zapasowych na nośnikach zewnętrznych, przewozić tych nośników
do odległej lokalizacji oraz tworzyć złożonych, trudnych do testowa-
nia planów disaster recovery. W tym przypadku rezygnujemy
z prowadzenia testów odzyskiwania, które wymagają transportu
taśm z zewnętrznej lokalizacji, dzięki czemu oszczędzamy czas
i pieniądze.
StorSimple
Cechy
StorSimple
StorSimple
i disaster
recovery
StorSimple umożliwia integrację lokalnego środowiska z chmurą Windows Azure. Z tego względu
StorSimple jest kluczowym elementem, który umożliwia stworzenie hybrydowego magazynu da-
nych. W magazynie tym możemy umieszczać dane lokalnie i w chmurze, bez zastanawiania się
w jaki sposób zarządzać tymi danymi na poziomie lokalizacji.
Operacja ta jest w pełni zautomatyzowana przez StorSimple. Oprogramowanie StorSimple, podob-
nie jak Windows Backup i Data Protection Manager, ma zaimplementowane funkcje współpracy
z chmurą. Zasadnicza różnica polega na tym, że w przypadku StorSimple nie potrzebujemy instalo-
wać dodatkowych agentów na chronionych punktach końcowych, ani używać dodatkowego sprzętu.
StorSimple samodzielnie łączy się z chmurą. Wszystko, czego potrzebujemy, to aktywne połączenie
z internetem i subskrypcja w Windows Azure.
StorSimple włączamy do lokalnej infrasturktury IT przedsiębiorstwa za pomocą protokołu iSCSI.
Urządzenie umożliwia backup z fizycznych serwerów i maszyn wirtualnych. StorSimple posiada certy-
fikaty Hyper-V i VMWare, które gwarantują kompatybilność z tymi rozwiązaniami do wirtualizacji.
Z perspektywy serwera, dyski hybrydowe w StorSimple widoczne są jako zwykły wolumen (LUN).
17.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Spróbujmy przybliżyć słuchaczom, w jaki sposób StorSimple auto-
matyzuje proces backupu i odzyskiwania danych. W StorSimple za-
stosowano technologię tworzenia migawek (snapshots) do chmury.
Dzięki temu urządzeniu jesteśmy w stanie odzyskać kopie zapasowe
niemal natychmiast, kiedy będziemy ich potrzebować. Elastyczne
polityki automatyzacji wykonywania kopii pozwalają na stworzenie
scenariusza, który spełni oczekiwania nawet najbardziej wymagają-
cych administratorów.
W StorSimple zastosowano szereg rozwiązań technologicznych,
które do niezbędnego minimum ograniczają ilość danych przesyła-
nych do chmury publicznej. Mowa tu o mechanizmach deduplikacji,
thin provisioning oraz kompresji danych. Dzięki thin provisioning
narzędzie do backupu „widzi” większą ilość dostępnych zasobów
dyskowych, niż wynika to z faktycznej pojemności pamięci masowej.
Przejdźmy do kwestii podłączenia StorSimple do chmury publicznej.
Pierwszym krokiem jest założenie subskrypcji w Windows Azure.
Następnie tworzymy magazyn danych w chmurze. Nadajemy mu
nazwę oraz wskazujemy miejsce, w którym będą przechowywane
nasze dane.
Automatyzacja
backupu
Efektywne
wykorzystanie
łączy
internetowych
Geolokalizacja
Windows Azure
StorSimple wysyła dane do Windows Azure za pomocą bezpiecznego protokołu HTTPS. Dane, zanim
zostaną przekazane do chmury, są szyfrowane na urządzeniu algorytmem AES-256. Jest to roz-
wiązanie zbliżone do zastosowanego w Windows Backup i Data Protection Manager, choć warto
zauważyć tutaj pewne różnice. W Data Protection Manager za szyfrowanie danych odpowiada agent
usługi. W drugim przypadku szyfrowanie odbywa się po stronie StorSimple za pomocą klucza pry-
watnego, który generujemy przy konfiguracji samego urządzenia.
Dla testowych subskrypcji dostępna jest wyłącznie lokalizacja w Azji. W przypadku zakupu usług
w Windows Azure mamy do wyboru dwie lokalizacje w Europie.
W opcjach georeplikacji możemy zdecydować, czy dane przechowywane w chmurze będą repliko-
wane w dwóch lokalizacjach. W Windows Azure mechanizmy georeplikacji są domyślnie włączone.
A zatem, jak zostało już wcześniej powiedziane, od razu mamy sześć kopii naszych danych w dwóch
Ciekawostka: Pojedyncza subskrypcja Windows Azure pozwala na zamawianie wielu usług
w chmurze w ramach jednego, comiesięcznego zobowiązania np. 1000 euro. Kapitał ten może
zostać wykorzystany na wynajem przestrzeni dyskowej (storage), maszyn wirtualnych, zakup usług
powiadomień, obsługę stron WWW czy przetwarzanie dużej ilości danych (klaster HDInsight).
18.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
19.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
różnych lokalizacjach. Zwróćmy uwagę, że wynajem przestrzeni dyskowej jest nieco wyższy w przy-
padku włączenia usługi georeplikacji.
W tym miejscu warto wyjaśnić kwestie przechowywania kopii w pamięci masowej Windows Azure.
Każda z trzech kopii danych, składowanych w pojedynczym centrum danych Microsoft, jest roz-
mieszczona w innej szafie (rack), aby zminimalizować ryzyko utraty danych np. na skutek awarii
nośnika pamięci.
Wróćmy do naszego przykładu. Logujemy się do panelu zarządzania
StorSimple. Na stronie podsumowania widzimy informację o prze-
strzeni dyskowej dostępnej w urządzeniu oraz statystyki przepływu
danych (odczyt i zapis). Przestrzeń ta obejmuje pamięć masową w
StorSimple oraz w Windows Azure. Dodajmy, że ilość danych, które
będziemy mogli składować w chmurze zależy od posiadanego mo-
delu StorSimple.
Idziemy dalej. W konfiguracji StorSimple definiujemy: nazwę ma-
gazynu wyświetlaną na urządzeniu, typ usługi, do której chcemy się
podłączyć (tutaj: Windows Azure) oraz opcje szyfrowania transmisji
danych do chmury (SSL).
StorSimple
i magazyny
danych
Bezpieczeństwo
danych
Na rynku dostępne są cztery modele urządzeń StorSimple. Modele te różnią się ilością danych,
które możemy przechowywać w pamięci lokalnej i w Windows Azure.
StorSimple może obsługiwać do 64 różnego rodzaju magazynów danych. Dzięki temu możemy
skonfigurować urządzenie do składowania danych w wielu centrach danych np. w Europie Północ-
nej i Europie Zachodniej.
Mechanizm ten można wykorzystać do zarządzania dostępem. Wyobraźmy sobie 10 różnych maga-
zynów, z których każdy zarządzany jest oddzielnie. Podejście to pozwala wyróżnić magazyny danych
dla różnych działów przedsiębiorstwa i obciążać je rzeczywiście ponoszonymi kosztami wynajmu
pamięci masowej. Inne zastosowanie tego mechanizmu umożliwia wydzielenie oddzielnego maga-
zynu danych na pliki, a innego na obrazy dysków maszyn wirtualnych.
Mimo, że możemy zrezygnować z szyfrowania transmisji do chmury, dane na dysku nadal pozo-
staną zaszyfrowane. Dodajmy, że bezpieczeństwo danych gwarantowane jest na wielu poziomach.
Dane są podzielone (poszatkowane) na bloki, zdeduplikowane, skompresowane, szyfrowane na
dyskach urządzenia i ponownie szyfrowane w trakcie przesyłania ich przez internet za pomocą
protokołu SSL.
20.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Wróćmy do samej konfiguracji urządzenia. Podajemy nazwę magazynu w chmurze, a następnie
w oknie ustawień StorSimple wprowadzamy klucz zarządzania (ciąg znaków) wygenerowany w
Windows Azure. Klucz ten służy autentykacji urządzenia w środowisku chmury. Do dyspozycji
mamy dwa klucze na wypadek utraty pierwszego z nich. Klikając przycisk Verify możemy sprawdzić
poprawność konfiguracji StorSimple do współpracy z Windows Azure. W tym momencie jesteśmy
gotowi do korzystania z hybrydowego magazynu danych.
W StorSimple zamontowano dwa kontrolery iSCSI. Każdy kontroler wyposażony jest w cztery porty
sieciowe, które zapewniają nadmiarowość połączeń. Kontrolery te skonfigurowane są do pracy w
trybie failover. W przypadku awarii głównego kontrolera, jego zadania przejmuje drugi – sprawny.
Identyczne rozwiązania stosowane są w konkurencyjnych macierzach dyskowych klasy korporacyjnej.
StorSimple może być zarządzany z poziomu panelu webowego (jak
we wcześniejszym przykładzie) lub konsoli MMC w systemie Win-
dows. Z poziomu konsoli możemy wdrażać polityki zabezpieczeń
(kiedy i jak mają być nasze dane backupowane), tworzyć nowe grupy
wolumenów oraz przywracać obiekty z kopii zapasowych. Użytkow-
nik ma wybór, czy będzie korzystał ze znanej sobie przystawki MMC,
czy też z portalu webowego. Mimo pewnych ograniczeń, konsola
może zostać wykorzystana do codziennej administracji StorSimple
i odzyskiwania danych.
Cechą StorSimple jest jego odporność na pojedyncze punkty awarii.
Wszystkie komponenty wykorzystane do jego budowy są zdublowa-
ne. Mamy możliwość wymiany wybranych podzespołów w trakcie
pracy urządzenia („na gorąco”). W ten sposób zastąpimy zepsuty
zasilacz, czy kontroler sieciowy.
W prezentowanym urządzeniu zamontowano trzy dyski SSD oraz sie-
dem dysków SAS. Wszystkie dyski zostały skonfigurowane do pracy
w macierzy RAID 10, która gwarantuje wysoką wydajność operacji
odczytu-zapisu oraz niezawodność przechowywania danych.
Zarządzanie
StorSimple
Komponenty
StorSimple
Dywersyfikacja
dysków
W tym momencie należy zadać sobie pytanie, czy efektywne zarzą-
dzanie danymi ma znacznie? Odpowiedź jest prosta – tak. Dane
w momencie ich utworzenia są używane regularnie. Wraz z upły-
wem czasu przestają być one potrzebne, nie są wykorzystywane na
bieżąco, a więc powinny zostać zarchiwizowane.
Problem ten rozwiązuje trójwarstwowa architektura składowania
danych w macierzy dyskowej zaimplementowana w StorSimple.
W tym celu wykorzystywane są zaawansowane algorytmy klasyfi-
kacji, które na podstawie wieku pliku i częstotliwości jego użycia,
decydują o tym, w jakiej warstwie przechowywania danych zosta-
nie on zapisany.
Przepływy
danych
Trzy warstwy
składowania
danych
Macierze dyskowe są drogimi urządzeniami. Z perspektywy efektywnego zarządzania danymi,
w praktyce przechowujemy niepotrzebne dane (archiwalne) na bardzo drogim sprzęcie. W wielu
przypadkach realna potrzeba wykorzystania tych danych w żaden sposób nie racjonalizuje nam
kosztu ich przechowywania na macierzy.
Zawsze mamy możliwość wyniesienia tych danych do archiwum na nośniki zewnętrzne. W tym
kontekście pojawia się problem, w jaki sposób stwierdzić, że wybrany zestaw danych przestały nas
interesować i co zrobić w sytuacji, w której okaże się, że jednak są potrzebne? Z naszego doświad-
czenia wynika, że ok. 80% danych jest utrzymywanych jako dane archiwalne.
Przykładowo, rzadko używane pliki są klasyfikowane jako dane archiwalne i przenoszone do chmu-
ry. Dane wykorzystywane na bieżąco tzw. dane „hot”, są przechowywane na dyskach SSD w lokalnej
macierzy, aby zapewnić najszybszy dostęp do nich, przy najmniejszych opóźnieniach. Koncepcja ta
podnosi ogólną wydajność całego systemu. Na poziomie nośników SSD StorSimple wykorzystuje
mechanizmy deduplikacji, aby wyeliminować konieczność przechowywania tych samych, powtarza-
jących się, bloków danych.
Zastanówmy się, co dzieje się w sytuacji, których danych najczęściej używanych jest więcej niż
dostępnej przestrzeni na dyskach SSD? Jeśli przekroczymy górną granicę przechowywania na tych
dyskach, rzadziej używane pliki zostają przeniesione na wolniejsze, ale równie wydajne dyski SAS.
Na tym poziomie dane te są dodatkowo kompresowane.
Podsumujmy – w warstwie pierwszej (dyski SSD) dane są umieszczane na bieżąco, w momencie
ich utworzenia przez użytkownika. StorSimple sprawdza, czy w macierzy nie są przechowywane już
takie same pliki. Jeśli tak się dzieje, urządzenie wykorzystuje mechanizmy deduplikacji, aby zaosz-
czędzić miejsce potrzebne do składowania powtarzających się bloków danych.
Rzadziej używane pliki przesuwane są do drugiej warstwy (dyski SAS). Dane te są kompresowane.
Jeśli okaże się, że pliki te nie są używane przez dłuższy czas, StorSimple przenosi je do warstwy
trzeciej, czyli chmury. Siłą StorSimple jest więc wbudowana logika, która automatyzuje procesy
związane z przechowywaniem danych na nośnikach różnego typu, w tym chmurze.
21.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
W StorSimple mamy kilka metod wykonywania kopii zapasowych.
Urządzenie wykonuje migawki (snapshots) lokalnie bądź do chmury.
Wielu osobom słowo migawka kojarzy się z punktem w czasie. Musi-
my mieć pełną kopię, aby przywrócić dane do tego punktu. W Stor-
Simple migawka jest kompletną kopią zapasową. Nie potrzebujemy
mieć pierwotnych danych, aby przywrócić je do stanu wyjściowego.
Backup
i odtwarzanie
danych
Na zaprezentowanym wykresie porównano trzy techniki wykonywania kopii zapasowych – klasyczny
backup taśmowy oraz backup danych do Windows Azure z wykorzystaniem zwykłych narzędzi oraz
przy użyciu StorSimple.
StorSimple umożliwia w jak najkrótszym czasie odzyskać potrzebne dane. Wynika to z innowa-
cyjności wbudowanych w urządzenie technologii. StorSimple nie pobiera pełnych danych z kopii,
a jedynie indeks przechowywanych w niej obiektów (metadane). Indeks ten umożliwia wskazanie
obiektów, które należy rzeczywiście odzyskać z backupu. Nie ma potrzeby pobierania z chmury
całego woluminu.
22.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
Porуwnanie trzech technik
wykonywania kopii zapasowych
Microsoft udostępnia StorSimple za darmo, pod warunkiem pod-
pisania umowy na subskrypcje usług w chmurze Windows Azure
(Enterprise Agreement) przynajmniej na 50 000 dolarów. Kwota
ta nie musi zostać wykorzystana na magazyn danych. W ramach
subskrypcji możemy korzystać z innych, bogatych usług Windows
Azure. Dodajmy, że koszt zakupu StorSimple na wolnym rynku wy-
nosi ok. 70 000 dolarów.
Koszty
zakupu
23.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
W trakcie webinarium omówiliśmy trzy rozwiązania, które poma-
gają w codziennym backupie naszego środowiska. Wydaje się, że
każde z nich było bardzo wygodne i proste w obsłudze. Z jednej
strony mamy znane interfejsy, z drugiej brak konieczności prze-
noszenia danych do zewnętrznej lokalizacji (off-site). Wszystkie
te rozwiązania cechuje wysoka niezawodność. Mamy trzy lub
sześć replik danych w dwóch centrach danych Windows Azure.
Do tego dochodzi SLA na poziomie 99,95% dostępności pamięci
masowej w chmurze. Na koniec dodajmy, że Windows Azure
i StorSimple ściśle integrują się z rozwiązaniami firmy Microsoft
instalowanymi lokalnie, w serwerowni przedsiębiorstwa.
Na początku prezentacji powiedzieliśmy, że pamięć masowa Windows Azure umożliwia ograni-
czenie kosztów backupu nawet o 60%. 1 TB danych przechowywanych miesięcznie w chmurze
Microsoft kosztuje ok. 20 euro. To niewiele porównując cenę wynajmu dysku z kosztami wdro-
żenia własnej infrastruktury backupu (zakup macierzy, przełączników, okablowania) oraz jego
utrzymania (zarządzanie, przenoszenie danych na taśmę itd.).
Na koniec spróbujmy przyjrzeć się prostej symulacji kosztowej. Zakładamy, że firma ma 100
GB danych. W pierwszym wariancie zakładamy zakup biblioteki taśmowej oraz taśm. W drugim
przykładzie firma przechowuje kopie zapasowe w Windows Azure. Z uwagi na fakt, że w obu
wariantach istnieje możliwość wykorzystania tych samych aplikacji backupu np. Data Protection
Manager w symulacji pominięto koszty zakupu oprogramowania.
W przypadku Windows Azure płacimy jedynie za wykorzystane miejsce, a koszty narastają z cza-
sem. Po trzech latach koszt utrzymania kopii zapasowych wynosi ok. 1200 euro. Dla porównania,
koszt inwestycji we własne rozwiązanie backupu wynosi od 5000 euro za samą macierz dyskową.
Z zaprezentowanych w webinarium przykładów wynika więc jasno, że rozwiązania oparte
o chmurę są proste, wygodne, elastyczne, bezpieczne i efektywne kosztowo.
Podsumowanie

Contenu connexe

Similaire à Backup i Disaster Recovery w chmurze Windows Azure - transkrypt webinarium IDG

Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...Jarek Sokolnicki
 
Profesjonalne Systemy Ochrony Danych I Archiwizacji
Profesjonalne Systemy Ochrony Danych I ArchiwizacjiProfesjonalne Systemy Ochrony Danych I Archiwizacji
Profesjonalne Systemy Ochrony Danych I Archiwizacjisksep
 
Co Zrobić By PożąDnie Zabezpieczyć Serwer W Sieci
Co Zrobić By PożąDnie Zabezpieczyć Serwer W SieciCo Zrobić By PożąDnie Zabezpieczyć Serwer W Sieci
Co Zrobić By PożąDnie Zabezpieczyć Serwer W Siecibystry
 
Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...
Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...
Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...cieszak
 
Aplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDG
Aplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDGAplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDG
Aplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDGJarek Sokolnicki
 
Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...
Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...
Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...Jarek Sokolnicki
 
Co z czym i do czego w Microsoft Azure - poznajemy usługi
Co z czym i do czego w Microsoft Azure - poznajemy usługiCo z czym i do czego w Microsoft Azure - poznajemy usługi
Co z czym i do czego w Microsoft Azure - poznajemy usługiEmil Wasilewski
 
8 mitów bezpieczeństwa IT w chmurze obliczeniowej
8 mitów bezpieczeństwa IT w chmurze obliczeniowej8 mitów bezpieczeństwa IT w chmurze obliczeniowej
8 mitów bezpieczeństwa IT w chmurze obliczeniowejBeyond.pl
 
infraxstructure: Marcin Kaczmarek "SDS - Storage jako aplikacja."
infraxstructure: Marcin Kaczmarek  "SDS - Storage jako aplikacja."infraxstructure: Marcin Kaczmarek  "SDS - Storage jako aplikacja."
infraxstructure: Marcin Kaczmarek "SDS - Storage jako aplikacja."PROIDEA
 
Optymalizacja hostingu
Optymalizacja hostinguOptymalizacja hostingu
Optymalizacja hostinguDivante
 
Chmura nie ukradnie Ci pracy
Chmura nie ukradnie Ci pracyChmura nie ukradnie Ci pracy
Chmura nie ukradnie Ci pracyKonwent2015
 
Gregorczyk konferencja 7-06 -2016-do publikacji
Gregorczyk konferencja 7-06 -2016-do publikacjiGregorczyk konferencja 7-06 -2016-do publikacji
Gregorczyk konferencja 7-06 -2016-do publikacjiGrazyna Gregorczyk
 
Cloud Challengers Partners
Cloud Challengers Partners Cloud Challengers Partners
Cloud Challengers Partners Anna Kosmala
 

Similaire à Backup i Disaster Recovery w chmurze Windows Azure - transkrypt webinarium IDG (20)

Tworzenie kopii bezpieczeństwa danych
Tworzenie kopii bezpieczeństwa danychTworzenie kopii bezpieczeństwa danych
Tworzenie kopii bezpieczeństwa danych
 
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
 
Profesjonalne Systemy Ochrony Danych I Archiwizacji
Profesjonalne Systemy Ochrony Danych I ArchiwizacjiProfesjonalne Systemy Ochrony Danych I Archiwizacji
Profesjonalne Systemy Ochrony Danych I Archiwizacji
 
Wprowadzenie do Microsoft Azure
Wprowadzenie do Microsoft AzureWprowadzenie do Microsoft Azure
Wprowadzenie do Microsoft Azure
 
Wirtualizacja
WirtualizacjaWirtualizacja
Wirtualizacja
 
Co Zrobić By PożąDnie Zabezpieczyć Serwer W Sieci
Co Zrobić By PożąDnie Zabezpieczyć Serwer W SieciCo Zrobić By PożąDnie Zabezpieczyć Serwer W Sieci
Co Zrobić By PożąDnie Zabezpieczyć Serwer W Sieci
 
Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...
Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...
Olsztyński Dzień Informatyki - Chmura Azure dla specjalistów IT. Mamy się jej...
 
Aplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDG
Aplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDGAplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDG
Aplikacje i serwisy intranetowe w chmurze publicznej - transkrypt webinarium IDG
 
Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...
Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...
Integracja środowiska firmowego z Chmurą Publiczną IaaS, SaaS - transkrypt we...
 
Co z czym i do czego w Microsoft Azure - poznajemy usługi
Co z czym i do czego w Microsoft Azure - poznajemy usługiCo z czym i do czego w Microsoft Azure - poznajemy usługi
Co z czym i do czego w Microsoft Azure - poznajemy usługi
 
Chmura wszystko zmienia – jak cloud computing przewraca do góry nogami rynek ...
Chmura wszystko zmienia – jak cloud computing przewraca do góry nogami rynek ...Chmura wszystko zmienia – jak cloud computing przewraca do góry nogami rynek ...
Chmura wszystko zmienia – jak cloud computing przewraca do góry nogami rynek ...
 
8 mitów bezpieczeństwa IT w chmurze obliczeniowej
8 mitów bezpieczeństwa IT w chmurze obliczeniowej8 mitów bezpieczeństwa IT w chmurze obliczeniowej
8 mitów bezpieczeństwa IT w chmurze obliczeniowej
 
NDI
NDINDI
NDI
 
infraxstructure: Marcin Kaczmarek "SDS - Storage jako aplikacja."
infraxstructure: Marcin Kaczmarek  "SDS - Storage jako aplikacja."infraxstructure: Marcin Kaczmarek  "SDS - Storage jako aplikacja."
infraxstructure: Marcin Kaczmarek "SDS - Storage jako aplikacja."
 
Optymalizacja hostingu
Optymalizacja hostinguOptymalizacja hostingu
Optymalizacja hostingu
 
Chmura nie ukradnie Ci pracy
Chmura nie ukradnie Ci pracyChmura nie ukradnie Ci pracy
Chmura nie ukradnie Ci pracy
 
Gregorczyk konferencja 7-06 -2016-do publikacji
Gregorczyk konferencja 7-06 -2016-do publikacjiGregorczyk konferencja 7-06 -2016-do publikacji
Gregorczyk konferencja 7-06 -2016-do publikacji
 
Hosting w chmurze dla firm
Hosting w chmurze dla firmHosting w chmurze dla firm
Hosting w chmurze dla firm
 
Provident
ProvidentProvident
Provident
 
Cloud Challengers Partners
Cloud Challengers Partners Cloud Challengers Partners
Cloud Challengers Partners
 

Plus de Jarek Sokolnicki

Retail & Consumer Goods Digital Transformation
Retail & Consumer Goods Digital TransformationRetail & Consumer Goods Digital Transformation
Retail & Consumer Goods Digital TransformationJarek Sokolnicki
 
Wykorzystanie chmury Microsoft Azure w scenariuszach dev&test
Wykorzystanie chmury Microsoft Azure w scenariuszach dev&testWykorzystanie chmury Microsoft Azure w scenariuszach dev&test
Wykorzystanie chmury Microsoft Azure w scenariuszach dev&testJarek Sokolnicki
 
Stor simple presentation customers
 Stor simple presentation customers Stor simple presentation customers
Stor simple presentation customersJarek Sokolnicki
 
Hybrid cloud sample architectures
Hybrid cloud sample architecturesHybrid cloud sample architectures
Hybrid cloud sample architecturesJarek Sokolnicki
 
Cloud Identity and Access Management
Cloud Identity and Access ManagementCloud Identity and Access Management
Cloud Identity and Access ManagementJarek Sokolnicki
 
Zarządzanie urządzeniami mobilnymi - transkrypcja webinarium
Zarządzanie urządzeniami mobilnymi - transkrypcja webinariumZarządzanie urządzeniami mobilnymi - transkrypcja webinarium
Zarządzanie urządzeniami mobilnymi - transkrypcja webinariumJarek Sokolnicki
 
Idc successful cloud partners e book
Idc   successful cloud partners e bookIdc   successful cloud partners e book
Idc successful cloud partners e bookJarek Sokolnicki
 
Microsoft Cloud Partnership
Microsoft Cloud PartnershipMicrosoft Cloud Partnership
Microsoft Cloud PartnershipJarek Sokolnicki
 
Successful cloud partners idc (en)
Successful cloud partners   idc (en)Successful cloud partners   idc (en)
Successful cloud partners idc (en)Jarek Sokolnicki
 

Plus de Jarek Sokolnicki (13)

Retail & Consumer Goods Digital Transformation
Retail & Consumer Goods Digital TransformationRetail & Consumer Goods Digital Transformation
Retail & Consumer Goods Digital Transformation
 
Microsoft StaffHub
Microsoft StaffHub Microsoft StaffHub
Microsoft StaffHub
 
Scenariusze Azure
Scenariusze AzureScenariusze Azure
Scenariusze Azure
 
Wykorzystanie chmury Microsoft Azure w scenariuszach dev&test
Wykorzystanie chmury Microsoft Azure w scenariuszach dev&testWykorzystanie chmury Microsoft Azure w scenariuszach dev&test
Wykorzystanie chmury Microsoft Azure w scenariuszach dev&test
 
Cloud platform scenarios
Cloud platform scenariosCloud platform scenarios
Cloud platform scenarios
 
Stor simple presentation customers
 Stor simple presentation customers Stor simple presentation customers
Stor simple presentation customers
 
Enterprise Mobility Suite
Enterprise Mobility SuiteEnterprise Mobility Suite
Enterprise Mobility Suite
 
Hybrid cloud sample architectures
Hybrid cloud sample architecturesHybrid cloud sample architectures
Hybrid cloud sample architectures
 
Cloud Identity and Access Management
Cloud Identity and Access ManagementCloud Identity and Access Management
Cloud Identity and Access Management
 
Zarządzanie urządzeniami mobilnymi - transkrypcja webinarium
Zarządzanie urządzeniami mobilnymi - transkrypcja webinariumZarządzanie urządzeniami mobilnymi - transkrypcja webinarium
Zarządzanie urządzeniami mobilnymi - transkrypcja webinarium
 
Idc successful cloud partners e book
Idc   successful cloud partners e bookIdc   successful cloud partners e book
Idc successful cloud partners e book
 
Microsoft Cloud Partnership
Microsoft Cloud PartnershipMicrosoft Cloud Partnership
Microsoft Cloud Partnership
 
Successful cloud partners idc (en)
Successful cloud partners   idc (en)Successful cloud partners   idc (en)
Successful cloud partners idc (en)
 

Backup i Disaster Recovery w chmurze Windows Azure - transkrypt webinarium IDG

  • 1. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows Azure Dominik Wojciechowski, eOpen; Adrian Przygoda, eOpen. Waldemar Skrzypiec, w firmie Microsoft jest odpowiedzialny za wsparcie techniczne Windows Azure. Tematem drugiego eSeminarium firmy Microsoft z cyklu „Chmura publiczna w scenariuszach biznesowych” jest Backup i Disaster Recovery w chmurze Windows Azure. Rozpoczniemy od przedstawienia wyzwań związanych z backupem danych w chmurze. Następnie opowiemy jak działa Windows Azure Storage. Pojęcie kopii zapasowych nie jest związane wyłącznie z systemami informatycznymi. Każdy z nas ma jakieś dane. Każdy stara się w pewien sposób te dane zabezpieczać. Backup danych jest więc zagadnieniem, które dotyczy każdego kto korzysta z komputerów i systemów IT. Prelegenci Cykl eSeminariów Agenda spotkania Wyzwania backupu 1. Prowadzący: Waldemar Skrzypiec, Microsoft Dominik Wojciechowski oraz Adrian Przygoda z firmy eOpen zajmują się wdrożaniami systemów informatycznych, w tym rozwiązań backupu w chmurze oraz świadczeniem wsparcia technicznego dla klientów zewnętrznych. Wśród najważniejszych wyzwań związanych z tradycyjnym backupem warto wymienić przyrost danych oraz związany z tym wzrost złożoności systemów informatycznych i rozwiązań backupu. Z badań firmy analitycznej Forrester Research wynika, że liczba danych, które powinny zostać uwzględnione w kopii zapasowej wzrasta nawet o 50-60% w skali roku. Administratorzy IT muszą obsługiwać coraz większą liczbę urządzeń i powiązanych ze sobą systemów. W kolejnej części niniejszego tekstu omówimy usługi backupu w chmurze. Sprawdzimy również, czy jest to bezpieczne rozwiązanie i w jaki sposób współpracuje ono z oprogramowaniem System Center Configuration Manager (SCCM). Na koniec zaprezentujemy urządzenie StorSimple, które umożliwia integrację lokalnego magazynu pamięci masowej, przechowującego kopie zapasowe i archiwa danych, z usługami chmury publicznej.
  • 2. Z obserwacji rynku wynika, że wraz ze wzrostem liczby informacji, można podjąć dwie decyzje dotyczące strategii utrzymania i rozwoju systemów do tworzenia kopii zapasowych i archiwizacji danych w przedsiębiorstwie. Dwie strategie rozwoju systemów backupu 2. Wariant pierwszy zakłada zakup nowego lub dodatkowego sprzętu i oprogramowania do backu- pu, które umożliwia przechowywanie coraz większej liczby danych. Wzrost złożoności systemów backupu oraz liczby danych, które należy zabezpieczać i archiwizować, wiąże się z koniecznością zatrudnienia dodatkowego personelu IT. To bezpośrednio przekłada się na lawinowo rosnące koszty utrzymania rozwiązań ochrony danych w firmie. Drugie podejście zakłada ograniczenie ilości danych, które poddajemy procesowi backupu. Za każdym razem wymaga ono podjęcia decyzji, które dane są mniej, a które bardziej ważne. Tutaj nasuwa się zasadnicze pytanie skąd będziemy wiedzieć, które dane, z perspektywy przedsię- biorstwa i prowadzonego biznesu, są nieistotne i z całą pewnością nie będą potrzebne w przyszłości? Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Badania Forrester Research pokazują, że przyrost ilości danych w firmach sięga 50%-60% w stosunku rok do roku. Wzrost liczby danych do backupu przekłada się na wyższe koszty oraz dłuższy czas tworzenia kopii zapasowych i archiwizacji danych. To z kolei może spowodować, że nie wszystkie dane zostaną objęte właściwą ochroną.
  • 3. Spróbujmy przyjrzeć się rozwiązaniom backupu w chmurze, które stanowią odpowiedź na niektóre wyzwania, jakie stawia przed nami tradycyjny backup. Jak już zostało wspomniane, wzrost liczby danych w przedsiębiorstwie wynosi od 50 do 60% rok do roku. Okazuje się jednak, że liczba danych, na których pracujemy każdego dnia, już tak szybko nie przyrasta. Nie ma nic odkrywczego w tym, że ludzie pra- cują na plikach, których w danej chwili potrzebują. Pliki te są później odkładane, a do większości z nich nigdy więcej nie wracamy. Z danych Forrester Research wynika, że backup danych w chmurze jest czterokrotnie tańszy niż backup lokalny (on premise) na ma- cierzy SAN. Warto zwrócić uwagę, że backup w chmurze daje nam również większą elastyczność stosowania. Backup w chmurze Backup lokalny vs. chmura 3. Czas życia informacji, które są nam niezbędne w danej chwili, wynosi zaledwie kilka, kilkana- ście dni. Widać to wyraźnie na przykładzie poczty elektronicznej. E-mail jest dla nas ważny przez pierwszy tydzień. Później wiadomość ta staje się w pewnym sensie archiwalna, choć istnieje duże prawdopodobieństwo, że będziemy chcieli do niej wrócić w przyszłości. Jednak im dłuższy czas od otrzymania e-maila, tym coraz rzadziej odwołujemy się do zawartych w nim informacji. Podobna sytuacja ma miejsce z plikami. Materiały zgromadzone w trakcie trwania projektu są rzadko wykorzystywane po jego zakończeniu. Wracamy do nich, jeśli chcemy pobrać szablon dokumentu, wyciągnąć listę klientów itd. Z całą pewnością pliki te można jednak uznać za archiwalne, bowiem nie używamy ich w codziennej pracy. Zawarte w nich informacje są wykorzystywane sporadycznie. W przypadku backupu lokalnego konieczne jest takie zaplanowanie infrastruktury backupu, które uwzględni przyrost danych w przyszłości. Korzystając z przestrzeni w chmurze, płacimy wyłącznie za miejsce na dyskach, które zajmujemy w danej chwili. Koszty rozwoju rozwiązań backupu pono- szone są wraz ze wzrostem liczby danych, a nie na etapie wdrażania systemów zabezpieczeń w organizacji. Spróbujmy jeszcze raz nakreślić korzyści, jakie niosą ze sobą usługi backupu w chmurze, a następ- nie podeprzyjmy te tezy konkretnymi pomysłami i rozwiązaniami. Najważniejsze korzyści z backupu w chmurze to zmniejszenie kosztów ochrony danych nawet o 60%, efektywne wykorzystanie zasobów, możliwość włączenia chmury do planu disaster recovery oraz rozszerzenie znanych usług kopii zapasowych o chmurę. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 4. Bardzo często, analizując koszty backupu, pomijamy wiele elemen- tów. Bierzemy pod uwagę koszty inwestycji w przestrzeń dyskową, zapominając o kosztach zakupu przełączników, okablowania oraz utrzymania systemu w przyszłości. Do tej ostatniej grupy kosztów zaliczyć można m.in. wynagrodzenia pracowników działu IT. Kolejna rzecz – szyfrowanie i bezpieczeństwo danych. Wiele osób wykazuje zainteresowanie backupem w chmurze. Za każdym razem pojawia się jednak pytanie – jakie mamy gwarancje, że ktoś inny nam tych danych nie odczyta? Jest to ważna kwestia, która bezpo- średnio dotyka bezpieczeństwa informacji. Backup zapisywany w chmurze jest automatycznie backupem wyniesionym na zewnątrz. W tym kontekście chmura zapewnia nam kolejny element ochrony danych, który zakłada koniecz- ność przechowywania kopii zapasowych poza serwerownią przedsiębiorstwa. Backup w chmurze może być wykorzystany w trakcie przywracania danych po katastrofie (disaster recovery). Koszty tradycyjnego backupu Bezpieczne, bo zaszyfrowane Plan disaster recovery 4. Pamiętajmy, że w procesie zarządzania kopiami zapasowymi wymagane jest regularne prowadze- nie prób odzyskiwania danych. Musimy mieć pewność, że to co zapisujemy na nośnikach w kopii, będziemy mogli odzyskać w przyszłości. To wymaga pracy ludzi, która kosztuje. Przechowywanie danych backupu w miejscu, w którym te dane powstają i w którym je używamy, z założenia jest słabym zabezpieczeniem. Każde zdarzenie losowe np. pożar, przepięcie energe- tyczne, może prowadzić do utraty zarówno informacji, które poddajemy backupowi, jak i naszych kopii zapasowych. W tym kontekście przechowywanie backupu w zewnętrznej lokalizacji (off-site) stanowi element planu disaster recovery w przedsiębiorstwie. W dzisiejszych czasach najczęściej stosowanym rozwiązaniem backupu jest tworzenie kopii zapaso- wych danych jednocześnie na macierzy dyskowej oraz na taśmach magnetycznych. Backup na dysk wykorzystywany jest do szybkiego odzyskiwania danych, podczas gdy kopie zapisywane na taśmach są przechowywane w zewnętrznej lokalizacji np. w skrytce bankowej. Podejście to generuje dodat- kowe koszty związane z wynajęciem skrytki, koniecznością przenoszenia taśm do banku itd. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 5. W chmurze płacimy tylko za rzeczywiście wykorzystywane zasoby. Zaletą chmury jest to, że nie musimy deklarować zapotrzebowania na miejsce na backup w przyszłości, a co za tym idzie, płacić za przestrzeń, której w danej chwili nie potrzebujemy. Efektywne wykorzystanie zasobów 5. Tworząc infrastrukturę backupu na poziomie sprzętowym, bez wykorzystania chmury, można wpaść w pułapkę związaną z niewłaściwym zaplanowaniem przestrzeni dyskowej. Planowanie systemu backupu wymaga przyjęcia szeregu założeń. Przykładowo, w ciągu najbliż- szych 2-3 lat będziemy przechowywać 10-12 TB danych. Wzrost ilości danych w kopii wyniesie ok. 50-60% rocznie. Na początek kupujemy więc połowę dysków, bo tyle potrzebujemy w danej chwili. Przyjmujemy jednak, że kolejne nośniki pamięci będziemy dodawać wraz ze wzrostem rozmiaru tworzonych kopii zapasowych. Bezpieczeсstwo w Windows Azure Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Pracownicy firmy Microsoft, do której należy Windows Azure, nie mają dostępu do danych swoich klientów. Klient w swojej lokalnej infrastrukturze przechowuje klucz prywatny, którym szyfrowane są dane backupu składowane w chmurze. Dane te poddawane są szyfrowaniu przed ich przesła- niem do chmury. Dodatkowo, transmisja danych do chmury odbywa się przez szyfrowany protokół SSL. Zwróćmy uwagę, że Microsoft, ani żadna osoba postronna, nie ma dostępu do klucza prywatnego użytkowni- ka. Tak więc nikt, kto nie posiada klucza szyfrującego, nie ma dostępu do informacji zawartych w kopii zapasowej przechowywanej w chmurze.
  • 6. 6. Znane narzędzia Microsoft np. Windows Backup oraz znane inter- fejsy programów tej firmy zostały rozszerzone o funkcje tworzenia kopii zapasowych do chmury. Wdrożenie mechanizmów backupu w chmurze nie wymaga więc instalowania nowego, nieznanego administratorom IT oprogramowania. Rozszerzenie znanych usług kopii zapasowych o chmurę Osoby, które już korzystają z Windows Backup lub innych narzędzi do tworzenia kopii zapasowych danych klasy korporacyjnej, nie potrzebują uczyć się nowych rzeczy. Dla nich chmura stanowi dodatkową przestrzeń dyskową (storage), na której w sposób bezpieczny mogą oni przechowywać dane. Z perspektywy administratora ważne jest, że kopie te składowane są w zdalnej lokalizacji (off-site) i dodatkowo zabezpieczone kilkoma replikami w centrum danych Microsoft. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Problem w tym, że przyjęte założenia odnośnie wzrostu ilości danych niekoniecznie muszą okazać się prawdą. W przypadku gwałtownego rozwoju firmy albo przejęcia innego podmiotu (i tym samym konieczności obsługi jego infrastruktury informatycznej) może okazać się, że zaplanowany system kopii zapasowych nie spełnia wymagań postawionych na początku. W tym przypadku, dalszy rozwój rozwiązań backupu w przedsiębiorstwie wymagać będzie poniesienia istotnych nakładów inwesty- cyjnych związanych z zakupem nowych macierzy, dysków czy serwerów. Chmura pozwala w elastyczny sposób reagować na zmieniające się otoczenie. Mamy tutaj tyle miej- sca na backup, ile w danej chwili potrzebujemy. W przypadku lawinowego wzrostu ilości danych w kopii zapasowej, nie ponosimy żadnych wydatków związanych np. z zakupem nowych dysków. Pokuśmy się o zastanowienie, co stoi za rozwiązaniami usług prze- chowywania danych (storage) w chmurze. Sprawdźmy, czym jest Windows Azure Storage i ile osób już zaufało chmurze Microsoftu? Windows Azure Storage Na chwilę obecną w Windows Azure Storage składowanych jest ponad 10 bilionów obiektów. Przez obiekt rozumiemy tutaj pojedynczy plik, blok danych, wiadomość, tabelę. Aby uzmysłowić sobie tę ilość danych dodajmy, że każdy człowiek na świecie miałby w tej chwili 1400 obiektów przechowy- wanych w Windows Azure. W 2013 roku Nasuni, dostawca rozwiązań pamięci masowych dla chmury, określiła Windows Azure Storage jako usługę wiodącą na rynku. Tym samym firmie Microsoft udało się wyprzedzić Amazona z jego usługą S3. Windows Azure Storage działa jak każdy inny twardy dysk. W szczególności, jeśli połączymy to roz- wiązanie z urządzeniem StorSimple, które szerzej omówimy w dalszej części niniejszego tekstu.
  • 7. 7. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Zaletą tego dysku jest fakt, że wszystkie dane zapisane w chmurze trzymane są w wielu kopiach. Stanowi to odzwierciedlenie założeń każdego backupu. Dane backupu muszą być przechowywane w kilku kopiach, aby awaria któregoś z nośników nie prowadziła do ich utraty. Planując backup powinniśmy więc starać się zaplanować co najmniej dwie oddzielne ścieżki zapisu kopii zapasowych. Podstawowym rozwiązaniem tworzenia kopii zapasowych i przywra- cania danych dla serwerów Windows jest Windows Azure Backup. Narzędzie to jest chętnie wykorzystywane przez małe i średnie firmy. Wynika to z jednej, prostej przyczyny. Sześć kopii w dwóch lokalizacjach Windows Azure Backup Korzystając z backupu w chmurze mamy to zagwarantowane przez dostawcę. W przypadku Win- dows Azure od razu są to trzy repliki danych poddawanych backupowi. Opcjonalny mechanizm geo- replikacji wymusza skopiowanie każdej z tych trzech replik do innego centrum danych Microsoft. W rezultacie mamy aż sześć kopii danych przechowywanych w chmurze. Centra danych Microsoftu rozsiane są po całym świecie, jednak wybranych polskich klientów obowiązuje prawo, które zabrania im przekazywania danych poza obszar Europejskiego Obszaru Gospodarczego (EOG). Z perspektywy tych klientów ważne jest, że dane w chmurze Windows Azure Storage replikowane są w obrębie tego regionu. W Europie Microsoft ma dwa centra danych – jedno znajduje się w Amsterdamie, drugie w Dublinie. Klient może mieć więc pewność, że jego dane przechowywane będą tylko w tych centrach, które zlokalizowane są na terenie EOG. W trakcie webinarium przedstawimy trzy różne scenariusze backupu w chmurze z wykorzystaniem narzędzi Windows Azure Backup, System Center Data Protection Manager oraz sprzętowego roz- wiązania StorSimple, które umożliwia stworzenie hybrydowego magazynu danych. Aplikacja ta jest wbudowana w system operacyjny Windows Server i nie wymaga ponoszenia do- datkowych nakładów finansowych na zakup oprogramowania do backupu. Jednocześnie Windows Azure Backup jest bardzo funkcjonalnym narzędziem, które umożliwia tworzenie kopii całego dys- ku, stanu systemu, wolumenów lub wskazanych folderów. Oprogramowanie to może być również elementem planu odzyskiwania danych (disaster recovery) w przedsiębiorstwie. Windows Azure Backup pozwala na bezpośredni zapis danych do chmury. Wymagana jest jedynie instalacja niewielkiego agenta, który odpowiada za przesyłanie danych do zewnętrznej lokalizacji. Agent usługi zapewnia również wysoką wydajność backupu. Do chmury transmitowane są tylko zmienione oraz nowe bloki danych. Kopie zapasowe są szyfrowane po stronie serwera, zanim jesz- cze zostaną przesłane do Windows Azure Storage.
  • 8. 8. Kluczowym elementem planu odzyskiwania po katastrofie w przed- siębiorstwie (disaster recovery) jest przechowywanie kopii zapaso- wych danych w zewnętrznej lokalizacji (off-site). Wyobraźmy sobie użytkownika, który w swojej serwerowni ma dwa, trzy serwery, które obsługują wszystkie systemy IT w firmie. Wiele przedsię- biorstw w Polsce działa właśnie w ten sposób, uruchamiając lokal- nie na niewielkiej liczbie maszyn kontroler domeny, zwirtualizowany serwer plików i aplikacje biznesowe. Disaster recovery Wdrożenie systemu backupu klasy korporacyjnej wymaga poniesienia znacznych nakładów na zakup serwera backupu, macierzy dyskowych do przechowywania kopii zapasowych, biblioteki taśmowej itd. Jeśli zaczniemy liczyć te koszty, to sprawdza się reguła zgodnie z którą wiemy, że backup jest jedną z najważniejszych rzeczy w prawidłowym funkcjonowaniu systemów operacyjnych i dlatego rzadko kiedy działa prawidłowo. O tym, jak ważny jest regularny backup przekonujemy się z reguły dopiero wtedy, gdy potrzebujemy odzyskać dane z kopii. Dane kopii zapasowych są szyfrowane po stronie serwera oraz w trakcie przesyłania ich do chmury. Dane te pozostają cały czas zaszyfrowane w przestrzeni dyskowej chmury. Klucz szyfrujący należy do właściciela danych i jest przechowywany lokalnie. Ważne jest, aby wykonać kopię zapasową tego klucza. W przypadku jego utraty np. na wskutek katastrofy w lokalnej serwerowni, dostęp do kopii zapasowej w chmurze, a co za tym idzie odzyskanie zapisanych w niej danych, będzie po prostu niemożliwe. Narzędzie Windows Azure Backup przeznaczone jest dla małych firm i pododdziałów, które nie mają dedykowanych systemów tworzenia kopii zapasowych oraz nie chcą ponosić wysokich nakładów inwestycyjnych w obszarze zabezpieczeń danych. Podsumowanie części I Dla kogo Windows Azure Backup? Windows Azure Backup jest prostym, wydajnym i niezawodnym narzędziem, zintegrowanym z sys- temem operacyjnym Windows Server. To idealne rozwiązanie dla mniejszych firm, które nie muszą kupować sprzętu i oprogramowania do backupu, a jednocześnie oferuje im możliwość backupu danych na zewnątrz (off-site). Usługa ta z powodzeniem stosowana jest również w przedsiębiorstwach, w których wdrożono narzędzia z rodziny Microsoft System Center. Windows Azure Backup rozszerza funkcje System Center o mechanizmy backupu do chmury. Z perspektywy łatwości zarządzania, trudno bowiem wyobrazić sobie żeby firma, która posiada 50-100 serwerów, na każdym z nich używała narzędzia Windows Azure Backup. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 9. 9. Sprawdźmy zatem, jak krok po kroku wygląda proces podłączania się do backupu w chmurze. W pierwszym etapie, na lokalnym ser- werze, instalujemy agenta Windows Azure Backup. Kolejny krok wymaga założenia konta na Windows Azure oraz skon- figurowania usługi backupu po stronie chmury. W tym celu rejestru- jemy serwer w usłudze, a następnie decydujemy, jakie dane będą poddawane procesowi backupu. Backup w chmurze w praktyce Następną rzeczą, którą robimy jest wykonanie kopii zapasowej w chmurze. Przypomnijmy po raz kolejny – kopie te są szyfrowane lokalnie, przesyłane bezpiecznym tunelem i składowane w formie zaszyfrowanej po stronie Windows Azure. Osoby, które mają do czynienia z narzędziem Windows Backup otrzymują po prostu dodatkowe miejsce (storage) na backup swoich danych w chmurze. Warto wiedzieć, że Windows Backup nie jest nowym oprogramowaniem, którego obsługi musimy się nauczyć. Podobnie sprawa wygląda w przypadku System Center. Zakłada- my subskrypcję w Windows Azure, a następnie instalujemy agenta usługi na serwerze System Center Data Protection Manager (DPM). Zwróćmy uwagę, że agent ten nie jest instalowany na każdym z serwerów, który poddawany jest backupowi. Dalsze kroki są takie same, jak w poprzednim scenariuszu. Rejestrujemy i konfigurujemy serwer System Center DPM w chmurze Microsoftu, tworzymy kopię bezpieczeństwa i w razie potrzeby odzyskujemy dane z backupu. System Center Data Protection Manager Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft System Center – Data Protection Manager
  • 10. 10. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Data Protection Manager jest częścią rodziny narzędzi Microsoft System Center do zarządzania środowiskiem IT w przedsiębior- stwie. Moduł ten jest przeznaczony do tworzenia kopii zapasowych systemów klasy korporacyjnej (enterprise). Z uwagi na koszty zaku- pu i wdrożenia System Center DPM nie jest stosowany do ochrony danych w mniejszych firmach. Od wersji 2012 oprogramowanie SQL Server ma wbudowane funk- cje bezpośredniego backupu do chmury. W SQL Server 2014 dodano konfigurator, który pozwala uruchomić maszynę wirtualną w Win- dows Azure z repliką naszej bazy danych. W sytuacji awarii lokal- nego serwera maszyna ta będzie w stanie podnieść i przejąć prace transakcyjne bazy danych SQL Server. Mowa tu o drugim narzędziu z rodziny System Center, a mianowi- cie Virtual Machine Manager (VMM). W momencie awarii systemu lokalnego (on premise), Virtual Machine Manager podnosi maszynę wirtualną w Windows Azure, zapewniając ciągłość działania usług i systemów biznesowych. System Center DPM Backup SQL Server do chmury Virtual Machine Manager Data Protection Manager zapewnia kopie danych z serwerów Exchange, SQL Server oraz SharePo- int, plików Active Directory i innych systemów Microsoftu. Backup danych z wykorzystaniem rozwią- zań System Center może być prowadzony na wielu poziomach granulacji. W przypadku zwirtualizowanego środowiska Microsoft Exchange mamy możliwość wykonania backupu na poziomie maszyny wirtualnej (migawka pliku VHD). Druga metoda polega na instalacji agenta usługi System Center DPM nie na hoście wirtualizacji, ale bezpośrednio w systemie ope- racyjnym serwera Exchange. Wówczas mamy możliwość odzyskiwania na poziomie bazy danych Exchange, jak i pojedynczych skrzynek. To samo dotyczy pozostałych serwerów i aplikacji Microsoft. W odniesieniu do SharePoint’a mo- żemy wyciągać informacje z backupu nawet do poziomu dokumentu. W przypadku serwera plików Windows Server tutaj również mamy możliwość przywracania pojedynczych plików.
  • 11. 11. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Do dyspozycji mamy również usługę Menadżer odzyskiwania. Usłu- ga ta działa po stronie Windows Azure, a jej zadaniem jest ciągłe monitorowanie stanu (zdrowia) systemów w lokalnym centrum danych i w chmurze. Między tymi centrami następuje replikacja danych z wykorzystaniem technologii Hyper-V Replica. System Center DPM umożliwia wykorzystanie pamięci masowej w Windows Azure do przechowywania kopii zapasowych lokalnych serwerów w chmurze. Kopia zapisana w chmurze staje się auto- matycznie kopią przechowywaną w zewnętrznej lokalizacji (off- site), zabezpieczoną przynajmniej trzema replikami, a w przypadku georeplikacji, nawet sześcioma. System Center DPM jest rozwiąza- niem klasy korporacyjnej, które zapewnia mechanizmy zarządzania kopiami zapasowymi dla całej organizacji. W odróżnieniu od Win- dows Azure Backup, którego agenci instalowani są na każdym z serwerów z osobna, System Center DPM zarządza backupami, a agent usługi wysyła dane dalej do chmury. Wspomnieliśmy wcześniej, jakie dane można backupować za pomocą narzędzi System Center. Aby uzupełnić tę wypowiedź dodajmy – gdzie? Menadżer odzyskiwania Podsumowanie części II Miejsca przechowywania W przypadku awarii serwera w jednym centrum danych, Menadżer odzyskiwania wyłapuje ten stan i uruchamia działające na nim maszyny wirtualne w chmurze Azure. Sytuacja ta ilustruje doskonały przykład wykorzystania chmury do zapewnienia bezpieczeństwa i ciągłości działania systemów IT przedsiębiorstwa. W przypadku budowania systemów wysokiej dostępności bardzo często pomijamy punkt monito- rowania. Zdarzyć się może, że usługa monitorowania znajdzie się w tym samym centrum danych, które w danej chwili przestanie działać. Efektem tego jest utrata wydajności i niezawodności prze- noszenia systemów między lokalizacjami. Aby uniknąć tej sytuacji warto przenieść punkt monitoro- wania do chmury. System Center pozwala na przechowywanie kopii zapasowych na dyskowej pamięci masowej (disk- disk). Model ten może zostać rozszerzony o replikację danych backupu na taśmy magnetyczne (di- sk-disk-tape) z wyniesieniem nośnika poza centrum danych. W kontekście tej publikacji zapis kopii na taśmach zostanie zastąpiony przeniesieniem ich do chmury Windows Azure.
  • 12. Konsola System Center Data Protection Manager jest zunifikowana. Wygląd aplikacji jest taki sam, jak pozostałych produktów Microsoftu. Menu mamy po lewej stronie na dole. Środkową część okna zajmuje obszar danych, a główny pasek menu zorganizowano w formie wstążki. Menu dotyczące agentów umożliwia instalację klienta Data Protection Manager (DPM) na serwerach, które chcemy objąć ochroną. Klient ten obsługuje komunikację serwerów, na których wykonywana jest kopia zapasowa za serwerem DPM. Data Protection Manager w praktyce Instalacja agentów Menu konsoli System Center Data Protection Manager podzielono na pięć części: Monitoring, Pro- tection, Recovery, Reporting oraz Management. W sekcji Management wskazujemy serwery, które chcemy objąć procesem backupu oraz określamy miejsce składowania kopii zapasowych. Zakładka Monitoring pokazuje stan działania systemu zarządzania backupem (tutaj mamy informacje, co się powiodło, a co nie), natomiast zakładka Reporting dostarcza szczegółowe i sumaryczne informacje na temat wykorzystania zasobów dyskowych, wykonanych zadań backupu itd. Raporty te mogą zawierać dane zebrane w dłuższym okresie czasu m.in. dotyczące poziomu wykorzystania taśm czy też przyro- stu danych w zadanym okresie, dzięki czemu mamy podstawy do zaplanowania działań związanych z rozszerzaniem i rozbudową systemu backupu. Raporty te mogą być wysyłane na e-mail. Agent DPM jest tylko jeden. Nie ma potrzeby dołączania dodatkowych wtyczek np. do serwerów Exchange lub SQL Server. Agent usługi wykrywa, jakie podsystemy zainstalowano na serwerze i auto- matycznie zapewnia nam dostęp do danych, które wymagają ochrony. Instalacja agenta jest prosta i odbywa się zdalnie. Wszystko co powinniśmy zrobić to wskazać serwery, które chcemy objąć ochroną. 12. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft System Center DPM umożliwia zarządzanie nieograniczoną liczbą kopii zapasowych na serwerach. Pojedynczy serwer DPM jest w stanie obsłużyć do 120 węzłów. Istnieje możliwość skalowania całe- go systemu przez wdrożenie kolejnego serwera usługi DPM w organizacji. System Center DPM ma wbudowaną natywną obsługę Windows Azure w zakresie backupu danych do chmury oraz prowa- dzenia zadań związanych z odtwarzaniem danych po awarii. Wiele osób tworzy kopie zapasowe, ale zapomina o konieczności prowadzenia regularnych testów odtwarzania danych z backupu. Ma to szczególne znaczenie w przypadku zapisu kopii na taśmach magnetycznych. Rozwiązania backupu na taśmy istnieją na rynku od dłuższego czasu. Technologia zapisu na ta- śmach jest stale ulepszana, jednak mimo wszystko mamy tutaj do czynienia z taśmami, które łatwo zgiąć, przeciąć, urwać, rozmagnetyzować. Nośniki taśmowe są podatne na wysoką temperaturę i inne czynniki, które de facto powodują, że wykonując kopię na taśmę nie mamy pewności, że te dane zostały rzeczywiście na niej zapisane. Dopiero próba odtworzenia jakiejkolwiek skopiowanej informacji daje nam pewną informację, że kopia zapasowa rzeczywiście tam istnieje. Zawsze istnie- je jednak możliwość utraty danych zapisanych na taśmach w przyszłości. Z tego względu konieczne jest wykonywanie kopii danych backupu na dwóch lub większej liczbie taśm.
  • 13. Data Protection Manager może działać w obrębie wielu domen, zarówno tych które łączy relacja zaufania, jak i domen nie powiąza- nych ze sobą. Aplikacja pozwala również na zabezpieczenie stacji pracujących w grupie roboczej. Definicja grupy zabezpieczeń (Protection Groups) zawiera informa- cje o tym, jakie dane zostaną uwzględnione w kopii zapasowej. Z listy serwerów, na których zainstalowano agenta DPM, wybiera- my zakres danych do backupu np. obraz dysku maszyny wirtualnej, wskazany wolumen czy folder na dysku. Istnieje możliwość two- rzenia wykluczeń plików, które nie zostaną skopiowane do kopii zapasowej. DPM integruje się z konsolą PowerShell, która pozwala tworzyć złożone konfiguracje zadań backupu. Schemat backupu można rozszerzyć integrując Data Protection Manager z urządzeniem StorSimple. Urządzenie to ma wbudowane algorytmy, które oceniają dane pod kątem wieku oraz częstości ich używania. Na tej podstawie StorSimple decyduje, które pliki i obiekty powinny być przechowywane lokalnie, a które tylko w chmurze Windows Azure. Sam w sobie, Data Protection Manager nie ma wbudowanej logiki, która pozwalałaby mu decydować, które pliki są częściej, a które rzadziej używane. Miejsca przechowywania Definicje grup zabezpieczeń Integracje DPM Zadaniem administratora jest zapewnienie miejsca na kopie zapasowe wszystkich chronionych serwerów i stacji roboczych. Miejscem tym mogą być dyski, podpięte fizycznie do DPM jako pamięć masowa serwera backupu, biblioteki taśmowe oraz Windows Azure Backup. W tym miejscu warto zauważyć zmianę sposobu, w jaki wyświetlana jest informacja o dostępnej przestrzeni dyskowej. Jeśli spojrzymy na dyski, DPM pokazuje nam, ile wolnego miejsca mamy do dyspozycji. W przypadku backupu w Windows Azure, w tym miejscu pojawia się informacja o ilości wykorzystanego miejsca. Wynika to z faktu, ze chmura Azure dostarcza nam tyle przestrzeni na backup, ile potrzebujemy. Idźmy dalej. Mamy przygotowanych agentów. Mamy wybrane miejsce, w którym zapiszemy backup danych. Teraz należy wybrać, co chcemy uwzględnić w kopii zapasowej oraz w jakim trybie będzie ona przeprowadzana. Służy do tego zakładka Protection. Administrator ma pełną w swobodę w zakresie wyboru miejsca, na którym zapisywane będą kopie zapasowe danych. Do wyboru mamy tutaj dyski (lokalne i w pamięci masowej), taśmy magnetyczne i chmurę Azure z opcja przechowywania backupu w wielu magazynach jednocześnie. Wyobraźmy sobie sytuację, w której pracownik przypadkowo skasował ważny plik. Backup na lokal- nych dyskach umożliwia szybkie przywrócenie tego obiektu. Kopia w chmurze Azure przechowywa- na jest tutaj na wypadek awarii lokalnego środowiska. 13. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 14. Wróćmy do naszego scenariusza. Kolejny etap polega na zdefinio- waniu retencji backupu. Wprowadzamy harmonogram tworzenia kopii zapasowych, ustalamy za jaki okres wstecz chcemy mieć moż- liwość przywracania danych oraz wskazujemy czas synchronizacji danych w kopii. Dzięki temu mechanizmowi Data Protection Manager jest jednym z nielicznych narzędzi, które pozwala tworzyć pełną migawkę bazy SQL Server w krótkich przedziałach czasu np. co 15 minut. W kolejnym kroku etapie decydujemy, czy Data Protection Ma- nager ma przeprowadzić weryfikację spójności utworzonej kopii zapasowej oraz definiujemy ustawienia dotyczące Windows Azure. W definicji grupy zabezpieczeń określimy warunki zapisu danych do chmury. Istnieje możliwość zapisu na dyskach backupu całego systemu, z opcją przekazywania do zewnętrznej lokalizacji jedynie wybranych elementów z danej kopii zapasowej. Ustawienia backupu Migawki SQL Server Warunki zapisu do chmury W procesie backupu Data Protection Manager tworzy jedną pełną kopię zapasową, a następnie, w regularnych odstępach czasu (np. co 15 minut) szereg kopii przyrostowych. Na podstawie wy- konanych wcześniej kopii przyrostowych Data Protection Manager generuje nowy pełny backup danych. Operacja ta wykonywana jest w ustalonym przedziale czasowym, określonym właśnie opcją czas synchronizacji danych. Wyobraźmy sobie awarię systemu produkcyjnego, który przechowuje dane w bazie SQL. Może to być np. system ERP. Załóżmy, że backup bazy wykonywany jest raz dziennie, a w ciągu dnia 5 tysięcy osób wprowadzało w niej dane. W przypadku awarii konieczne będzie ponowne uzupełnienie tych danych, co przekłada się na znaczące koszty i stratę czasu. Data Protection Manager daje możliwość odzyska- nia tych danych do stanu nawet na kilkanaście minut przed awarią. Wyobraźmy sobie sytuację, w której procesowi backupu poddajemy dwa serwery plików, ale do chmury Azure przekazujemy kopię zapasową tylko jednego z nich. Wariant ten może mieć uzasad- nienie np. dla serwerów skonfigurowanych do pracy w rozproszonym systemie plików Distributed File System (DFS). Data Protection Manager jest częścią rodziny System Center, w skład której wchodzą również apli- kacje Orchestrator oraz Service Manager. Orchestrator, w połączeniu z oprogramowaniem Data Protection Manager, umożliwia tworzenie przepływów zadań (workflow), które automatyzują definiowanie zadań i zarządzanie procesami backupu. 14. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 15. Trzeci element całego systemu stanowią mechanizmy odzyskiwania danych (recovery). W konsoli Data Protection Manager wskazujemy, które dane i z którego serwera chcemy odtworzyć. Wskazujemy punkt odzyskiwania (czyli czas wykonania kopii zapasowej) oraz lokalizację przywracania (lokalne dyski, chmura). Klikamy przycisk Recover. Na koniec decydujemy, czy obiekt z kopii ma zostać przywrócony do loka- lizacji źródłowej, czy innego, wskazanego folderu na dysku. W scenariuszu pokazaliśmy, że za pomocą Data Protection Manager możemy po pierwsze – tworzyć kopie zapasowe dowolnych danych do chmury, po drugie – w łatwy sposób zarządzać całym systemem backupu i po trzecie – szybko i wygodnie odzyskać potrzebne dane do wskazanego miejsca w czasie. Naszym celem było przedstawie- nie Data Protection Manager jako narzędzia zarządzania backupem, które umożliwia intuicyjne i nieskomplikowane tworzenie kopii zapasowych i przywracanie danych w dużej organizacji. Odtwarzanie danych Podsumowanie części III W tym momencie rozpoczyna się proces odzyskiwania. System podłączy się do Windows Azure, sprawdzi, czy kopia rzeczywiście istnieje oraz pobierze potrzebne dane do lokalizacji użytkownika. Pewne opóźnienie, które można zauważyć na tym etapie, jest niezależne od wielkości przywracane- go pliku. Procedura, którą system musi przejść, zajmuje określoną ilość czasu, bez względu na to, czy plik zajmuje 2 KB, 2 MB czy 2 GB. Czas ten zależy również od ilości danych, którą przechowuje- my w chmurze. Nie jest to jednak w żaden sposób uciążliwe. Data Protection Manager jest narzędziem godnym polecenia, w szczególności jeśli musimy zarzą- dzać backupem z większej liczby serwerów. Przypomnijmy, że Data Protection Manager jest częścią rozwiązań System Center, które warto wykorzystać do zarządzania środowiskiem IT w przedsiębior- stwie. Data Protection Manager nie jest produktem sprzedawanym oddzielnie. Decydując się na Data Protection Manager warto rozważyć możliwość wdrożenia całej rodziny Sys- tem Center, a przynajmniej sprawdzić, jaką wartość dodaną otrzymamy wykorzystując inne aplika- cje tego pakietu w naszej organizacji. System Center jest bowiem dużym pakietem narzędzi, które w istotny sposób ułatwiają zarządzanie systemami informatycznymi w przedsiębiorstwie. Ustalamy, ile razy dziennie (lub tygodniowo) i o której godzinie Data Protection Manager ma wyko- nać synchronizację danych do chmury. W trakcie pierwszej synchronizacji następuje wyniesienie pełnej kopii zapasowej do zewnętrznej lokalizacji. Później mamy do czynienia wyłącznie z synchro- nizacją przyrostową. Nigdy nie ma sytuacji, w której raz przekazane dane są ponownie przesyłane do Windows Azure. Mechanizm ten pozwala efektywnie korzystać z łączy internetowych oraz istot- nie skraca czas backupu danych do chmury. 15. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 16. Hybrydowy magazyn danych – dodatkowe zabezpieczenie dla danych przechowywanych lokalnie StorSimple jest niezbędnym elementem do budowy hybrydowego magazynu danych. Nie jest to więc proste urządzenie do tworzenia backupu, jak mogłoby się początkowo wydawać. Ideą hybrydowego magazynu danych jest rozwiązanie problemów poprzez integrację lokalnego środowiska z chmurą publiczną. Lokalnie korzystamy z wbudowanej pamięci StorSimple, jednak mamy również możli- wość składowania tych danych bezpośrednio w chmurze. Hybrydowy magazyn danych Kluczowym założeniem do wdrożenia tej architektury jest przekonanie, że dane przechowywane lokalnie mogą zostać utracone np. na skutek awarii, katastrofy. W przypadku hybrydowego magazy- nu, kopia tych danych pozostaje zabezpieczona w chmurze. 16. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 17. StorSimple to samodzielna macierz SAN klasy korporacyjnej wypo- sażona w dyski SAS lub SSD. Urządzenie umieszczane jest w cen- trum danych przedsiębiorstwa. Innymi słowy, StorSimple to pamięć masowa, w której montujemy potrzebną liczbę dysków różnego rodzaju, a następnie instalujemy w szafie w lokalnej serwerowni. StorSimple jest urządzeniem do tworzenia kopii zapasowych, które zostało wyposażone w funkcje deduplikacji oraz kompresji danych. Deduplikacja ma na celu wyeliminowanie powtarzających się blo- ków danych, z kolei mechanizmy kompresji pozwalają składować na urządzeniu większą liczbę plików i obiektów innego typu. Dzięki połączeniu głównego magazynu danych oraz archiwum kopii zapasowych w jednym urządzeniu, StorSimple staje się kluczowym elementem planu odzyskiwania danych w przypadku katastrofy (disaster recovery). Dzięki StorSimple nie musimy wykonywać kopii zapasowych na nośnikach zewnętrznych, przewozić tych nośników do odległej lokalizacji oraz tworzyć złożonych, trudnych do testowa- nia planów disaster recovery. W tym przypadku rezygnujemy z prowadzenia testów odzyskiwania, które wymagają transportu taśm z zewnętrznej lokalizacji, dzięki czemu oszczędzamy czas i pieniądze. StorSimple Cechy StorSimple StorSimple i disaster recovery StorSimple umożliwia integrację lokalnego środowiska z chmurą Windows Azure. Z tego względu StorSimple jest kluczowym elementem, który umożliwia stworzenie hybrydowego magazynu da- nych. W magazynie tym możemy umieszczać dane lokalnie i w chmurze, bez zastanawiania się w jaki sposób zarządzać tymi danymi na poziomie lokalizacji. Operacja ta jest w pełni zautomatyzowana przez StorSimple. Oprogramowanie StorSimple, podob- nie jak Windows Backup i Data Protection Manager, ma zaimplementowane funkcje współpracy z chmurą. Zasadnicza różnica polega na tym, że w przypadku StorSimple nie potrzebujemy instalo- wać dodatkowych agentów na chronionych punktach końcowych, ani używać dodatkowego sprzętu. StorSimple samodzielnie łączy się z chmurą. Wszystko, czego potrzebujemy, to aktywne połączenie z internetem i subskrypcja w Windows Azure. StorSimple włączamy do lokalnej infrasturktury IT przedsiębiorstwa za pomocą protokołu iSCSI. Urządzenie umożliwia backup z fizycznych serwerów i maszyn wirtualnych. StorSimple posiada certy- fikaty Hyper-V i VMWare, które gwarantują kompatybilność z tymi rozwiązaniami do wirtualizacji. Z perspektywy serwera, dyski hybrydowe w StorSimple widoczne są jako zwykły wolumen (LUN). 17. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 18. Spróbujmy przybliżyć słuchaczom, w jaki sposób StorSimple auto- matyzuje proces backupu i odzyskiwania danych. W StorSimple za- stosowano technologię tworzenia migawek (snapshots) do chmury. Dzięki temu urządzeniu jesteśmy w stanie odzyskać kopie zapasowe niemal natychmiast, kiedy będziemy ich potrzebować. Elastyczne polityki automatyzacji wykonywania kopii pozwalają na stworzenie scenariusza, który spełni oczekiwania nawet najbardziej wymagają- cych administratorów. W StorSimple zastosowano szereg rozwiązań technologicznych, które do niezbędnego minimum ograniczają ilość danych przesyła- nych do chmury publicznej. Mowa tu o mechanizmach deduplikacji, thin provisioning oraz kompresji danych. Dzięki thin provisioning narzędzie do backupu „widzi” większą ilość dostępnych zasobów dyskowych, niż wynika to z faktycznej pojemności pamięci masowej. Przejdźmy do kwestii podłączenia StorSimple do chmury publicznej. Pierwszym krokiem jest założenie subskrypcji w Windows Azure. Następnie tworzymy magazyn danych w chmurze. Nadajemy mu nazwę oraz wskazujemy miejsce, w którym będą przechowywane nasze dane. Automatyzacja backupu Efektywne wykorzystanie łączy internetowych Geolokalizacja Windows Azure StorSimple wysyła dane do Windows Azure za pomocą bezpiecznego protokołu HTTPS. Dane, zanim zostaną przekazane do chmury, są szyfrowane na urządzeniu algorytmem AES-256. Jest to roz- wiązanie zbliżone do zastosowanego w Windows Backup i Data Protection Manager, choć warto zauważyć tutaj pewne różnice. W Data Protection Manager za szyfrowanie danych odpowiada agent usługi. W drugim przypadku szyfrowanie odbywa się po stronie StorSimple za pomocą klucza pry- watnego, który generujemy przy konfiguracji samego urządzenia. Dla testowych subskrypcji dostępna jest wyłącznie lokalizacja w Azji. W przypadku zakupu usług w Windows Azure mamy do wyboru dwie lokalizacje w Europie. W opcjach georeplikacji możemy zdecydować, czy dane przechowywane w chmurze będą repliko- wane w dwóch lokalizacjach. W Windows Azure mechanizmy georeplikacji są domyślnie włączone. A zatem, jak zostało już wcześniej powiedziane, od razu mamy sześć kopii naszych danych w dwóch Ciekawostka: Pojedyncza subskrypcja Windows Azure pozwala na zamawianie wielu usług w chmurze w ramach jednego, comiesięcznego zobowiązania np. 1000 euro. Kapitał ten może zostać wykorzystany na wynajem przestrzeni dyskowej (storage), maszyn wirtualnych, zakup usług powiadomień, obsługę stron WWW czy przetwarzanie dużej ilości danych (klaster HDInsight). 18. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 19. 19. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft różnych lokalizacjach. Zwróćmy uwagę, że wynajem przestrzeni dyskowej jest nieco wyższy w przy- padku włączenia usługi georeplikacji. W tym miejscu warto wyjaśnić kwestie przechowywania kopii w pamięci masowej Windows Azure. Każda z trzech kopii danych, składowanych w pojedynczym centrum danych Microsoft, jest roz- mieszczona w innej szafie (rack), aby zminimalizować ryzyko utraty danych np. na skutek awarii nośnika pamięci. Wróćmy do naszego przykładu. Logujemy się do panelu zarządzania StorSimple. Na stronie podsumowania widzimy informację o prze- strzeni dyskowej dostępnej w urządzeniu oraz statystyki przepływu danych (odczyt i zapis). Przestrzeń ta obejmuje pamięć masową w StorSimple oraz w Windows Azure. Dodajmy, że ilość danych, które będziemy mogli składować w chmurze zależy od posiadanego mo- delu StorSimple. Idziemy dalej. W konfiguracji StorSimple definiujemy: nazwę ma- gazynu wyświetlaną na urządzeniu, typ usługi, do której chcemy się podłączyć (tutaj: Windows Azure) oraz opcje szyfrowania transmisji danych do chmury (SSL). StorSimple i magazyny danych Bezpieczeństwo danych Na rynku dostępne są cztery modele urządzeń StorSimple. Modele te różnią się ilością danych, które możemy przechowywać w pamięci lokalnej i w Windows Azure. StorSimple może obsługiwać do 64 różnego rodzaju magazynów danych. Dzięki temu możemy skonfigurować urządzenie do składowania danych w wielu centrach danych np. w Europie Północ- nej i Europie Zachodniej. Mechanizm ten można wykorzystać do zarządzania dostępem. Wyobraźmy sobie 10 różnych maga- zynów, z których każdy zarządzany jest oddzielnie. Podejście to pozwala wyróżnić magazyny danych dla różnych działów przedsiębiorstwa i obciążać je rzeczywiście ponoszonymi kosztami wynajmu pamięci masowej. Inne zastosowanie tego mechanizmu umożliwia wydzielenie oddzielnego maga- zynu danych na pliki, a innego na obrazy dysków maszyn wirtualnych. Mimo, że możemy zrezygnować z szyfrowania transmisji do chmury, dane na dysku nadal pozo- staną zaszyfrowane. Dodajmy, że bezpieczeństwo danych gwarantowane jest na wielu poziomach. Dane są podzielone (poszatkowane) na bloki, zdeduplikowane, skompresowane, szyfrowane na dyskach urządzenia i ponownie szyfrowane w trakcie przesyłania ich przez internet za pomocą protokołu SSL.
  • 20. 20. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Wróćmy do samej konfiguracji urządzenia. Podajemy nazwę magazynu w chmurze, a następnie w oknie ustawień StorSimple wprowadzamy klucz zarządzania (ciąg znaków) wygenerowany w Windows Azure. Klucz ten służy autentykacji urządzenia w środowisku chmury. Do dyspozycji mamy dwa klucze na wypadek utraty pierwszego z nich. Klikając przycisk Verify możemy sprawdzić poprawność konfiguracji StorSimple do współpracy z Windows Azure. W tym momencie jesteśmy gotowi do korzystania z hybrydowego magazynu danych. W StorSimple zamontowano dwa kontrolery iSCSI. Każdy kontroler wyposażony jest w cztery porty sieciowe, które zapewniają nadmiarowość połączeń. Kontrolery te skonfigurowane są do pracy w trybie failover. W przypadku awarii głównego kontrolera, jego zadania przejmuje drugi – sprawny. Identyczne rozwiązania stosowane są w konkurencyjnych macierzach dyskowych klasy korporacyjnej. StorSimple może być zarządzany z poziomu panelu webowego (jak we wcześniejszym przykładzie) lub konsoli MMC w systemie Win- dows. Z poziomu konsoli możemy wdrażać polityki zabezpieczeń (kiedy i jak mają być nasze dane backupowane), tworzyć nowe grupy wolumenów oraz przywracać obiekty z kopii zapasowych. Użytkow- nik ma wybór, czy będzie korzystał ze znanej sobie przystawki MMC, czy też z portalu webowego. Mimo pewnych ograniczeń, konsola może zostać wykorzystana do codziennej administracji StorSimple i odzyskiwania danych. Cechą StorSimple jest jego odporność na pojedyncze punkty awarii. Wszystkie komponenty wykorzystane do jego budowy są zdublowa- ne. Mamy możliwość wymiany wybranych podzespołów w trakcie pracy urządzenia („na gorąco”). W ten sposób zastąpimy zepsuty zasilacz, czy kontroler sieciowy. W prezentowanym urządzeniu zamontowano trzy dyski SSD oraz sie- dem dysków SAS. Wszystkie dyski zostały skonfigurowane do pracy w macierzy RAID 10, która gwarantuje wysoką wydajność operacji odczytu-zapisu oraz niezawodność przechowywania danych. Zarządzanie StorSimple Komponenty StorSimple Dywersyfikacja dysków
  • 21. W tym momencie należy zadać sobie pytanie, czy efektywne zarzą- dzanie danymi ma znacznie? Odpowiedź jest prosta – tak. Dane w momencie ich utworzenia są używane regularnie. Wraz z upły- wem czasu przestają być one potrzebne, nie są wykorzystywane na bieżąco, a więc powinny zostać zarchiwizowane. Problem ten rozwiązuje trójwarstwowa architektura składowania danych w macierzy dyskowej zaimplementowana w StorSimple. W tym celu wykorzystywane są zaawansowane algorytmy klasyfi- kacji, które na podstawie wieku pliku i częstotliwości jego użycia, decydują o tym, w jakiej warstwie przechowywania danych zosta- nie on zapisany. Przepływy danych Trzy warstwy składowania danych Macierze dyskowe są drogimi urządzeniami. Z perspektywy efektywnego zarządzania danymi, w praktyce przechowujemy niepotrzebne dane (archiwalne) na bardzo drogim sprzęcie. W wielu przypadkach realna potrzeba wykorzystania tych danych w żaden sposób nie racjonalizuje nam kosztu ich przechowywania na macierzy. Zawsze mamy możliwość wyniesienia tych danych do archiwum na nośniki zewnętrzne. W tym kontekście pojawia się problem, w jaki sposób stwierdzić, że wybrany zestaw danych przestały nas interesować i co zrobić w sytuacji, w której okaże się, że jednak są potrzebne? Z naszego doświad- czenia wynika, że ok. 80% danych jest utrzymywanych jako dane archiwalne. Przykładowo, rzadko używane pliki są klasyfikowane jako dane archiwalne i przenoszone do chmu- ry. Dane wykorzystywane na bieżąco tzw. dane „hot”, są przechowywane na dyskach SSD w lokalnej macierzy, aby zapewnić najszybszy dostęp do nich, przy najmniejszych opóźnieniach. Koncepcja ta podnosi ogólną wydajność całego systemu. Na poziomie nośników SSD StorSimple wykorzystuje mechanizmy deduplikacji, aby wyeliminować konieczność przechowywania tych samych, powtarza- jących się, bloków danych. Zastanówmy się, co dzieje się w sytuacji, których danych najczęściej używanych jest więcej niż dostępnej przestrzeni na dyskach SSD? Jeśli przekroczymy górną granicę przechowywania na tych dyskach, rzadziej używane pliki zostają przeniesione na wolniejsze, ale równie wydajne dyski SAS. Na tym poziomie dane te są dodatkowo kompresowane. Podsumujmy – w warstwie pierwszej (dyski SSD) dane są umieszczane na bieżąco, w momencie ich utworzenia przez użytkownika. StorSimple sprawdza, czy w macierzy nie są przechowywane już takie same pliki. Jeśli tak się dzieje, urządzenie wykorzystuje mechanizmy deduplikacji, aby zaosz- czędzić miejsce potrzebne do składowania powtarzających się bloków danych. Rzadziej używane pliki przesuwane są do drugiej warstwy (dyski SAS). Dane te są kompresowane. Jeśli okaże się, że pliki te nie są używane przez dłuższy czas, StorSimple przenosi je do warstwy trzeciej, czyli chmury. Siłą StorSimple jest więc wbudowana logika, która automatyzuje procesy związane z przechowywaniem danych na nośnikach różnego typu, w tym chmurze. 21. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  • 22. W StorSimple mamy kilka metod wykonywania kopii zapasowych. Urządzenie wykonuje migawki (snapshots) lokalnie bądź do chmury. Wielu osobom słowo migawka kojarzy się z punktem w czasie. Musi- my mieć pełną kopię, aby przywrócić dane do tego punktu. W Stor- Simple migawka jest kompletną kopią zapasową. Nie potrzebujemy mieć pierwotnych danych, aby przywrócić je do stanu wyjściowego. Backup i odtwarzanie danych Na zaprezentowanym wykresie porównano trzy techniki wykonywania kopii zapasowych – klasyczny backup taśmowy oraz backup danych do Windows Azure z wykorzystaniem zwykłych narzędzi oraz przy użyciu StorSimple. StorSimple umożliwia w jak najkrótszym czasie odzyskać potrzebne dane. Wynika to z innowa- cyjności wbudowanych w urządzenie technologii. StorSimple nie pobiera pełnych danych z kopii, a jedynie indeks przechowywanych w niej obiektów (metadane). Indeks ten umożliwia wskazanie obiektów, które należy rzeczywiście odzyskać z backupu. Nie ma potrzeby pobierania z chmury całego woluminu. 22. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Porуwnanie trzech technik wykonywania kopii zapasowych
  • 23. Microsoft udostępnia StorSimple za darmo, pod warunkiem pod- pisania umowy na subskrypcje usług w chmurze Windows Azure (Enterprise Agreement) przynajmniej na 50 000 dolarów. Kwota ta nie musi zostać wykorzystana na magazyn danych. W ramach subskrypcji możemy korzystać z innych, bogatych usług Windows Azure. Dodajmy, że koszt zakupu StorSimple na wolnym rynku wy- nosi ok. 70 000 dolarów. Koszty zakupu 23. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft W trakcie webinarium omówiliśmy trzy rozwiązania, które poma- gają w codziennym backupie naszego środowiska. Wydaje się, że każde z nich było bardzo wygodne i proste w obsłudze. Z jednej strony mamy znane interfejsy, z drugiej brak konieczności prze- noszenia danych do zewnętrznej lokalizacji (off-site). Wszystkie te rozwiązania cechuje wysoka niezawodność. Mamy trzy lub sześć replik danych w dwóch centrach danych Windows Azure. Do tego dochodzi SLA na poziomie 99,95% dostępności pamięci masowej w chmurze. Na koniec dodajmy, że Windows Azure i StorSimple ściśle integrują się z rozwiązaniami firmy Microsoft instalowanymi lokalnie, w serwerowni przedsiębiorstwa. Na początku prezentacji powiedzieliśmy, że pamięć masowa Windows Azure umożliwia ograni- czenie kosztów backupu nawet o 60%. 1 TB danych przechowywanych miesięcznie w chmurze Microsoft kosztuje ok. 20 euro. To niewiele porównując cenę wynajmu dysku z kosztami wdro- żenia własnej infrastruktury backupu (zakup macierzy, przełączników, okablowania) oraz jego utrzymania (zarządzanie, przenoszenie danych na taśmę itd.). Na koniec spróbujmy przyjrzeć się prostej symulacji kosztowej. Zakładamy, że firma ma 100 GB danych. W pierwszym wariancie zakładamy zakup biblioteki taśmowej oraz taśm. W drugim przykładzie firma przechowuje kopie zapasowe w Windows Azure. Z uwagi na fakt, że w obu wariantach istnieje możliwość wykorzystania tych samych aplikacji backupu np. Data Protection Manager w symulacji pominięto koszty zakupu oprogramowania. W przypadku Windows Azure płacimy jedynie za wykorzystane miejsce, a koszty narastają z cza- sem. Po trzech latach koszt utrzymania kopii zapasowych wynosi ok. 1200 euro. Dla porównania, koszt inwestycji we własne rozwiązanie backupu wynosi od 5000 euro za samą macierz dyskową. Z zaprezentowanych w webinarium przykładów wynika więc jasno, że rozwiązania oparte o chmurę są proste, wygodne, elastyczne, bezpieczne i efektywne kosztowo. Podsumowanie