5. SQL Server : les scénarios les plus communs
Stocker, sauvegarder /
restaurer les données
Développer, tester et
exécuter les applications
Etendre une
infrastructure existante
Aller là où un « data
center » ne peut aller
• SharePoint en IaaS
• SQL en IaaS
• Développements et
tests sur un
environnement IaaS
<subnet 1><subnet 2><subnet 3>
• Architecture hybride • Websites en IaaS
• Websites en PaaS
G
Virtual Network
DNS Server
data auth push
6. Microsoft Azure : responsabilités
Infrastructure (IaaS):
• Microsoft gère le matériel et la
technologie de virtualisation
Plateforme (PaaS):
• Microsoft gère tout SAUF les
applications et les données
8. Disk Caching : bonnes pratiques pour SQL Server
8
Disque système
« Read Write » par défaut. Réduit les temps de
latence en lecture pour les applications
consommatrices d’IOs (bases de données <=10Go)
Disques de données
Cache désactivé par défaut . Ne pas activer pour
des applications qui effectues de nombreux
« Random IO » (OLTP).
Activer le cache pour les applications qui réalisent
beaucoup d’opérations de lecture qui peuvent être
sensibles aux temps de latences
9. Configuration 1 seul disque
9
• Recommandé pour un stockage <1To
• Performance acceptable (<500 IOPs)
• Complexité minimale
10. Configuration plusieurs disques
10
• Plusieurs disques
• Si besoin de plus d’1To
• Si besoin de beaucoup d’IOPS
• 2 choix de configuration :
• Séparation des fichiers de données et des logs du système
d’exploitation. Pour les très grosses bases, création de plusieurs
fichiers de bases de données qu’il est possible de séparer sur
plusieurs disques
• Création d’un volume agrégeant plusieurs disques (Windows
Server 2012 storage space)
11. Images de machines virtuelles optimisées
Agilité
Images disponibles depuis la galerie Azure
Utilise « Windows Storage Spaces » pour réduire la latence et
améliorer la performance au niveau des IO
Contrôle
Simplification du process d’installation
Automatisation possible par script PowerShell
Coût
Modèle de prix conforme à la politique tarifaire d’Azure.
Prédictibilité
12. SQL Server et les VM série D
12
• Les machines virtuelles (VM) séries D proposent des
processeurs plus rapides et un disque local SSD
• Le disque local SSD peut être utilisé pour :
‐ TempDB
Plusieurs fichiers pour la base TempDB peut réduire la contention
1 fichier par coeur jusqu’à 8 coeurs (ce n’est pas une règle
absolue). Au-delà de 8 coeurs….faire des tests
‐ Le buffer pool Extension
Disponible depuis SQL Server 2014
13. Autre scénarios SQL dans Azure
Haute disponibilité et « disaster recovery » dans Azure
• Disponibilité des serveurs SQL sur site ou dans Azure (hybride)
• Utiliser d’autres serveurs SQL dans des VM dans la même région Azure
• Support d’AlwaysON avec des serveurs primaire et secondaires
Business Intelligence (BI)
• Création de cubes Olap
• Serveur de rapports Reporting Services
• BI complète avec SharePoint
16. Azure SQL Database
Workload
transactionnels légers
Workload
transactionnels moyens
Worload
transactionnels lourds
Niveau de
performance unique
Worload
transactionnels lourds
Elasticité et performance
Continuité de service
Familier et managé
18. « Self-service restore »
• Sauvegardes automatiques dans
Azure Storage
• Logs transactionnels périodiques
(5 mn)
• Copie d’une base sans
interruption de service
• API REST, PowerShell ou portail
Azure
• Politique de rétention des
sauvegardes:
• Basic, dernier état connu (max 24
heures)
• Standard (max 7 jours)
• Premium (max 35 jours)
Geo- replicated
Restore from backup
SQL Database
Backups
sabcp01bl21
Azure Storage
sabcp01bl21
19. Geo- replicated
SQL Database
Backups
sabcp01bl21
Azure Storage
sabcp01bl21
Restore to any
Azure region
« Basic Recovery »
• Disponible pour
les services Basic,
Standard et
Premium
• Bâti sur le « self-service
restore »
• Restauration de la
base sur n’importe
quelle région
20. Geo- replicated
« Geo-réplication »
• Inclus en Standard
• Création d’un serveur
secondaire passif
• Réplication dans une
région Azure prédéfinie
• Réplication automatique
et asynchrone des
données
• API REST, PowerShell ou
portail Azure
• RTO < 24h, RPO < 1h
21. « Active Geo-Replication »
• Activation self service en mode
Premium
• Création de serveurs secondaires
accessibles en lecture (max 4)
• Réplication sur n’importe quelle
région Azure
• Réplication automatique
asynchrone des données
• REST API, PowerShell ou Portail
Azure
• RTO < 1h, RPO < 5mn
• Possibilité Bascule déclenchée par
l’utilisateur
Up to 4
secondaries
25. Terminologie
(6) Sharded Table
(1)
Database
(2) Sharding Key
. . .
(3) Shard Map
Manager
(4)
Shard
(4) Shard
(5) Shard Set
(8) Shardlet
Customer Table
Customer ID Name
Data Center Table
(7) Reference Table
1 Alice
2 Bob
Data Center ID DC Name
1 Boston
2 Miami
28. Azure SQL Database : Prochainement
• Nouvelle preview à venir fin 2014
• Surface fonctionnelle plus grande
• Performances améliorées
• In-memory columnstore
• Parallel queries
• Rebuild d’index > 2Go
• Nouveau tiers pensé pour les éditeurs
• Besoin d’un grand nombre de base de données
• Gestion des ressources pour l’ensemble de ces bases
29. Azure Search (20’)
Benjamin Moulès – Microsoft
Pierre Therrode – Reezocar
32. Mise à disposition du service
Définir la capacité, le niveau de tiers, accès à
l’authentification
Depuis le portail ou l’API
1 ou plusieurs indexes
Nom du service -> API root URL
ex: https://monsvc.search.windows.net
33. Créer des indexes
C’est une collection de documents
Il y a un schema!
De nombreuses options comme du “scoring”,
“ranking”…
Le nom de l’index -> API URL:
ex: https://monsvc.search.windows.net/indexes/monindex
34. Créer des indexes - Schéma
Liste des champs et leurs configurations
Type de données: string, int, double, datetime, boolean, geo-point
Valeurs uniques ou collections
Pour chaque champ, préciser si on veut l’utiliser pour …
Recherche
Suggestion
Filtre
35. Indexer des données
Les données sont indexés par batches
Par paquet de maximum 1000 opérations: upload, merge, delete or mergeOrUpload
POST vers https://monsvc.search.windows.net/indexes/monindex/docs/index
Succès de la réponse garanti la durabilité
Le client doit valider les statuts de réponses HTTP pour chaque opérations individuelles
Les données sont indexés et donc « recherchable » quelques secondes
après.
On doit l’indexer, ce qui va dépendre de l’activité du système
36. Rechercher
La portée de la recherche est défini par son index
L'API de recherche offre un certain nombre d'options:
Recherche par « full-texte », incluant les opérateurs de recherche classiques (+, -,
« », …)
Requêtes possible: filtrage, tri, pagination et la sélection de champ
Recherche par facettes
Mise en évidence de Hit
Des résultats incluant des scores plus les champs
demandés
Peut-être utilisé pour remonter les résultats sans contacter le magasin primaire
37. Rechercher - Suggestions
Construire des blocs pour de l’auto-complétion
Recherche de texte partiel -> liste de suggestions
Balance complexe entre vitesse et fonctionnalités
Exécuté alors que tu tapes!
Les suggestions viennent des données du document
On doit définir l’option dans la définition de l’index
47. Vue d’ensemble
Modèle de ressources
Entités adressables par URL
Partitionné pour scale out
Répliqué pour HA
Entités représentées en JSON
Évolutivité par ajout de Capacity Units
{ }
{ }
JS
JS
JS
50. Le besoin
• Script, Batch, Service Windows… quelle architecture
n’en a jamais eu besoin ?
• Effectuer des traitements en tâche de fond :
• Intégration de données externes
• Traitements asynchrones
• Nettoyage / optimisation de données
• …
51. Les différentes possibilités
Worker rôle
L’historique !
VM IaaS
Un sentiment de
liberté !
Web Jobs
Petit nouveau
plein de potentiel!
+
• Scalable
• Permet de faire tourner
n’importe quel traitement
-
• Compliqué à développer,
debugger, monitorer
• Scheduling manuel ou via
le Scheduler Azure
+
• Simple à déployer
• Simple à développer
• Scheduler de Windows
-
• Scalabilité plus
complexe à mettre en
oeuvre
• Il faut gérer une VM…
+
• Orienté PaaS
• Simple et complet
• Configuration par un IT
Pro comme par un Dev
• Un vrai scheduler Cloud !
-
• Pas d’action sur l’OS
(PaaS)
52. Zoom sur les WebJobs
• Un WebJob dans Azure c’est :
• Hébergé dans un Website : Ni VM, ni Cloud Service, WebJob == Website !
• Tourne dans le process IIS : tant que celui-ci est disponible
• (auto)Scalable comme un Website
• L’ensemble des avantages du Website (Stagging, modes gratuits…)
• L’écriture d’un WebJob c’est :
• IT : Un script PowerShell, .cmd, .bat, .sh, PHP, Python ou Node < 100 Mo
• DEV : Une application .NET créée à partir d’un modèle
54. WebJob : Déclenchement
• Méthode 1 : Déclenchement par le Scheduler
• Utilisation du Azure Scheduler (planificateur)
• Configuration assistée depuis le WebJob
• Configurée avancée depuis le Scheduler
• Ex : Déclenchement récurent à certains jours, chaque week-end, par
intervalle de temps d’attente…
56. WebJob : Déclenchement
• Méthode 2 : Déclenchement par interaction externe
• Déclenchement à l’apparition d’un message
• Microsoft Azure Storage Blobs, Queues ou Table…
• …ou Service Bus Queues
• Nécessite l’utilisation du Azure WebJobs SDK
• Ex : Traitements asynchrones entre systèmes
57. WebJob : Monitoring
• Le SDK Azure WebJobs offre l’outillage nécessaire pour suivre
chaque action effectuée dans le code
• Le portail Azure offre une interface de monitoring avancée :
• Etat / liste des exécutions de Webjobs planifiés ou déclenchés
• Consultation du log / des erreurs
• Redémarrage en cas d’échec
60. Conclusion
•WebJobs = LA solution pour implémenter les
traitements en tâche de fond
• Simplification du code grâce au SDK WebJobs
• Modèle de déploiement simple et rapide
• Scalabilité de l’infrastructure des Websites Azure
• Traçabilité de l’exécution et monitoring
61. Azure Media Services (30’)
Benjamin Moulès – Evangéliste – Microsoft France
Julien Corioland – Développeur – Infinite Square
62. Tendances de l’industrie digitale
DE PLUS EN PLUS D’ÉCRANS CONNECTÉS, EXPLOSION DE LA DEMANDE ET DES COÛTS
20Md
73
Il y a dans le monde plus
de 7,2 Milliards de devices
et ils se multiplient 5 fois
plus vite que nous!
D’ici 2016, 20 Milliards
d’appareils vont
générer 10.8 Exabytes
(1 EB = 1000 PB) de
données chaquemois
Davantages
d'écrans connectés
63. Avec un écosystème de
partenaires en
croissance permanente,
disposant de solutions
à valeurs ajoutées
Diffusion en-Direct &
à la demande avec
intégration CDN
Protection
de contenu
Qu’est ce qu’on veut dire par
Azure Media Services?
Encodage,
multiplexage,
et indexation
Des composants élastiques
pour construire des flux de
données vidéos sur mesure
dans le Cloud
Téléchargement
vers le Cloud
puis stockage
Player
Clients
64. Fonctionnalités clefs d’Azure Media Services
Distribution CDN Protection
de contenu
Encodage Multiplexage
Rapide, écriture parallèle,
sécurisé et protection
aussi bien pendant le
transit des données ainsi
que dès leur stockage
dans le cloud.
Téléchargement montant
en HTTPS et en UDP
rapide des fichiers vidéos
Ingestion RTMP pour le
direct
Cloud élastique
permettant de gérer des
centaines, voire des
milliers de tâches
s’encodage parallèles vers
de multiples formats
vidéos et audio (H.264,
WMV, VC-1, Dolby Digital,
AAC, …), création de MP4
multi-débits, ou bien
utilisation d’encodeurs
tiers intégrés comme celui
d’imagine (Digital Rapids
Kayak) pour des
fonctionnalités premiums.
Utilisation de protocoles
de streaming adaptatifs
performant – HLS (V3, V4),
Smooth, MPEG-DASH – de
sorte à atteindre les
différents types d’écrans
connectés populaire
d’aujourd’hui tel que iOS,
Android, Windows 7/8,
Xbox 360/One, et bien
plus encore.
Chiffrement avec de
« l’AES 128-bit Clear Key »
ou bien utilisation de
technologie de gestion de
droits numériques (DRM -
Digital Right
Management) avec
PlayReady.
Ces deux options
disposent de la possibilité
d’héberger les clefs de
License dans le Cloud.
Support de flux vidéo à la
demande
Support du direct
Distribution
Gestion du cache et
livraison dans toute les
géographies de vos
données avec l’Azure CDN
ou bien des CDN tiers qui
se connectent de manière
sécurisés à nos origines.
Aussi possible d’utiliser
une authentification basée
sur un token ou des
fonctionnalités de geo-blocking.
Livraison vers tous les plus
populaires appareils du
marché incluant les PCs
(Windows et Mac OS), iOS,
Android, Smart TVs,
console de jeux, et plus
encore.
Parmi nos lecteurs
disponible, nous avons
Ooyala, Deltatre, JW
Player, OSMF ou bien de
construire votre propre
Lecteurs avec le
framework Microsoft
Player Framework SDK
Téléchargement
Lecteurs
Clients
Annoncés au début de l’automne 2014!
Streaming Live, Encodage plus rapide et moins cher, Protection dynamique,
Clef et licence délivrée en tant que service, Indexation de contenu, davantage de lecteurs
65. De nouvelles unités
réservées Standard et
Premium
Accède à la capacité et aux
performance dont vous avez
besoin pour vos débordements
dans le Cloud.
Vitesse d’encodage
2x
Rapide
Basic Standard Premium
Performance
4-5x
Rapide
66. Azure Media Encoder Premium Workflow
Support des formats utilisés par les studios et
les broadcasters
Création du processus d’encodage dans un
environnement simple et visuel
Soumission du workflow à Media Services
67. Azure Media Services – Indexation de contenu
• Conversion de la voix vers du texte
• Recherche via une très large librairie de
contenu pour un terme spécifique ou une
phrase
• Indexe des milliers d’heures de contenu
vidéo avec une technologie de
reconnaissance naturelle du langage
• « Le Washington Post est reconnu pour son expertise en politique. Nous
utilisons Microsoft Azure Media Services Content Indexer afin de nous aider à
constuire un moyen révolutionnaire de partager cette expertise sur le Web. »
69. • Player Frameworks, SDKs et lecteurs d’exemple
• Support de multiples protocoles dans Azure Media Services
• Distribution premium avec PlayReady / AES Clear Key
• Monétisation avec Publicités
• Captures de donnés pour les statistiques
• Fonctions avancés pour la sélection du flux, des angles de
caméra, …
• Partenariats avec des acteurs comme JW Player
70. Une interface utilisateur,
simple à utiliser qui pilote
Azure Media Services
Dernière version
http://aka.ms/amse
Code source
https://github.com/Azure/Azure-Media-Services-
Explorer/
Article
http://azure.microsoft.com/blog/2014/10/08/managi
ng-media-workflows-with-the-new-azure-media-services-
explorer-tool/
71. Multiplexage dynamique
Vous permet de ré-utiliser votre contenu encodé et de le multiplexer vers d’autres formats de streaming sans avoir
à stocker une version différente de votre contenu.
Sources video MP4 multi-débits
Serveur origine
HLS
Smooth
Streaming
Encodage
Encodage
Sources video MP4 multi-débits
HLS
v3, v4
Smooth
Streaming
Multiplexage
Dynamique
Ou Contenu Smooth Serveur origine
Encodage et multiplexage traditionnel
Multiplexage dynamique
MPEG
DASH
HDS
72. Multiplexage dynamique et chiffrement dynamique
Video sources
Chiffrement
Smooth Streaming
Serveur de streaming
Smooth
Streaming
+ PlayReady
Encodage
Dynamic
Packaging
Chiffrement statique
DASH
+ CENC
PlayReady
Smooth Streaming
+ PlayReady
Video sources Multi-bitrates Mp4
Or Smooth Asset
Serveur de streaming
HLS
+ AES ou PlayReady
Smooth
Streaming
+ AES ou PlayReady
Encodage
Dynamic
Packaging and
Encryption
Chiffrement dynamique
DASH
+ CENC
73. Streaming en direct et à la demande
84
Support de tout devices
Multiplexage dynamique
HLS v3 and v4
MPEG-DASH
HDS
Smooth
Chiffrement dynamique
AES clear key
• PlayReady
Signalisation publicitaire multi-protocole
Montée en charge élastique
Génération de flux VOD depuis le live
en temps réel
Supervision quasi-temps réel
Support de d’Azure CDN et CDN tiers
SLA
75. Live Stream - Démo
Channel Azure Storage Streaming Endpoint
Ingest
URL
Preview
URL
Program
URL
RTMP
Webcam + WireCast
Streaming
Adaptif (HLS, Dash,
Smooth…)
(+ AES si besoin)
Notes de l'éditeur
It seems as though SQL Server and databases in general are always one of the last technologies to move to new platforms. That was certainly true with virtualization. For the longest time, many businesses were struggling to move their SQL Server workloads off physical servers and onto virtual machines (VMs). Many were afraid that VMs couldn’t provide enough performance to support resource-intensive SQL Server workloads. Others worried that virtualization wasn’t reliable enough for mission-critical workloads. Fast forward to today. Now it’s common for SQL Server to be virtualized. Furthermore, deploying SQL Server in a VM is the standard practice for most organizations.
Today, the public cloud is in much the same place that virtualization was about four or five years ago. The private cloud technology is just emerging; there are competing standards between Microsoft and VMware, and even questions about private cloud versus public cloud implementations. While cloud technologies continue to grow, most businesses are struggling to move their database resources into the cloud. Some of their main concerns revolve around security, performance, and availability. Although these are valid issues for the public cloud, the private cloud is really another issue altogether.
So what benefits might you gain by moving SQL Server to a public cloud? The Microsoft Azure offers all the benefits that you get from virtualization, plus a level of flexibility and automation that virtualization alone can’t provide. Running SQL Server in the Microsoft Azure can deliver:
Fast application roll-out by deploying multiple VMs as a service
Fast VM deployment, using VM service templates with prebuilt VMs
Dynamic optimization of memory and configured scalability of application front-ends
Slide Objectives
Diving into the most common Cloud scenarios.
Speaker Notes
These are the 4 main business scenarios where a Cloud architecture can fulfill its full potential. Are you considering one or several of these Cloud scenarios?
Here’s how we’ve aligned the available Fast Starts with each of these Cloud scenarios:
Store, back-up, recover your data. This scenario allows enterprises to leverage Microsoft Azure for replication of key services or datacenters, or for back-up and restore services for everything from a single database to that of a whole datacenter. Microsoft offers 2 Azure Fast Start Accelerate packages:
The Azure Fast Start SharePoint on IaaS aims at introducing the customer to the basics of deploying Microsoft SharePoint instances and understanding the requirements for Microsoft SharePoint running on IaaS. After the engagement is over, the customer will be equipped with a better insight on what SharePoint on IaaS can bring to its organization, as well as hand-on experience on the mechanics of deploying SP farms using manual and automated scripts
The Azure Fast Start SQL Server on IaaS aims at introducing the customer to the basics of deploying SQL Server instances and understanding the requirements for SQL Server running on IaaS. It gives an overview on possible migration options for your on-premises SQL environment.
Develop, test, run your applications. Microsoft Azure allows you to quickly create test or development environments. It also provides each virtual machine portability between on premises and the cloud, allowing you to easily deploy your applications to the cloud.
The Azure Fast Start for Dev Test on IaaS delivers a general purpose education for providing a test and development environment on Microsoft Azure . After the engagement is over, the customer will be equipped with a better insight on what Dev Test on IaaS can bring to its organization, as well as hands-on experience to help you build 3 different type of test and development environments for technologies such as SQL or SharePoint using powerful scripts.
Extend your infrastructure. Our third scenario is focused on creating infrastructure services and virtual networks with Microsoft Azure and extending your on premises infrastructure to the cloud.
The Azure Fast Start for IaaS Foundation aims at introducing customer to the basics of connecting on-premises networks and Microsoft Azure and create a foundational hybrid cloud capability. It delivers a general purpose education for providing Infrastructure-as-a-Service cross-premises and focuses on optimized hosting capability for common enterprise Virtual Machine (VM) patterns
The Azure Fast Start for Identity on Microsoft Azure aims at introducing the customer to the basics of the management of Identity & Directory services in Microsoft Azure . It delivers a general purpose education for understanding Identity, Access and Control in Microsoft Azure . The session also covers Azure AD, management, application access and multifactor authentication as well as securing application access
Reach where your datacenter won’t. Finally, you can create websites with global reach, or turkey backend services for mobile applications. You can also leverage Microsoft Azure to integrate key services with partner systems and infrastructure.
The Azure Fast Start for Website on IaaS introduces you to the basics of deploying website instances to the Microsoft Azure platform. After the engagement is over, the customer will be equipped with a better insight on deploying websites using Azure Virtual Machines.
The Azure Fast Start for Website on PaaS introduces you to the basics of deploying website instances to the Microsoft Azure platform. It delivers a solution for providing websites within Microsoft Azure Platform-as-a- Service (PaaS) environment
IT pros also need to set up and configure the application in Microsoft Azure , mainly using the Azure control panels and utilizing technical support as necessary. In addition, the applications themselves usually don’t self-manage (unless your development team is a class above the rest of the planet), so as with on-premise line of business applications you still have to administer that code as well.
The only part of the equation that Microsoft Azure changes is in the area of personnel resource usage. With Azure in play, administrators are freed up from managing industry hardware and software and are available to manage and enhance the service delivery and quality of IT specific to their businesses. (Since when has Data Platform been a profit center, for instance?) Therein is the exact appeal for the business decision maker of Microsoft Azure and why you’re probably going to hear about it very soon, if you haven’t already.
99.95% for multiple role instances
4.38 hours of downtime per year
What’s included
Compute Hardware failure (disk, cpu, memory)
Datacenter failures - Network failure, power failure
Hardware upgrades, Software maintenance – Host OS Updates
What is not included
VM Container crashes, Guest OS Updates
To ensure high availability of your application,
you will need multiple VMs and a load balancer.
To manage availability, add the VMs to an Availability Set.
This locates the VM in different fault domains and increases availability 99.95%.
There can be up to 20 different fault domains.
If a given application cannot use multiple VM instances (meaning that a single VM running the application must be online at all times) then high availability cannot be supported.
Cloud Services, Virtual Machines and Virtual Network
For Cloud Services, we guarantee that when you deploy two or more role instances in different fault and upgrade domains, your Internet facing roles will have external connectivity at least 99.95% of the time.
For all Internet facing Virtual Machines that have two or more instances deployed in the same Availability Set, we guarantee you will have external connectivity at least 99.95% of the time.
For Virtual Network, we guarantee a 99.9% Virtual Network Gateway availability.
I/O sub-system
Storage optimization for SQL Server transactional and analytical workloads is a very important task that requires careful planning and analysis. There is already a tremendous amount of information that explains how to deal with I/O subsystems with different performance characteristics in a traditional on-premises environment, such as spindles, host bus adapters (HBAs), disk controllers, and so on. For more information, see Analyzing I/O Characteristics and Sizing Storage Systems for SQL Server Database Applications.
Azure disks are implemented as a service, so they do not offer the same range of complex configuration options available in traditional on-premises I/O subsystems. This has both benefits and costs. For instance, Azure disks offer built-in local redundancy and optional geo-redundancy for disaster recovery through the use of replicas. To achieve the same level of redundancy in on-premises deployments, you would need to set up multiple disk arrays in multiple locations and a synchronization mechanism, such as, a storage area network (SAN) replication. On the other hand, the Azure disk performance is not as predictable as on-premises disk I/O subsystem due to several factors:
Azure Infrastructure Services is a shared, multi-tenant service. Resources like host machines, storage services and network bandwidth are shared among multiple subscribers.
Performance may vary depending upon where and when you provision your virtual machines due to a variety of factors including differences in hardware. Your virtual machine may get moved to a different host due to a hardware replacement necessitated by a failure or lifecycle refresh.
The performance and availability of your virtual machines may be impacted (positively or negatively) by maintenance operations such as platform upgrades or performance and reliability fixes.
When you use cloud-based storage options in Azure, you sacrifice granular control and deep performance optimization options for lower costs, simplicity and out-of-the-box redundancy.
Azure disks are connected to virtual machines via a network infrastructure and that can introduce higher network latency compared to the local attached disks in on-premises environment.
For a detailed discussion on different storage configurations, see the Best practices and recommendations for optimizing SQL Server performance in Azure VMs section.
The Data Warehousing and OLTP Optimized Images for SQL Server 2014 and SQL Server 2012 are simplifying the setup process for customers by adding more automation. For instance the automation of attaching a disk to the SQL Server VM running a data warehouse workload.
Ability to attach many disks is critical in terms of improving IO in an OLTP workload as the number of disks has a direct impact on OLTP . The optimized images run on Azure VM instances that support up to 16 disks. In both the OLTP and data warehousing VM images, the configuration is conform to Microsoft’s own recommended Performance Best Practices for SQL Server in Azure Virtual Machines:
15 disks are attached to each VM,
and storage is split between one data pool (12 disks, 12TB fixed size)
and one log pool (3 disks, 3TB fixed size).
Starting with Windows Server 2012, Storage Pools are introduced and operating system software RAID capabilities are deprecated. Storage Pools enable you to virtualize storage by grouping industry-standard disks into “pools”, and then create virtual disks called Storage Spaces from the available capacity in the storage pools. You can then configure these virtual disks to provide striping capabilities across all disks in the pool, combining good performance characteristics. In addition, it enables you to add and remove disk space based on your needs.
All OLTP and DWH images are based on our SQL Server Fast-Track best practices.
Enable Business Continuity for critical business applications, such as HR/Payroll or payment processing systems require high SLAs and Disaster Recovery can double your cost and effort. In terms of maintaining disks or tape, large databases can mean expensive, and often slow backups. Using Azure as a subscription-based backup, there's no need for CAPEX, and you can use your existing backup techniques with Microsoft Azure as a target. It's arguably more secure than a traditional backup: Microsoft Azure holds three copies of your data, so it's always available. Getting started can take time, so Microsoft Azure offers the option of letting you make your initial backup on a local disk, that's then transferred to Microsoft and stored in Azure, ready for the rest of your backups over the wire. Backups can be encrypted, and there's even support for older versions of SQL Server.
Rappeler que si on a besoin de plus de capacité, on peut le faire simplement dans l’interface du portail azure avec un slider sur les unités de réplicats & partitions
L’index va définir sur quoi vous pouvez rechercher
Résultats ne vont que taper dans l’index sans recontacter le magasin primaire
Rappeler que si on a besoin de plus de capacité, on peut le faire simplement dans l’interface du portail azure avec un slider sur les unités de réplicats & partitions
Strong: Strong consistency guarantees that a write is only visible after it is committed durably by the majority quorum of replicas. A write is either synchronously committed durably by both the primary and the quorum of secondaries or it is aborted. A read is always acknowledged by the majority read quorum - a client can never see an uncommitted or partial write and is always guaranteed to read the latest acknowledged write.
Strong consistency provides absolute guarantees on data consistency, but offers the lowest level of read and write performance.
Bounded Staleness: Bounded Staleness consistency guarantees the total order of propagation of writes but with reads potentially lagging behind the writes by at most K prefixes. The read is always acknowledged by a majority quorum of replicas. The response of a read request specifies its relative freshness (in terms of K).
Bounded Staleness provides more predictable behavior for read consistency while offering the lowest latency writes. As reads are acknowledged by a majority quorum, read latency is not the lowest offered by the system.
Session: Unlike the global consistency models offered by strong and bounded staleness consistency levels, “session” consistency is tailored for a specific client session. Session consistency is usually sufficient since it provides guaranteed monotonic reads, and writes and ability to read your own writes. A read request for session consistency is issued against a replica that can serve the client requested version (part of the session cookie).
Session provides predictable read data consistency for a session while offering the lowest latency writes. Reads are also low latency as except in the rare cases, the read will be served by a single replica.
Eventual: Eventual consistency is the weakest form of consistency wherein a client may get the values which are older than the ones it had seen before, over time. In the absence of any further writes, the replicas within the group will eventually converge. The read request is served by any secondary.
Eventual provides the weakest read consistency but offers the lowest latency for both reads and writes.
20 minutes
On montre le portail, on déploie un WebJob qui est une appli console
On montre VS, on créé un projet de type WebJob, on le publie et le debug
Sheduling via le portail
Declenchement automatique par stimuli
Rappeler dans quel cas, on va plutôt utiliser PlayReady vs AES Clear Key Encryption