#JSS2014 
Les journées 
SQL Server 2014 
Un événement organisé par GUSS
#JSS2014 
Les journées 
SQL Server 2014 
Hive ou la convergence entre 
datawarehouse et Big Data 
Julien Buret 
David Joubert 
Un événement organisé par GUSS
#JSS2014 
Merci à nos sponsors
#JSS2014 
Speakers 
Julien Buret 
Directeur technique 
@julienburet 
David Joubert 
Consultant Data & Analytics 
@Dj_Uber 
www.djuber.net
#JSS2014 
On va parler de 
• Un peu d’Hadoop 
• Beaucoup de Hive 
– Historique 
– Moteurs d’exécution 
– Stockage 
– Optimisation de requêtes 
• Pas mal de démos 
On ne vas pas en parler 
• De tout le reste 
Autres sessions Big Data 
• APS, l’appliance Big Data, Lundi 
à 15h30 
• Big Data et Real Time, Mardi à 
14h 
Agenda
#JSS2014 
Hadoop : un peu d’histoire 
• Framework aidant au développement 
d’application distribué et scalable 
• Projet débuté en 2005 
– Basé sur 2 papiers de Google (GFS & MapReduce) 
• Projet Apache depuis 2009
#JSS2014 
Map Reduce 
class CompositeKeyWritableRSJ implements Writable, 
WritableComparable<CompositeKeyWritableRSJ> { 
// Data members 
private String joinKey;// EmployeeID 
private int sourceIndex;// 1=Employee data; 2=Salary (current) data; 3=Salary historical data 
public CompositeKeyWritableRSJ() { 
} 
public CompositeKeyWritableRSJ(String joinKey, int sourceIndex) { 
this.joinKey = joinKey; 
this.sourceIndex = sourceIndex; 
} 
@Override 
public String toString() { 
return (new StringBuilder().append(joinKey).append("t").append(sourceIndex)).toString(); 
} 
public void readFields(DataInput dataInput) throws IOException { 
joinKey = WritableUtils.readString(dataInput); 
sourceIndex = WritableUtils.readVInt(dataInput); 
} 
public void write(DataOutput dataOutput) throws IOException { 
WritableUtils.writeString(dataOutput, joinKey); 
WritableUtils.writeVInt(dataOutput, sourceIndex); 
} 
public int compareTo(CompositeKeyWritableRSJ objKeyPair) { 
int result = joinKey.compareTo(objKeyPair.joinKey); 
if (0 == result) { 
result = Double.compare(sourceIndex, objKeyPair.sourceIndex); 
} 
return result; 
} 
public String getjoinKey() { 
return joinKey; 
} 
public void setjoinKey(String joinKey) { 
this.joinKey = joinKey; 
} 
public int getsourceIndex() { 
return sourceIndex; 
} 
public void setsourceIndex(int sourceIndex) { 
this.sourceIndex = sourceIndex; 
} 
} 
public class MapperRSJ extends 
Mapper<LongWritable, Text, CompositeKeyWritableRSJ, Text> { 
CompositeKeyWritableRSJ ckwKey = new CompositeKeyWritableRSJ(); 
Text txtValue = new Text(""); 
int intSrcIndex = 0; 
StringBuilder strMapValueBuilder = new StringBuilder(""); 
List<Integer> lstRequiredAttribList = new ArrayList<Integer>(); 
@Override 
protected void setup(Context context) throws IOException, 
InterruptedException { 
// {{ 
// Get the source index; (employee = 1, salary = 2) 
// Added as configuration in driver 
FileSplit fsFileSplit = (FileSplit) context.getInputSplit(); 
intSrcIndex = Integer.parseInt(context.getConfiguration().get( 
fsFileSplit.getPath().getName())); 
// }} 
// {{ 
// Initialize the list of fields to emit as output based on 
// intSrcIndex (1=employee, 2=current salary, 3=historical salary) 
if (intSrcIndex == 1) // employee 
{ 
lstRequiredAttribList.add(2); // FName 
lstRequiredAttribList.add(3); // LName 
lstRequiredAttribList.add(4); // Gender 
lstRequiredAttribList.add(6); // DeptNo 
} else // salary 
{ 
lstRequiredAttribList.add(1); // Salary 
lstRequiredAttribList.add(3); // Effective-to-date (Value of 
// 9999-01-01 indicates current 
// salary) 
} 
// }} 
} 
public class ReducerRSJ extends 
Reducer<CompositeKeyWritableRSJ, Text, NullWritable, Text> { 
StringBuilder reduceValueBuilder = new StringBuilder(""); 
NullWritable nullWritableKey = NullWritable.get(); 
Text reduceOutputValue = new Text(""); 
String strSeparator = ","; 
private MapFile.Reader deptMapReader = null; 
Text txtMapFileLookupKey = new Text(""); 
Text txtMapFileLookupValue = new Text(""); 
@Override 
protected void setup(Context context) throws IOException, 
InterruptedException { 
// {{ 
// Get side data from the distributed cache 
Path[] cacheFilesLocal = DistributedCache.getLocalCacheArchives(context 
.getConfiguration()); 
for (Path eachPath : cacheFilesLocal) { 
if (eachPath.getName().toString().trim() 
.equals("departments_map.tar.gz")) { 
URI uriUncompressedFile = new File(eachPath.toString() 
+ "/departments_map").toURI(); 
initializeDepartmentsMap(uriUncompressedFile, context); 
} 
} 
// }} 
}
#JSS2014 
Hive : un peu d’histoire 
• Projet interne Facebook lancé en 
2007 
• Opensourcé en 2009 
• Aujourd’hui le standard de fait 
pour exécuter du SQL sur Hadoop 
• Disponible sur toute les 
distributions populaires
1. Créer des 
#JSS2014 
Hive fonctionnement globale 
foo/foo1.tx 
t 
Block n 
Block n 
Block n 
Block n 
Hive METASTORE 
FOO -> /dw/foo 
select id, count(0) 
from FOO group 
by id 
jobs en se 
servant des 
metadonnées 
2. Génère et soumet le 
traitement au cluster 
task 
task 
task 
task 
Hive DRIVER
#JSS2014 
Interprétation SQL par Hive 
Parser 
Analyse 
Sémantique 
Générateur 
plan 
d’éxecution 
logique 
Générateur 
plan 
d’éxecution 
physique 
HiveQL 
AST 
QB 
Operator 
Tree 
Task Tree
#JSS2014 
M/R comme moteur d’exécution SQL 
M 
M 
M 
M 
M 
R 
R 
R 
HDFS 
HDFS 
M 
M 
R HDFS M R HDFS 
IO 
IO 
IO
#JSS2014 
Hive
#JSS2014 
Hive Quelle usage ? 
Base de donneés Hive 
Langage SQL HiveQL (SQL-92) 
Update Oui Non 
Delete Oui Non 
Transactions Oui Non 
Index Extensive Non / Limité 
Latence Très faible Elevée 
Volume de données To Po 
Gestion des 
Validation à 
données 
l’ecriture, contrainte 
« schema on read »
#JSS2014 
Hive Quelle usage ? 
PAS DE REQUÊTES 
INTERACTIVES 
Datwarehouse 
DB 
Log 
DB 
SQL/NoSQL 
Réseaux 
sociaux
#JSS2014 
Requête interactive sur Hadoop 
STINGER
#JSS2014 
La fin de M/R pour le sql sur Hadoop 
hive> set hive.execution.engine=tez 
Et bientôt 
hive> set hive.execution.engine=spark
#JSS2014 
Impala 
• MPP 
• Requête SQL « interactive » sur Hadoop 
• Compatible Hive 
– Même API 
– Partage le metastore
#JSS2014 
Spark
• Nouveau moteur d’exécution pour Hadoop 
#JSS2014 
– Supporte M/R + Join 
– Permet de construire des plans d’exécution plus 
complexe que M/R 
• Pipelining 
• Utilisation de la mémoire à la place du disque 
• Multiple Reduce Stage 
Tez
#JSS2014 
Traitement complexe M/R 
M 
M 
M 
M 
M 
R 
R 
IO IO 
R 
HDFS 
HDFS 
M 
M 
R HDFS M R HDFS 
IO 
IO 
IO 
IO IO
#JSS2014 
Traitement complexe M/R 
M 
M 
M 
M 
M 
R 
R 
R 
HDFS 
HDFS 
M 
M 
R HDFS M R HDFS 
IO 
IO 
IO
#JSS2014 
Même traitement avec Tez 
M 
M 
M 
M 
M 
R 
R 
R 
R 
R HDFS 
R
#JSS2014 
Comparaison de performances entre 
Hive en mode MapReduce et Hive en 
mode Tez
#JSS2014 
Hive sur donnée brut 
• Hive peut analyser des formats textuels 
(CSV, texte brut avec RegEx, Json, …) 
– Permet de travailler sur de la donnée brut (log, export 
d’API, …) 
• Parsing couteux 
• Problème de la compression
#JSS2014 
Format Binaire 
• SequenceFile, Avro, … 
– Parsing moins couteux 
• Compression par bloc de données 
• Stockage adapté pour M/R
#JSS2014 
Format orienté colonne 
a b c 
a1 b1 c1 
a2 b2 c2 
a3 b3 c3 
a4 b4 c4 
a5 b5 c5 
a1 b1 c1 a2 b2 c2 a3 b3 c3 
a1 a2 a3 b1 b2 b3 c1 c2 c3 
Représentation logique 
des données 
Stockage ligne 
Stockage colonne 
Metadata + Encoding + 
Compression
#JSS2014 
Format orienté colonne 
• ORC et Parquet 
• Permet un stockage des données en 
colonnes 
• Améliore les performances en lecture, 
écriture et traitement 
• Optimisation du stockage grâce à la 
compression induite par le format
#JSS2014 
Comparaison de performances entre 
stockage natif et stockage colonne
#JSS2014 
Vectorisation 
• Hive traite les données ligne à ligne 
– Inefficace notamment pour des agrégations 
• Mais résolue dans le monde « SQL » par la 
Vectorization 
• Contribution hortonwork + microsoft sur Hive 
– Modification du Query Engine pour traiter des « vecteurs 
de colonnes » 
– Meilleur utilisation du CPU et des caches
#JSS2014 
Hive < 0.14 : RBO 
• Optimisation de l’arbre d’exécution 
– Peu d’optimisations 
• Partition pruning 
• Projection pruning 
• Filter push down 
• Pas d’optimisation lié à la donnée 
– Ordre des tables dans les jointures importants 
– Pas de hint
#JSS2014 
CBO 
• Hive 0.14 with Apache Optiq 
• Impala 2.0
#JSS2014 
Hive 0.14 
• Première optimisation 
– Join reordering 
SQL 
parser 
Semantic 
Analyser 
Logical 
Optimizer 
Physical 
Optimizer 
Map 
Reduce 
Translate 
Optiq 
AST optimisé
#JSS2014 
Hive : Calcul des statistiques 
• Même problématique que pour une base 
SQL 
– Les statistiques doivent être calculé et représentative 
des données
#JSS2014 
Vectorization + CBO
#JSS2014 
Pourquoi parler de convergence ? 
SQL 
Langage de requêtes SQL 
Traitement en mode batch 
Format orienté colonne 
(columnstore index, moteur 
vertipaq) 
Moteur d’exécution basé sur 
des statistiques 
Hive 
Langage de requêtes HiveQL 
Vectorisation 
Format ORC (oriented row 
columnar) 
Query planner
#JSS2014 
Le futur du SQL sur Hadoop 
• SQL-20XX 
– Supporté les fonctions analytics 
– WINDOWS, ROOLUP, CUBE 
• Transaction 
• LLAP 
• Materialized Views 
• Requête multi-datasource 
– Prestodb (Facebook) 
– APS PolyBase 
– Oracle Bigdata
#JSS2014 
Questions
##JJSSSS22001144

Journées SQL 2014 - Hive ou la convergence entre datawarehouse et Big Data

  • 1.
    #JSS2014 Les journées SQL Server 2014 Un événement organisé par GUSS
  • 2.
    #JSS2014 Les journées SQL Server 2014 Hive ou la convergence entre datawarehouse et Big Data Julien Buret David Joubert Un événement organisé par GUSS
  • 3.
    #JSS2014 Merci ànos sponsors
  • 4.
    #JSS2014 Speakers JulienBuret Directeur technique @julienburet David Joubert Consultant Data & Analytics @Dj_Uber www.djuber.net
  • 5.
    #JSS2014 On vaparler de • Un peu d’Hadoop • Beaucoup de Hive – Historique – Moteurs d’exécution – Stockage – Optimisation de requêtes • Pas mal de démos On ne vas pas en parler • De tout le reste Autres sessions Big Data • APS, l’appliance Big Data, Lundi à 15h30 • Big Data et Real Time, Mardi à 14h Agenda
  • 6.
    #JSS2014 Hadoop :un peu d’histoire • Framework aidant au développement d’application distribué et scalable • Projet débuté en 2005 – Basé sur 2 papiers de Google (GFS & MapReduce) • Projet Apache depuis 2009
  • 7.
    #JSS2014 Map Reduce class CompositeKeyWritableRSJ implements Writable, WritableComparable<CompositeKeyWritableRSJ> { // Data members private String joinKey;// EmployeeID private int sourceIndex;// 1=Employee data; 2=Salary (current) data; 3=Salary historical data public CompositeKeyWritableRSJ() { } public CompositeKeyWritableRSJ(String joinKey, int sourceIndex) { this.joinKey = joinKey; this.sourceIndex = sourceIndex; } @Override public String toString() { return (new StringBuilder().append(joinKey).append("t").append(sourceIndex)).toString(); } public void readFields(DataInput dataInput) throws IOException { joinKey = WritableUtils.readString(dataInput); sourceIndex = WritableUtils.readVInt(dataInput); } public void write(DataOutput dataOutput) throws IOException { WritableUtils.writeString(dataOutput, joinKey); WritableUtils.writeVInt(dataOutput, sourceIndex); } public int compareTo(CompositeKeyWritableRSJ objKeyPair) { int result = joinKey.compareTo(objKeyPair.joinKey); if (0 == result) { result = Double.compare(sourceIndex, objKeyPair.sourceIndex); } return result; } public String getjoinKey() { return joinKey; } public void setjoinKey(String joinKey) { this.joinKey = joinKey; } public int getsourceIndex() { return sourceIndex; } public void setsourceIndex(int sourceIndex) { this.sourceIndex = sourceIndex; } } public class MapperRSJ extends Mapper<LongWritable, Text, CompositeKeyWritableRSJ, Text> { CompositeKeyWritableRSJ ckwKey = new CompositeKeyWritableRSJ(); Text txtValue = new Text(""); int intSrcIndex = 0; StringBuilder strMapValueBuilder = new StringBuilder(""); List<Integer> lstRequiredAttribList = new ArrayList<Integer>(); @Override protected void setup(Context context) throws IOException, InterruptedException { // {{ // Get the source index; (employee = 1, salary = 2) // Added as configuration in driver FileSplit fsFileSplit = (FileSplit) context.getInputSplit(); intSrcIndex = Integer.parseInt(context.getConfiguration().get( fsFileSplit.getPath().getName())); // }} // {{ // Initialize the list of fields to emit as output based on // intSrcIndex (1=employee, 2=current salary, 3=historical salary) if (intSrcIndex == 1) // employee { lstRequiredAttribList.add(2); // FName lstRequiredAttribList.add(3); // LName lstRequiredAttribList.add(4); // Gender lstRequiredAttribList.add(6); // DeptNo } else // salary { lstRequiredAttribList.add(1); // Salary lstRequiredAttribList.add(3); // Effective-to-date (Value of // 9999-01-01 indicates current // salary) } // }} } public class ReducerRSJ extends Reducer<CompositeKeyWritableRSJ, Text, NullWritable, Text> { StringBuilder reduceValueBuilder = new StringBuilder(""); NullWritable nullWritableKey = NullWritable.get(); Text reduceOutputValue = new Text(""); String strSeparator = ","; private MapFile.Reader deptMapReader = null; Text txtMapFileLookupKey = new Text(""); Text txtMapFileLookupValue = new Text(""); @Override protected void setup(Context context) throws IOException, InterruptedException { // {{ // Get side data from the distributed cache Path[] cacheFilesLocal = DistributedCache.getLocalCacheArchives(context .getConfiguration()); for (Path eachPath : cacheFilesLocal) { if (eachPath.getName().toString().trim() .equals("departments_map.tar.gz")) { URI uriUncompressedFile = new File(eachPath.toString() + "/departments_map").toURI(); initializeDepartmentsMap(uriUncompressedFile, context); } } // }} }
  • 8.
    #JSS2014 Hive :un peu d’histoire • Projet interne Facebook lancé en 2007 • Opensourcé en 2009 • Aujourd’hui le standard de fait pour exécuter du SQL sur Hadoop • Disponible sur toute les distributions populaires
  • 9.
    1. Créer des #JSS2014 Hive fonctionnement globale foo/foo1.tx t Block n Block n Block n Block n Hive METASTORE FOO -> /dw/foo select id, count(0) from FOO group by id jobs en se servant des metadonnées 2. Génère et soumet le traitement au cluster task task task task Hive DRIVER
  • 10.
    #JSS2014 Interprétation SQLpar Hive Parser Analyse Sémantique Générateur plan d’éxecution logique Générateur plan d’éxecution physique HiveQL AST QB Operator Tree Task Tree
  • 11.
    #JSS2014 M/R commemoteur d’exécution SQL M M M M M R R R HDFS HDFS M M R HDFS M R HDFS IO IO IO
  • 12.
  • 13.
    #JSS2014 Hive Quelleusage ? Base de donneés Hive Langage SQL HiveQL (SQL-92) Update Oui Non Delete Oui Non Transactions Oui Non Index Extensive Non / Limité Latence Très faible Elevée Volume de données To Po Gestion des Validation à données l’ecriture, contrainte « schema on read »
  • 14.
    #JSS2014 Hive Quelleusage ? PAS DE REQUÊTES INTERACTIVES Datwarehouse DB Log DB SQL/NoSQL Réseaux sociaux
  • 15.
  • 16.
    #JSS2014 La finde M/R pour le sql sur Hadoop hive> set hive.execution.engine=tez Et bientôt hive> set hive.execution.engine=spark
  • 17.
    #JSS2014 Impala •MPP • Requête SQL « interactive » sur Hadoop • Compatible Hive – Même API – Partage le metastore
  • 18.
  • 19.
    • Nouveau moteurd’exécution pour Hadoop #JSS2014 – Supporte M/R + Join – Permet de construire des plans d’exécution plus complexe que M/R • Pipelining • Utilisation de la mémoire à la place du disque • Multiple Reduce Stage Tez
  • 20.
    #JSS2014 Traitement complexeM/R M M M M M R R IO IO R HDFS HDFS M M R HDFS M R HDFS IO IO IO IO IO
  • 21.
    #JSS2014 Traitement complexeM/R M M M M M R R R HDFS HDFS M M R HDFS M R HDFS IO IO IO
  • 22.
    #JSS2014 Même traitementavec Tez M M M M M R R R R R HDFS R
  • 23.
    #JSS2014 Comparaison deperformances entre Hive en mode MapReduce et Hive en mode Tez
  • 24.
    #JSS2014 Hive surdonnée brut • Hive peut analyser des formats textuels (CSV, texte brut avec RegEx, Json, …) – Permet de travailler sur de la donnée brut (log, export d’API, …) • Parsing couteux • Problème de la compression
  • 25.
    #JSS2014 Format Binaire • SequenceFile, Avro, … – Parsing moins couteux • Compression par bloc de données • Stockage adapté pour M/R
  • 26.
    #JSS2014 Format orientécolonne a b c a1 b1 c1 a2 b2 c2 a3 b3 c3 a4 b4 c4 a5 b5 c5 a1 b1 c1 a2 b2 c2 a3 b3 c3 a1 a2 a3 b1 b2 b3 c1 c2 c3 Représentation logique des données Stockage ligne Stockage colonne Metadata + Encoding + Compression
  • 27.
    #JSS2014 Format orientécolonne • ORC et Parquet • Permet un stockage des données en colonnes • Améliore les performances en lecture, écriture et traitement • Optimisation du stockage grâce à la compression induite par le format
  • 28.
    #JSS2014 Comparaison deperformances entre stockage natif et stockage colonne
  • 29.
    #JSS2014 Vectorisation •Hive traite les données ligne à ligne – Inefficace notamment pour des agrégations • Mais résolue dans le monde « SQL » par la Vectorization • Contribution hortonwork + microsoft sur Hive – Modification du Query Engine pour traiter des « vecteurs de colonnes » – Meilleur utilisation du CPU et des caches
  • 30.
    #JSS2014 Hive <0.14 : RBO • Optimisation de l’arbre d’exécution – Peu d’optimisations • Partition pruning • Projection pruning • Filter push down • Pas d’optimisation lié à la donnée – Ordre des tables dans les jointures importants – Pas de hint
  • 31.
    #JSS2014 CBO •Hive 0.14 with Apache Optiq • Impala 2.0
  • 32.
    #JSS2014 Hive 0.14 • Première optimisation – Join reordering SQL parser Semantic Analyser Logical Optimizer Physical Optimizer Map Reduce Translate Optiq AST optimisé
  • 33.
    #JSS2014 Hive :Calcul des statistiques • Même problématique que pour une base SQL – Les statistiques doivent être calculé et représentative des données
  • 34.
  • 35.
    #JSS2014 Pourquoi parlerde convergence ? SQL Langage de requêtes SQL Traitement en mode batch Format orienté colonne (columnstore index, moteur vertipaq) Moteur d’exécution basé sur des statistiques Hive Langage de requêtes HiveQL Vectorisation Format ORC (oriented row columnar) Query planner
  • 36.
    #JSS2014 Le futurdu SQL sur Hadoop • SQL-20XX – Supporté les fonctions analytics – WINDOWS, ROOLUP, CUBE • Transaction • LLAP • Materialized Views • Requête multi-datasource – Prestodb (Facebook) – APS PolyBase – Oracle Bigdata
  • 37.
  • 38.

Notes de l'éditeur

  • #2 DAVID
  • #3 DAVID
  • #4 DAVID
  • #5 DAVID JULIEN
  • #6 DAVID
  • #7 DAVID Hadoop n’est pas une base de données. C’est un système de fichiers distribué (HDFS) et un moteur de calcul (MapReduce) D’ailleurs il est très peu performant sur l’analyse des données en temps réel => beaucoup d’évolutions dépendent de cette problématique.
  • #8 La moitié du code nécessaire à la réalisation d’une jointure Au moins 6 classes java à développer
  • #9 DAVID Développeurs très bon en SQL, mais pas développeurs JAVA
  • #10 JULIEN Hive n’est pas un moteur de base de données relationnel sur Hadoop Hive est une application cliente hadoop qui permet de générer des jobs M/R à partir d’un langage, plus haut niveau et plus productif que M/R Hive est composé de 2 principaux modules: - Un metastore qui va stocker les informations sur la structure des données stocké dans HDFS. C’est l’équivalent d’un dictionnaire de données. Il contient notamment la correspondance entre un table et son stockage sur HDFS. - le driver, qui va interpréter le SQL fournit par le client et le transformer en job map. reduce
  • #11 JULIEN Parser (ANTLR) : parser de hiveql vers un abstract syntax tree Analyse sémantique (en 3 partie) : Génération du plan logique à partir de l’AST (Query Block) Optimisation du plan logique Puis génération du plan d’execution physique: Map reduce http://fr.slideshare.net/nzhang/hive-anatomy
  • #12 JULIEN
  • #13 Explain d’une requête simple. Temps d’execution. Create external table
  • #14 DAVID
  • #15 DAVID Pattern classique avec MapReduce on récupère toute les données (DB + Log + social network, etc..) On stocke tous dans hadoop On fait les use-cases compliqué ou impossible à faire dans un datawarehouse Par contre difficile d’intérogé les donnnés en interactifs Obliger de remettre ces données dans une base de données classique : Pré aggrégation Duplication des données synchronisation
  • #16 JULIEN
  • #17 JULIEN
  • #18 JULIEN
  • #19 JULIEN
  • #20 JULIEN
  • #21 JULIEN
  • #22 JULIEN
  • #23 JULIEN
  • #25 DAVID Impossible de relire un fichier compresse depuis le milieu Donc pb avec le découpage
  • #26 DAVID Stockage en ligne par système de clé/valeur, optimisé pour le MapReduce (compris que par hadoop) Peuvent être compressé par valeur ou bloc de données pour limiter les I/O. Pas l’idéal pour Hive car stocké au format ligne. Obligé de lire la ligne complète même si on n’a besoin que d’une colonne.
  • #27 JULIEN Column-oriented organizations are more efficient when an aggregate needs to be computed over many rows but only for a notably smaller subset of all columns of data, because reading that smaller subset of data can be faster than reading all data. Column-oriented organizations are more efficient when new values of a column are supplied for all rows at once, because that column data can be written efficiently and replace old column data without touching any other columns for the rows. Row-oriented organizations are more efficient when many columns of a single row are required at the same time, and when row-size is relatively small, as the entire row can be retrieved with a single disk seek. Row-oriented organizations are more efficient when writing a new row if all of the row data is supplied at the same time, as the entire row can be written with a single disk seek.
  • #30 DAVID Contribution hortonworks + Microsoft
  • #31 JULIEN
  • #32 JULIEN
  • #33 JULIEN
  • #34 JULIEN
  • #36 DAVID
  • #39 On parlait des speakers, il y a une chose qui leur tient à cœur !