Standards du web et innovation
Allier créativité et standardisation
Florian Harmand - octobre 2013
Introduction
Devant le besoin permanent des acteurs du web de travailler ensemble à des dispositifs toujours plus
complexe...
Sommaire
Introduction	3
Sommaire	4
1. Historique de la standardisation	 5
	

1.0. Naissance de la standardisation	

	

1.1...
1. Historique de la standardisation
1.0. Naissance de la standardisation
Depuis l’Antiquité, les différentes civilisations...
1.1. Standards techniques
Au XIXe siècle, la mise en place de chemins de fer et les activités mécaniques qui l’accompagnen...
1.2. Standards culturels
Bien que les arts évoquent généralement une certaine liberté de pensée, l’art pictural européen e...
le connaît aujourd’hui.

Un aparté sur le cas du Septième Art

A l’inverse de l’industrie, dont le
développement est conjo...
2. Standardisation pour créer ?
2.1. Encadrer les langages
A défaut d’être tangible, le web doit être décrit par ses
const...
La démocratisation des nouveaux éléments HTML5 a pu être possible grâce à la standardisation et
aux travaux collaboratifs ...
2.2. Formaliser les pratiques
En plus d’observer les effets bénéfiques d’une standardisation des langages, on constate le ...
La mise en place d’une démarche qualité globale lors de la création d’un service multimédia est aujourd’hui adoptée par la...
3. De la standardisation vers l’évolution
3.1. Nouvelles pratiques et nouvelles attentes
La possession de différents appar...
Ce rassemblement des unités informationnelles sous forme de cartes, de blocs de données agencées,
entraîne potentiellement...
Si l’on creuse encore le processus de caractérisation des données liées aux web, on peut s’intéresser à ce
que l’on appell...
3.2. Informatique ubiquitaire & lifestream
On parle d’ubiquitous computing, d’informatique ubiquitaire en français, pour c...
People no longer want to be connected to computers or ‘sites’ (they probably never did).
							
								- David Gelertner...
Conclusion
On remarque clairement que la standardisation au cours de l’histoire n’a pas toujours été en faveur de
la créat...
Références
× Léa Verou nous parle d’intégration et du W3C

http://www.webmonkey.com/2013/02/developer-lea-verou-on-why-web...
Standardisation et innovation v1
Prochain SlideShare
Chargement dans…5
×

Standardisation et innovation v1

1 643 vues

Publié le

Au vu de l'opposition de sens qui lie standardisation et innovation, on peut se
demander comment ces deux notions ont pu cohabiter et faire évoluer les techniques et les pratiques
du web en seulement quelques décennies. La standardisation constitue-t-elle un frein à l’introduction
de nouvelles techniques et pratiques dans le domaine du multimédia ? Est-elle au contraire la garante de
bases communes permettant la création de nouveaux concepts ? Ce document ne répondra sûrement
pas de façon définitive à ces questions mais permettra tout du moins de mettre en lumière les perspectives
ouvertes par la combinaison des notions évoquées ci-dessus.

Publié dans : Design
0 commentaire
1 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

Aucun téléchargement
Vues
Nombre de vues
1 643
Sur SlideShare
0
Issues des intégrations
0
Intégrations
2
Actions
Partages
0
Téléchargements
21
Commentaires
0
J’aime
1
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Standardisation et innovation v1

  1. 1. Standards du web et innovation Allier créativité et standardisation Florian Harmand - octobre 2013
  2. 2. Introduction Devant le besoin permanent des acteurs du web de travailler ensemble à des dispositifs toujours plus complexes, des standards ont été mis en place afin de garantir une certaine interopérabilité entre les services créés : formats standards (JPEG, PNG, SVG, OGG, WAV, MPEG), syntaxes communes (balisage HTML et styles CSS), pratiques normalisées (accessibilité, standards ergonomiques), … Cette standardisation, fruit d’une négociation perpétuelle entre les entreprises, associations, développeurs et ergonomes, a permis l’évolution fulgurante des services web et plus largement multimédia. Mais le terme de standardisation a toujours possédé un sens ambivalent. Il connote d’une part des idées de collaboration et de profits communs, et d’autre part un sentiment d’uniformisation voire de limitation. La définition du dictionnaire Larousse est presque inquiétante : Ramener un produit, une production à une norme, à un modèle unique ou à un petit nombre de modèles aux caractéristiques définies. Cette définition irait même à l’encontre des propositions d’explication du terme d’innovation du même ouvrage : Introduction, dans le processus de production et/ou de vente d’un produit, d’un équipement ou d’un procédé nouveau. Processus d’influence qui conduit au changement social et dont l’effet consiste à rejeter les normes sociales existantes et à en proposer de nouvelles. Au vu de la contradiction entre ces définitions de la standardisation et de l’innovation, on peut se demander comment ces deux notions ont pu cohabiter et faire évoluer les techniques et les pratiques du web en seulement quelques décennies. La standardisation constitue-t-elle un frein à l’introduction de nouvelles techniques et pratiques dans le domaine du multimédia ? Est-elle au contraire la garante de bases communes permettant la création de nouveaux concepts ? Ce document ne répondra sûrement pas de façon définitive à ces questions mais permettra tout du moins de mettre en lumière les perspectives ouvertes par la combinaison des notions évoquées ci-dessus. Ayant moi-même un profil hybride, intégrateur de métier et graphiste de formation, j’ai toujours considéré la pratique du web comme un mélange à proportion égale de technique et d’art. On y retrouve en effet des ensembles de savoirs-faire pratiques et de méthodes scientifiques, alliés à des procédés créatifs tels que les arts graphiques, l’audiovisuel, la musique, … Vous trouverez donc en entrée de ce dossier un bref historique de la standardisation à travers le prisme de ces deux composantes, suivi d’un état des lieux des langages et pratiques du web, puis en fin de dossier nous effectuerons une ouverture sur les implications des standards du web à plus long terme. 3
  3. 3. Sommaire Introduction 3 Sommaire 4 1. Historique de la standardisation 5 1.0. Naissance de la standardisation 1.1. Standards techniques 6 5 1.2. Standards culturels 7 2. Standardisation pour créer ? 9 2.1. Encadrer les langages 9 2.2. Formaliser les pratiques 11 3. De la standardisation vers l’évolution 13 3.1. Nouvelles pratiques et nouvelles attentes 13 3.2. Informatique ubiquitaire & lifestream 16 Conclusion 18 Références 19 4
  4. 4. 1. Historique de la standardisation 1.0. Naissance de la standardisation Depuis l’Antiquité, les différentes civilisations tentent d’imposer à leurs voisines des standards pour faciliter les échanges et établir des règles de négociation. Ainsi, les Romains, connus pour leur expansion effrénée vers les continents limitrophes, furent non les premiers mais en tout cas les plus rigoureux dans l’établissement de normes. Ils comprirent en effet les avantages (gain de temps, sûreté, économies) qu’ils pouvaient tirer, au sein de leur territoire et en dehors, de pratiques normées : adopter des unités de mesures communes, mettre en place des procédures administratives, normer les méthodes de construction, … Des ébauches de normes apparurent également lors des grandes réalisations médiévales, mises en place par les architectes des cathédrales, châteaux et autres bâtiments du Moyen ge et de la Renaissance. Le Carnet de croquis du maître d’oeuvre français Villard de Honnecourt (XIIIe siècle) est un exemple d’ouvrage de propagation des moyens techniques : on y trouve des outils de référence (compas, équerres), engins de levage et autres méthodes de construction uniformément adoptées à l’époque. Les philosophes et écrivains des Lumières participèrent également à la mise en place et à la diffusion de normes, notamment en cartographie et mesure, pour établir des bases communes lors de l’époque des Grands Explorateurs. De plus, les scientifiques commencèrent à recenser scrupuleusement la faune et la flore connue, adoptant des pratiques de répertoriation normées afin que les divers travaux puissent être archivés puis comparés. Mais il faudra attendre la Révolution Industrielle et l’essor technologique qu’elle impliqua pour observer des normes encadrées telles que nous les connaissons aujourd’hui. × En haut : Carnet de Villard de Honnecourt, BNF × En bas : Herbier à l’aquarelle du XVIe siècle, par un naturaliste hollandais anonyme 5
  5. 5. 1.1. Standards techniques Au XIXe siècle, la mise en place de chemins de fer et les activités mécaniques qui l’accompagnent ont induit la normalisation des composants les plus répandus : les vis, les rivets, les tubes, les câbles (par le français Charles Renard) et par la suite les composants en rapport avec le courant électrique comme les instruments de mesure et les ampoules. Le but premier était de faire en sorte que les pièces nécessaires à la fabrication d’un dispositif mécanique soient compatibles avec le reste du système, et ce quelque soit leur usine de provenance. Ces pratiques de normalisation ont permis d’améliorer la maintenance des objets mécaniques à usure rapide : locomotives, automobiles, machines à vapeur, armes à feu, … Défnir le terme de standard : Un standard est une pratique qui fait autorité au sein d’un groupe d’utilisateur ou d’un domaine défini, tandis qu’une norme possède un caractère juridique et est promulguée par un organisme indépendant. Comme les anglo-saxons ne font pas la différence entre un standard et une norme, on utilise le terme standard de facto lorsqu’il découle d’un usage, et le terme standard de jure lorsqu’il vient d’une législation. Dès les années 1920 aux États Unis, pays de la rentabilité, des associations d’entreprises de l’ingénierie mécanique et de l’ingénierie électrique s’associent aux départements de la Guerre, de la Marine et du Commerce pour établir des normes encadrant le domaine industriel : normes de sécurité, gestion des défauts et des marges d’erreurs, … En Europe, la standardisation des produits et procédés industriels s’effectue pour répondre aux contraintes de la reconstruction des états après les deux guerres mondiales. L’Association Française de Normalisation (AFNOR) apparaît en 1926 pour encadrer les procédés de normalisation en France. C’est seulement en 1947 qu’est créée l’organisation mondiale de normalisation ISO, dont le siège est à Genève, regroupant ainsi toutes les organisations régissant les normes. Mais la normalisation des objets produits a vite entraîné la normalisation des gestes qui les accompagnent. Dès le XIXe, des pratiques d’organisation scientifique du travail apparaissent, grâce ou à cause des politiques de gestion d’entreprise de Taylor puis de Ford, tendant à maximiser les rendements. Des modèles sont mis en place pour diviser au maximum chaque tâche et gagner en productivité. Le comportement même des ouvriers est donc normalisé : ils sont chronométrés et se voient allouer des micro-tâches très répétitives et peu gratifiantes. Ainsi, les standards qu’on réservait auparavant aux machines sont appliqués aux hommes. Les mouvements contestataires seront freinés par les conflits mondiaux avant de prendre de l’ampleur à la fin des années 1950, menés par les ouvriers les plus éduqués. Le Toyotisme, doctrine rédigée dès le début des années 60 pour s’appliquer aux usines du célèbre constructeur automobile, tentera de remédier aux failles des précédents systèmes en mettant en place une illusion de polyvalence dans l’esprit de l’ouvrier afin de le valoriser. En fin de compte, bien qu’il ait relancé quelque peu l’économie japonaise d’après guerre, ce système apportera son lot de travers non négligeables : des rythmes de production toujours plus rapide, les ouvriers censés être polyvalent sautent de poste en poste en fonction du besoin, la culture d’entreprise se fait de plus en plus étouffante jusqu’à encadrer l’intégralité de la journée de l’individu, … La normalisation semble donc trouver ses limites chez l’homme, qui refuse l’aliénation et la pénibilité de tâches répétitives. Les schémas normés appliqués au monde du travail sont ainsi rejetés lorsqu’on supprime à l’homme son autonomie et une part relative de liberté. 6
  6. 6. 1.2. Standards culturels Bien que les arts évoquent généralement une certaine liberté de pensée, l’art pictural européen et plus particulièrement français fut de tout temps encadré par des institutions religieuses et dirigeantes. Le Moyen- ge fut caractérisé artistiquement par des séries de peintures iconographiques, c’est-à-dire utilisant des stéréotypes esthétiques : des fresques de rois menant leur armée et des figures religieuses (le Christ, les anges, la Vierge, des scènes bibliques). Pour encadrer les récits historiques et bibliques, les copistes et artistes pratiquent l’enluminure, c’est-à-dire de l’enjolivement des textes et de l’illustration du récit conté. Ces motifs récurrents, homologués par l’Église (création de l’Inquisition en 1199) et la royauté, n’offraient guère d’espace de créativité aux artistes de l’époque. La Renaissance (entre le XVe et le XVIe siècle), réminiscence des crédos de l’Antiquité gréco-romaine, apporta des contextes iconographiques nouveaux mais au demeurant très normés : les figures mythologiques sont répétées à l’infini, dans la peinture et la sculpture. Le nu, standard grec, est remis au goût du jour. Les peintres adoptent la perspective, à la différence des oeuvres médiévales en deux dimensions, et les sciences comme les mathématiques et l’anatomie permettent aux artistes de créer des oeuvres d’une extrême précision. Cette recherche de la perfection et de la glorification de l’homme est un thème humaniste récurrent, né à cette époque. L’encadrement de la culture dans sa globalité débuta réellement vers 1630, sous le ministère du cardinal de Richelieu, initiateur de la monarchie absolue qui caractérisa par la suite Louis XIV. Il fonde ainsi l’Académie Française, un conseil de personnalités de la scène culturelle française, chargé d’encadrer la langue du pays. D’autres institutions verront le jour par la suite sous divers régimes : l’Académie royale de peinture et de sculpture en 1648, l’Académie de musique en 1669 et l’Académie d’architecture en 1671. Toutes seront regroupées au sein de l’Académie des Beaux-Arts en 1816 sous Louis XVIII. Ainsi, pendant presque deux siècles, seuls les artistes agréés par leurs académies respectives avaient le droit de prendre part aux salons d’exposition. Le plus réputé d’entre eux est le Salon de peinture et de sculpture de Paris, dont le nom changea en fonction des époques : Salon de l’Académie royale des beaux-arts, Salon des artistes français, … En 1863, il y eut tant d’artistes refusés au salon officiel qu’un contre-salon fut créé, avec l’autorisation de Napoléon III : le Salon des Refusés. Dès lors, le contenu de ce salon alternatif pouvait abriter les germes d’une rupture avec le classicisme imposé, tant dans la forme que dans le fond. Le scandale de cette année 1863 fut causé par Édouard Manet et son désormais célèbre Déjeuner sur l’herbe, qui désacralisa le nu pour le dépeindre à sa façon. En 1874, les impressionnistes exposent dans l’atelier du photographe Nadar, présentant leurs effets de lumière novateurs … Après l’austère art médiéval et le classicisme de la Renaissance, c’est l’époque de l’art moderne. A partir de ce moment, les courants artistiques vont se succéder et s’opposer à une rapidité sans précédent. Le réalisme de Courbet s’oppose au classicisme des thématiques académiques (milieu XIXe), l’impressionnisme dépeint le monde tel qu’il est momentanément ressenti au contraire des pratiques classiques qui prône une rigueur de représentation, le cubisme abolit la perspective classique pour décomposer toutes les faces d’un sujet sur un même plan, … Ce résumé non exhaustif et métonymique (la peinture étant représentative des Beaux Arts) montre que la pratique de l’art fut de tout temps encadrée par les institutions gouvernantes. Cependant, le XIXe siècle fut une période charnière durant laquelle l’évolution des pratiques artistiques échappa à la régularisation. Ce qui donna naissance à l’ère la plus prolifique de l’art, appelée conjointement la période moderne puis l’art contemporain, tel qu’on 7
  7. 7. le connaît aujourd’hui. Un aparté sur le cas du Septième Art A l’inverse de l’industrie, dont le développement est conjoint avec les pratiques de normalisation, l’art pictural est entré dans une phase d’innovation perpétuelle dès lors qu’il a pu se libérer de l’emprise normatives de l’Église puis du souverain, et enfin des standards académiques. Le cinéma, plus jeune que la peinture, semble avoir souffert de l’époque de son avènement, qui coïncide avec l’arrivée de la société de consommation, dans les années 1930. De vastes stratégies marketing accompagnent invariablement les block busters américains afin de maximiser les entrées. Mais depuis quelques années, les analystes et les médias se penchent sur la structure même de ces oeuvres audiovisuelles. En 2005 (2006 pour la France), paraissait le livre de Blake Snyder, défunt scénariste américain, intitulé Les règles élémentaires de l’écriture d’un scénario en français, qui décrit pas à pas le scénario idéal d’un film pour créer l’émotion et l’adhésion du spectateur de façon optimale. Son oeuvre globale, les tomes de Save The Cat !, exlique ainsi la recette idéale du bon blockbuster : 3 actes, 15 évènements majeures : exposition, catalyseur, moment de perdition, pause dans l’action, … Bien que Snyder aurait sans doute présenté son ouvrage comme une sorte de guide pratique dont on peut s’inspirer, Hollywood l’a pris au pied de la lettre. Ainsi, la quasi-totalité des films d’action sortis des écuries hollywoodiennes lors de l’été 2013 possèdent une structure similaire, la structure de Snyder étant devenue le standard. Des réalisateurs (parmi lesquels Spielberg lui-même) s’insurgent déjà pour que cette phase peu glorieuse ne se reproduise plus. × En illustration : illustration de l’ouvrage de Blake Snyder : Save the cat ! ( 3 tomes ) 8
  8. 8. 2. Standardisation pour créer ? 2.1. Encadrer les langages A défaut d’être tangible, le web doit être décrit par ses constructeurs, pour être interprété puis compris par ses spectateurs. De nombreux langages ont ainsi été mis en place, du plus proche de la machine (binaire) jusqu’au plus explicite pour le navigateur (HTML & CSS). Comme pour une langue réelle, il a fallu élaborer des syntaxes communes pour ces langages du web. Le World Wide Web Consortium, créé en 1994, a pour but de régulariser les langages de la réalisation d’interfaces web. On y trouve des entreprises (créateurs de logiciels, fabricants de logiciels, groupes de médias), des centres de recherches (MIT et universités diverses) et des acteurs indépendants (chercheurs, intégrateurs web et autres membres d’agences web). Le but du consortium est de normaliser l’utilisation des langages afin d’assurer l’interopérabilité des services créés et de garantir une accessibilité optimale. La mission la plus délicate du W3C est d’évaluer les habitudes d’intégration web afin de savoir si celles-ci peuvent prétendre au statut de normes. Il établit donc les syntaxes normées et propose de nouvelles fonctionnalités en encourageant les concepteurs de navigateurs à les implémenter d’une part, et les développeurs et designers web à les utiliser d’autre part. De cette façon, les développeurs émettent une rétroaction sur le taux de prise en compte de la nouvelle fonctionnalité qu’ils ont testée (voir schéma en bas de page). L’intéropérabilité est la capacité d’un service à fonctionner avec n’importe quel autre système, sans avoir besoin de mettre en place de processus supplémentaire de couplage. Les formats ouverts sont à privilégier, car accessibles à tous au contraire des formats propriétaires, dont les modalités d’usages sont commandées par les concepteurs de ces formats. Le XML (structure de donnée) et le PNG (format d’image) sont des exemples de standards ouverts. L’accessibilité est l’ensemble des technologies et pratiques appliquées à un site qui favorisent l’accès au contenu par tous, quel que soit le contexte de navigation (matériel utilisé, fiabilité de l’infrastructure réseau, localisation géographique, références culturelles) et les aptitudes physiques et mentales de l’individu (handicap : troubles visuels divers, troubles auditifs, moteurs neurologiques). La mise en conformité des sites institutionnels français en terme d’accessibilité a été promulguée dans une loi de février 2005. Organisme / normes Navigateurs Développeurs - Normes - Extras - Implémentation - Béta des extras - Normes OK - Tests des extras Encourage à implémenter Feedback sur la compatibilité des extras 9
  9. 9. La démocratisation des nouveaux éléments HTML5 a pu être possible grâce à la standardisation et aux travaux collaboratifs des acteurs du web. En 2006, le W3C abandonne ses travaux sur XHTML, un concurrent d’HTML5, et se joint au WHAT Working Group pour faire évoluer le langage HTML. Deux ans plus tard en 2008, une première ébauche de HTML5 est présentée. Cette même année, Mozilla fait en sorte que Firefox 3 soit compatible HTML5. En 2010, Youtube présente son lecteur HTML5 et Steve Jobs annonce que Flash ne sera plus supporté sur les produits de sa marque. En 2011, de nombreux services web présentent leur refonte en HTML5 dont le réseau Twitter. Aujourd’hui, des centaines de millions de sites utilisent des structures et syntaxes HTML5. La version 5 du langage HTML s’est donc très vite imposée grâce au soutien des normalisateurs et des concepteurs de navigateurs et de services. Cependant, ce système de versionnage tend à disparaître car le W3C et le WHATWG travaillent à un standard évolutif pour prendre en compte la vitesse exponentielle à laquelle la syntaxe et les pratiques évoluent : il est pour l’instant nommé le HTML Living Standards. A l’inverse de bien des domaines dans lesquels la standardisation est un terme péjoratif, un frein à la créativité, le web a besoin de langages communs pour évoluer. Il n’aurait pas connu l’essor de ces dernières décennies si les acteurs du web n’avaient pas fait front commun pour instaurer des lignes directrices pour soutenir le développement des services multimédia. C’est le mythe de Babel réactualisé : un peuple de designers et de développeurs devenus capables de travailler ensemble sur des services de plus en plus complexes, grâce à langue commune. 10
  10. 10. 2.2. Formaliser les pratiques En plus d’observer les effets bénéfiques d’une standardisation des langages, on constate le même phénomène pour les méthodologies qui les accompagnent. Ainsi, dans le domaine de l’intégration web, des guidelines émergent, venant standardiser non des langages mais des pratiques. Par exemple, la gestion de la compatibilité avec le logiciel d’interprétation de l’utilisateur pourrait presque devenir un métier à part entière tant l’harmonisation du rendu d’un site web sur tous les navigateurs est difficile. La bonne prise en compte de telle ou telle fonctionnalité dépend en effet du bon vouloir du concepteur de ce dernier à appliquer ou non les recommandations. De plus, les sites web doivent pouvoir s’afficher sur des navigateurs pas forcément à jour voire obsolètes. Les intégrateurs font généralement en sorte de développer le site de façon optimale, avec toutes les propriétés en place pour les navigateurs récents, puis prévoient un affichage “service minimum” pour les autres cas. Ce n’est pas un réel standard mais une pratique répandue qui s’ancre dans une problématique d’accessibilité. On parle de “Graceful degradation” ou dégradation gracieuse comme standard de dégradation. L’ouvrage SMACSS, écrit par l’intégrateur web Jonathan Snook, formalise de façon accessible les enseignements que l’auteur a pu tirer des ses années de projets web. La force de ce guide est qu’il rassemble de nombreuses habitudes d’intégrateurs. La communauté, heureuse de s’y retrouver, a donc largement loué le guide. Il propose une décomposition sémantique du code selon des parties bien distinctes : la base (les styles d’éléments), l’agencement (la grille et la mise en page plus généralement), le module (un système défini et réutilisable au sein d’une page), l’état (un menu déroulé, une sidebar alternative), le thème (dans le cas d’un template utilisé plusieurs fois). Ce guide permet de structurer son processus d’intégration grâce à une forte décomposition de l’agencement des pages web à créer. Loin d’imposer une structure précise, il préconise une façon de penser un travail d’intégration de façon à faciliter la maintenance et à rendre possible la réutilisation des éléments à styliser. × En illustration : le livre SMACCS de J. Snook 11 Graceful degradation : on parle de dégradation pour traduire le fait qu’un site web ne s’affichera pas de façon optimale sur les navigateurs non mis à jour ou ne prenant pas en compte les dernières propriétés CSS validées par le W3C. L’intégrateur fait donc en sorte que ces dégradations ou simplification des éléments à l’écran soient le plus élégant possible : c’est la dégradation gracieuse, littéralement traduit de l’anglais. Par exemple, un bouton possédant une transition de couleur ou de mouvement au survol changera instantanément de fond sans transition aucune lorsqu’un utilisateur visionnera le site sur un navigateur “ancien”. Ces dépréciations ne sont pas forcément liées au CSS mais peuvent également être liées à la désactivation de Javascript.
  11. 11. La mise en place d’une démarche qualité globale lors de la création d’un service multimédia est aujourd’hui adoptée par la plupart des agences web. Cette vérification du code et de la structure du site vise un double objectif : augmenter le taux d’accessibilité du site tout en maximisant l’expressivité du contenu pour favoriser le référencement. L’utilisation pertinente des balises “sémantiques” proposées HTML5 n’est donc pas à négliger. Enfin, devant la multiplication des supports devant afficher les services conçus, les entreprises ont mis un certain temps à délibérer sur la meilleure façon d’appréhender la situation changeante du contexte de navigation. Les sites dits responsive (qui adaptent leur proportions à l’interface de navigation) se sont largement imposés pour la plupart des agences web souhaitant créer un même produit pour ordinateur, tablette et smartphone. Si le redimensionnement et l’appauvrissement du contenu sont bien gérés, le service responsive sera optimal. Les librairies facilitant ces procédés d’intégration se sont multipliées et la plupart d’entre elles sont Open Source. Les prestataires devront en revanche se tourner vers des applications spécifiques au périphérique (application iPhone et Android par exemple) si le service doit se connecter aux fonctionnalités de l’appareil pour réaliser leur fonction. 12
  12. 12. 3. De la standardisation vers l’évolution 3.1. Nouvelles pratiques et nouvelles attentes La possession de différents appareils d’accès au web, la volonté d’un accès quasi-instantané au contenu, le nomadisme, … sont autant de comportements qui poussent à l’exigence du côté de l’utilisateur et à la rigueur du côté du concepteur. L’internaute devient en effet de plus en plus accoutumé aux technologies de web, si bien qu’un passionné suivant les nouvelles sorties de smartphones, sera plus au fait des fonctionnalités, des caractéristiques de ces produits qu’un ergonome ou développeur mobile (c’est le concept de pro / am, contraction de professionnel et amateur ; un citoyen ordinaire peut donc sous cet angle passer pour un semi-professionnel). La standardisation des formats et des pratiques du web sera déterminante pour la gestion du nomadisme et du pluri-accès à l’information du citoyen contemporain. Pour les designers et les développeurs, la problématique principale sera de faire en sorte que le contenu soit présenté de façon optimale à l’utilisateur, et que la structure de donnée de ce contenu soit pertinente en vue de son analyse, de son traitement et de son indexation. Pour résumer, la donnée doit être autant accessible aux hommes qui la consultent qu’aux machines qui la traitent. En ce qui concerne la présentation de l’information à l’internaute, c’est aux designers d’utiliser (ou d’abandonner) les métaphores du web utilisées jusqu’aujourd’hui. La métaphore du livre par exemple, qui a proposé le paradigme du site vu comme un ensemble de pages, tend à disparaître. Elle est bousculée par les modèles de flux chronologique de données (par exemple les blogs et les réseaux sociaux) et par le modèle de “cartes”, qui présente le contenu par blocs de fonctionnalités et de sens. La métaphore de la carte comme agglomération concise de l’information rappelle les objets du monde tangible dont le nom est composé du mot carte : carte routière, carte de visite, carte à puce, carte mère, … × En illustration : des exemples de design par «carte» dont Twitter et Google 13
  13. 13. Ce rassemblement des unités informationnelles sous forme de cartes, de blocs de données agencées, entraîne potentiellement la diminution du nombre de pages. On parle de Pageless webdesign. Les partisans de ce type d’interface de site, qui trouvent le paradigme par page suranné, exposent les nombreux avantages de ce type d’interface : un facilité de développement entraînant un coût restreint, une accessibilité maximisée due à la centralisation du contenu, un storytelling du service proposé en une page. × En illustration : infographie du concept de Pageless design (Betterment) Enfin, l’arrivée des nouveaux composants HTML5 (section, article, aside, nav, … ) permet de rendre les composants d’une page web de plus en plus expressifs concernant leur rôle dans la structure globale du service développé. Après avoir travaillé à l’esthétisme et à l’affordance des éléments affichés sur la page, c’est à leur richesse sémantique que les acteurs du web s’intéressent dorénavant. Le structure HTML est un des premiers enjeux de cette optimisation des formats de la donnée. La seconde est la caractérisation des données relatives aux documents présentés, qu’on appelle méta-données : nature du document, date, auteur, mots clefs, … Concrètement, les méta-données en intégration web existent depuis longtemps et permettent de caractériser sommairement une page en lui donnant un titre, une description et des mots clefs (qui ne sont plus reconnus par Google). Plus largement, l’Europe avait adopté en 2002 le schéma commun de données Dublin Core pour classifier l’ensemble des documents numériques produits, comprenant officiellement 15 types de méta-données de référence. Peu adopté sur le web, ce modèle a été cannibalisé par le protocole Open Graph de Facebook, qui utilise un format de donnée similaire (og:description au lieu de description par exemple) pour caractériser le contenu et maximiser les résultats de recherche de son moteur de recherche interne, deuxième plus utilisé au monde derrière Google. Ces balises :og propres à l’Open Graph se retrouvent de plus en plus dans les sites web ordinaires, dont les liens avec Facebook sont importants pour leur stratégie numérique globale. 14
  14. 14. Si l’on creuse encore le processus de caractérisation des données liées aux web, on peut s’intéresser à ce que l’on appelle les micro-données, micro-format de données relatives à un document, introduites par HTML5. Leur force réside dans leur lien avec HTML5 qui en fait un standard de micro-format et un contre-poids à l’expansion des balises Open Graph de Facebook, habitué à fermer ses environnements de développement. De plus, dans un contexte d’objets connectés, des travaux sur les micro-données proposent de caractériser non seulement des documents numériques mais également des entités bien tangibles : telles que des entreprises, des machines et même des individus. <article itemscope itemtype=’http://data-vocabulary.org/Organization’> <h1 itemprop=’name’>Google, Inc.</h1> <p itemprop=’address’ itemscope itemtype=’http://data-vocabulary.org/Address’> <span itemprop=’street-address’>1600 Amphitheatre Parkway</span><br> <span itemprop=’locality’>Mountain View</span>, <span itemprop=’region’>CA</span> <span itemprop=’postal-code’>94043</span><br> <span itemprop=’country-name’>USA</span> </p> <p> US: <span itemprop=’tel’>650-253-0000</span><br> UK: <span itemprop=’tel’>00-1-650-253-0000</span> </p> <p itemprop=’url’><a href=’http://www.google.com/’>Google.com</a></p> <span itemprop=’geo’ itemscope itemtype=’http://data-vocabulary.org/Geo’> <meta itemprop=’latitude’ content=’37.4149’ /> <meta itemprop=’longitude’ content=’-122.078’ /> </span> </article> × Exemple de structure de micro-données qualifiant une organisation 15
  15. 15. 3.2. Informatique ubiquitaire & lifestream On parle d’ubiquitous computing, d’informatique ubiquitaire en français, pour caractériser le fait que l’homme du XXIe siècle est entouré à tout moment de sa journée d’appareils de traitement de l’information. Quelque soit son support et contexte de navigation, il a accès sous des formes variées aux données. Pour s’accorder avec ce comportement, les concepteurs de dispositifs multimédia ont globalement compris les enjeux de l’adaptabilité et de la caractérisation des données. Reste à les mettre en oeuvre. On ne peut plus se satisfaire d’un service à l’interface figée que l’on livre à l’internaute. Il est désormais préférable de raisonner en terme d’agrégats d’informations porteurs de sens, de blocs fonctionnels, dont les données sont caractérisées et labelisées, en fonction de leur nature et de leur fonction. En intégration web, il faut penser en terme de modules, à la fonction définie, et réutilisables. En ergonomie, la problématique est similaire. Comment peut être utilisé / manipulé par l’internaute ce bloc d’information ? Everyware : introduit par Adam Greenfield, paru en 2006, l’Everyware est un autre nom de l’informatique ubiquitaire. Cela s’oppose au modèle précédent de l’ordinateur personnel et fixe des années 1990. Les recherches de Greenfield portent notamment sur le rapport entre le citoyen et sa ville via les multiples réseaux qu’il utilise : réseaux de données, de transports, d’énergies, … L’internaute est devenu mobinaute avec la démocratisation du smartphone, sans délaisser totalement l’ordinateur, en se procurant un intermédiaire comme la tablette. Il active donc plusieurs dispositifs informatiques simultanément au quotidien, en espérant toujours retrouver les données dont il a besoin pour ses activités. Comme évoqué plus tôt dans ce dossier, le système de classification du contenu à l’aide de micro-données, une fois étendu aux objets du monde réel tels que les objets connectés et les dispositifs informatiques à intelligence artificielle, permettrait de créer un lien entre le monde du numérique et le monde tangible. La domotique est le premier exemple en application des possibilités de couplage des deux domaines (KNX est un exemple de standard lié à la domotique). Vient ensuite l’assistant personnel électronique qui permet d’aider à l’organisation du quotidien et serait le premier dispositif à profiter d’un standard de micro-données. Des interactions entre intelligences artificielles et objets connectés permettraient ainsi des automatismes pour la facilitation des activités humaines quotidiennes. Mais des standards de caractérisation de données pourraient encore davantage révolutionner notre rapport à celles-ci. En effet, pour certains analystes du web et essayistes, certains paradigmes du web sont dépassés. David Gelertner, professeur d’informatique à Yale, est l’un d’entre eux. Il dénonce le cloisonnement des contenus, tel qu’on le retrouve dans le monde réel. Il prend l’exemple des e-boutiques : nous passons d’un site de vente en ligne à un autre comme si nous changions de boutique, les produits sont donc cantonnés à leurs boutiques respectives. Il en va de même pour notre multi-consultation de médias via des journaux en ligne ou des réseaux sociaux. La vision du futur de Gelertner est celle d’un flux de données, toutes caractérisées comme nous l’avons vu précédemment par des micro-données, dans lequel nous irions piocher selon nos besoins. Gelertner l’a baptisé le lifestream. Il concentrerait l’intégralité des flux de données existantes : timeline de Facebook, flux de tweets de Twitter, articles de blogs, flux RSS, … une gigantesque cascade perpétuelle de données. Le futur du navigateur serait par conséquent un dispositif capable de puiser dans ce flux ce que l’internaute recherche, et de faire remonter les informations en fonction des données qui les définissent. 16
  16. 16. People no longer want to be connected to computers or ‘sites’ (they probably never did). - David Gelertner Le concept date des années 1990 déjà et s’apparente à ce que nous appelons Big Data, l’amas global de données que l’homme stocke en ligne, sauf qu’au lieu d’avoir un océan de données, Gelertner voit plus le phénomène comme une cascade. Cela s’explique par le fait qu’il part du principe que l’important est l’information chaude, la nouvelle et dernière donnée produite. × Le Lifestream, croqué sur une nappe par Gelertener durant une interview 17
  17. 17. Conclusion On remarque clairement que la standardisation au cours de l’histoire n’a pas toujours été en faveur de la créativité, notamment pour les Beaux Arts. Les rois et l’Église encadrèrent la culture pour des raisons politiques et morales, et les Académies pour conserver le sens premier du mot art, qui exprime une habileté particulière, un talent. Libéré des institutions, le XXe siècle aura ainsi été plus créatif en terme de richesse de concepts, sûrement au détriment des techniques artistiques elles-mêmes. De son côté, la standardisation des techniques a montré qu’elle représentait un gain de temps, un vecteur d’économie, un garant de sécurité, … Elle a permis le développement incroyable des technologies humaines depuis la Révolution Industrielle jusqu’à nos jours. Mais la standardisation a également montré ses limites lorsque l’homme l’applique à ses semblables. Au contraire de ce qu’on a pu voir au XXe siècle, le domaine du web n’a pas répété les fautes des précédents processus de normalisation technique. La normalisation des langages est un procédé quasi-démocratique (malgré les éventuels lobbies des entreprises) et implique tous les acteurs du web : designers, membres d’entreprises, concepteurs de navigateurs, … pour établir des bases communes propices à la collaboration, la création et l’innovation. 18
  18. 18. Références × Léa Verou nous parle d’intégration et du W3C http://www.webmonkey.com/2013/02/developer-lea-verou-on-why-web-standards-matter/ × Le lifestream http://www.wired.com/opinion/2013/02/the-end-of-the-web-computers-and-search-aswe-know-it/ × Design by cards http://insideintercom.io/why-cards-are-the-future-of-the-web/ × Histoire de l’HTML5 http://www.reussirsonwebmarketing.com/wp-content/uploads/2012/07/Histoire-HTML-5.jpg × Blake Snyder & blockbusters http://www.slate.fr/story/75812/recette-blockbuster-pourquoi-tous-films-americains-seressemblent × Villard de Honnecourt http://classes.bnf.fr/villard/reperes/index6.htm × Un brillant article sur les avantages de la standardisation http://www.fastcodesign.com/1664682/5-ways-that-standardization-can-lead-to-innovation × Futur des standards du web (2010) http://www.techradar.com/news/internet/the-future-of-web-standards-718911 × Les leviers de l’innovation par Cavazza http://www.fredcavazza.net/2011/07/07/les-leviers-dinnovation-du-web-pour-les-5-prochaines-annees/ × L’art au XXe siècle, Taschen http://www.taschen.com/pages/fr/catalogue/art/all/48701/facts.lart_au_xxe_siecle.htm × Betterment blog : pageless design http://www.dtelepathy.com/blog/design/8-reasons-why-pageless-design-is-the-future-of-theweb × Betterment : smart design http://www.dtelepathy.com/blog/news-events/impress-smart-site 19

×