L'avalanche de donnée numériques que ce soit dans le web, le cloud, au sein de l'entreprise numérique, dans la vie publique (OpenData) ou au coeur de la recherche médicale rend indispensable l'emergence de nouveaux outils pour visualiser, manipuler et comprendre les données. Une nouvelle discipline extremement créative issue de la recherche en analyse de données et en interaction homme-machine (IHM) propose ces nouveaux outils. Nous avons invité Jean-Daniel Fekete, directeur de recherche à l'INRIA, pour faire le point sur les tendances actuelles, tracer des perspectives et nous presenter les travaux de son equipe.
De l'IA au Calcul Littéraire: Pourquoi j'ai zappé le Web Sémantique Jean Rohmer
Je parle en tant que chercheur, programmeur et utilisateur de mes développements
Je fais de l’informatique depuis 44 ans
Je suis déçu par l’évolution de l’informatique
Depuis 40 ans on n’a presque rien trouvé de neuf en logiciel
Le logiciel n’est pas réductible à de l’ingénierie
J’essaie de construire des Amplificateurs d’Intelligence
J’écris du contenu sémantique chaque jour depuis 1997
Le nœud du problème est le langage: langage de programmation et langage naturel
Etymologiquement, programmer veut dire « écrire à l’avance »
Le futur n’est pas écrit, donc la programmation n’a pas de futur
La programmation n’a pas de passé: on a oublié les meilleurs langages (Lisp, APL, Prolog) et l’Intelligence Artificielle des années 80.
Il est très difficile de développer des applications intelligentes avec les langages à la mode
On a oublié ce qu’était une application intelligente
« Software Engineering » est une contradiction dans les termes
Il y a deux sortes de langages de programmation: ceux faits pour programmer les machines (à la mode), ceux faits pour résoudre des problèmes difficiles (oubliés)
Expériences de gestion des connaissances avec IDELIANCE: supprimons le document!Jean Rohmer
Cet article tire quelques leçons de la conception et
de l’usage de l’outil IDELIANCE depuis une di-
zaine d’années. Idéliance est un outil de gestion de
réseaux sémantiques développé à partir de 1993,
c’est à dire à une époque où Internet était encore
très peu répandu dans l’industrie, et le Web sé-
mantique tout à fait in
existant. Nous résumons
brièvement les caractéristiques de Idéliance, et
nous nous intéressons surtout aux applications in-
dustrielles qui en ont été faites. Ceci est l’occasion
de s’interroger sur les
motivations des « cols
blancs » vis à vis de la gestion des connaissances,
que nous opposerons ici à la gestion documen-
taire.
Mots clés :
Ingénierie des connaissances ; représen-
tation des connaissances ; attitudes personnelles et
collectives face à la gestion des connaissances
L'informatique n'est pas l'amie des donnéesJean Rohmer
Voici la présentation que j'ai faire au colloque GREC-O "Les systèmes complexes face au tsunami exponentiel du numérique".
Pour moi, une donnée est une phrase entière, un énoncé.
J'y explique que l'ordinateur "matériel" n'a pas été fait pour traiter les données, les langages de programmation non plus.
Et que cela handicape beaucoup les utilisations de l'informatique.
Exploitez tout le potentiel de vos données d'entreprise quelle que soit leur...Microsoft Décideurs IT
Session Dell : Vos données constituent la clé pour comprendre vos clients, améliorer vos performances métier et identifier de nouvelles opportunités. Mais pour extraire de la valeur à partir de données de plus en plus nombreuses et complexes, vous avez besoin d’outils permettant de simplifier considérablement l’accès, l’analyse et la gestion des données — sans compromettre la sécurité. Dell Software propose des solutions puissantes mais simples d’utilisation, couvrant tous les besoins relatifs au cycle de vie de l’information pour vous permettre de mieux gérer les données (TOAD), améliorer leur intégration (Boomi, Shareplex et Statistica) et amplifier les avantages de l’analyse des données (Statistica). Peu importe la plate-forme que vous utilisez, nos solutions complètent vos technologies préférées et vous aident à tirer le meilleur parti de vos données et de vos investissements dans les systèmes d’information.
Présentation lors de l'événement "Connect" organisé en octobre 2015 à l'EPFL à Lausanne par Swisscom, Innovaud, EPFL et la Chambre de Commerce du Canton de Vaud.
Présentation de la situation actuelle (loi suisse sur la protection des données) et des nouveaux défis du big data et du smart data.
De l'IA au Calcul Littéraire: Pourquoi j'ai zappé le Web Sémantique Jean Rohmer
Je parle en tant que chercheur, programmeur et utilisateur de mes développements
Je fais de l’informatique depuis 44 ans
Je suis déçu par l’évolution de l’informatique
Depuis 40 ans on n’a presque rien trouvé de neuf en logiciel
Le logiciel n’est pas réductible à de l’ingénierie
J’essaie de construire des Amplificateurs d’Intelligence
J’écris du contenu sémantique chaque jour depuis 1997
Le nœud du problème est le langage: langage de programmation et langage naturel
Etymologiquement, programmer veut dire « écrire à l’avance »
Le futur n’est pas écrit, donc la programmation n’a pas de futur
La programmation n’a pas de passé: on a oublié les meilleurs langages (Lisp, APL, Prolog) et l’Intelligence Artificielle des années 80.
Il est très difficile de développer des applications intelligentes avec les langages à la mode
On a oublié ce qu’était une application intelligente
« Software Engineering » est une contradiction dans les termes
Il y a deux sortes de langages de programmation: ceux faits pour programmer les machines (à la mode), ceux faits pour résoudre des problèmes difficiles (oubliés)
Expériences de gestion des connaissances avec IDELIANCE: supprimons le document!Jean Rohmer
Cet article tire quelques leçons de la conception et
de l’usage de l’outil IDELIANCE depuis une di-
zaine d’années. Idéliance est un outil de gestion de
réseaux sémantiques développé à partir de 1993,
c’est à dire à une époque où Internet était encore
très peu répandu dans l’industrie, et le Web sé-
mantique tout à fait in
existant. Nous résumons
brièvement les caractéristiques de Idéliance, et
nous nous intéressons surtout aux applications in-
dustrielles qui en ont été faites. Ceci est l’occasion
de s’interroger sur les
motivations des « cols
blancs » vis à vis de la gestion des connaissances,
que nous opposerons ici à la gestion documen-
taire.
Mots clés :
Ingénierie des connaissances ; représen-
tation des connaissances ; attitudes personnelles et
collectives face à la gestion des connaissances
L'informatique n'est pas l'amie des donnéesJean Rohmer
Voici la présentation que j'ai faire au colloque GREC-O "Les systèmes complexes face au tsunami exponentiel du numérique".
Pour moi, une donnée est une phrase entière, un énoncé.
J'y explique que l'ordinateur "matériel" n'a pas été fait pour traiter les données, les langages de programmation non plus.
Et que cela handicape beaucoup les utilisations de l'informatique.
Exploitez tout le potentiel de vos données d'entreprise quelle que soit leur...Microsoft Décideurs IT
Session Dell : Vos données constituent la clé pour comprendre vos clients, améliorer vos performances métier et identifier de nouvelles opportunités. Mais pour extraire de la valeur à partir de données de plus en plus nombreuses et complexes, vous avez besoin d’outils permettant de simplifier considérablement l’accès, l’analyse et la gestion des données — sans compromettre la sécurité. Dell Software propose des solutions puissantes mais simples d’utilisation, couvrant tous les besoins relatifs au cycle de vie de l’information pour vous permettre de mieux gérer les données (TOAD), améliorer leur intégration (Boomi, Shareplex et Statistica) et amplifier les avantages de l’analyse des données (Statistica). Peu importe la plate-forme que vous utilisez, nos solutions complètent vos technologies préférées et vous aident à tirer le meilleur parti de vos données et de vos investissements dans les systèmes d’information.
Présentation lors de l'événement "Connect" organisé en octobre 2015 à l'EPFL à Lausanne par Swisscom, Innovaud, EPFL et la Chambre de Commerce du Canton de Vaud.
Présentation de la situation actuelle (loi suisse sur la protection des données) et des nouveaux défis du big data et du smart data.
Documation 2011 : de la recherche fédérée à l'accès unifiéAntidot
Toute organisation subit les limites de son système d’information : entrepôts de données cloisonnés, données hétérogènes, documents non structurés, thésaurus incomplets, taxonomies incohérentes…
Les utilisateurs en souffrent et attendent un véritable « accès unifié à l’information » : trouver l’information par les concepts plutôt que la chercher par les mots, naviguer aisément dans l’information, mieux l’exploiter en collaborant. L’entreprise doit évoluer vers un « espace informationnel enrichi », servant différents usages selon le profil ou la mission de chaque collaborateur.
La vision innovante d'Antidot permet d’aller bien au-delà de ce que permettent les approchent traditionnelles comme la « recherche fédérée » ou encore les « search based applications » car Antidot Information Factory et Antidot Finder Suite permettent de modéliser l’information, de capter, normaliser, décrire et agréger des données puis d’en inférer des informations nouvelles, facilement accessibles.
Intégrant nativement les technologies du web sémantique, Antidot apporte les solutions les plus en pointe dans le domaine et démontre à travers une réalisation emblématique - le projet ISIDORE du CNRS TGE Adonis - comment remodeler et diffuser une information à forte valeur ajoutée.
1Collecte, analyse et valorisation de Bigdata textuelles multilinguesAproged
Collecte, analyse et valorisation de contenus multilingues
avec François-Régis Chaumartin (Proxem) et Claude de Loupy (Syllabs)
Dans un monde globalisé, les fonds documentaires (internes ou issus d'une veille sur le web) sont loin d'être tous en français, et nécessitent pour être exploités de dépasser la barrière des langues.
François-Régis Chaumartin et Claude de Loupy présenteront la démarche pour effectuer une collecte multilingue sur le web et une analyse sémantique des Big data textuelles.
Nous verrons avec des illustrations provenant de retours d'expériences concrets, comment analyser un ensemble de marchés, de thématiques,d'articles de presse et de technologies rapidement et dans la plupart des langues existantes.
Introduction au Big Data présentée de Jakob Harrtung, Directeur Business Développement & Partenariats, Microsoft
Evénement - Big Data : de l'analytics à la créativité ...
Valtech - 29/11
Comment accompagner vos équipes pour passer du Data Mining traditionnel à la Data Science ?
Stockage, analyse, activation et mesure constituent les éléments clés de la valorisation de la donnée. Parallèlement, la promesse des technologies est de permettre d'opérer ce processus de façon plus agile, tout en réduisant le "time to market". Tout ceci devant être accompagné par des évolutions des organisations et des compétences :
• Technologies : mise en place de Data Lake consolidant l'ensemble des données de l'entreprise, avec des capacités de stockage et de traitements adaptés. Évolution des outils de BI et analytics,...
• Compétences : montée en compétence sur les architectures NoSQL, les nouveaux outils, les nouvelles sources de données, les nouvelles méthodes de modélisations, le deep machine learning, la datavisualisation,...
• Organisations : mise en place d'une nouvelle gouvernance : re-répartition des rôles entre l'IT, le marketing et la Data Science. Création de nouvelles fonctions : Chief Data Officer, Data Analyst, Data Manager,...
Dans ce contexte de mutation, quels sont les impacts pour le Data Mining et comment accompagner ce changement ?
Nous vous invitons à un séminaire gratuit qui abordera les questions suivantes :
• Quelles sont les possibilités et les nouvelles perspectives d'analyse offerte par le Big Data ?
• Quels sont les impacts sur le quotidien du Data Miner : quels sont les outils/techniques à maîtriser ?
• Comment accompagner vos équipes dans le passage du Data Mining à la Data Science ?
• Quels sont les principes d'organisation et de gouvernance ?
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech
La Business Intelligence, dans l’entreprise, est actuellement en train de se métamorphoser.
Le Big Data permet d’explorer de nouvelles possibilités qui révolutionnent l’informatique décisionnelle.
Hervé Desaunois - Directeur technique, Valtech Toulouse
herve.desaunois@valtech.fr
Lionel Molas - Consultant Senior - Coach Agile, Valtech Toulouse
Du Big Data vers le SMART Data : Scénario d'un processusCHAKER ALLAOUI
Du Big Data vers le SMAR Data : Scénario d'un processus
Scénario d'une implémentation d'un processus de transformations des données Big Data vers des données exploitables et représentatives via des traitements des streaming, systèmes distibués, messages, stockage dans un environnement NoSQL, gestion avec un éco-système Big Data et présentation graphique et quantitative des données avec les technologies:
Apache Storm, Apache Zookeeper, Apache Kafka, Apache Cassandra, Apache Spark et Data-Driven Document.
Livre blanc - Datavisualisation 10h11 - Mars 2015polenumerique33
Livre blanc - Datavisualisation de la société bordelaise 10h11 - Mars 2015
Pour télécharger le document suivez le lien http://bit.ly/1Iwf546
Le Pôle Numérique de la CCI de Bordeaux a eu le plaisir d'organiser sur Bordeaux un atelier sur la "datavisualisation : une image vaut qu’un long discours communiquez visuellement avec vos données" avec la société bordelaise 10H11 à consulter ici http://bit.ly/1INWGwt
Documation 2011 : de la recherche fédérée à l'accès unifiéAntidot
Toute organisation subit les limites de son système d’information : entrepôts de données cloisonnés, données hétérogènes, documents non structurés, thésaurus incomplets, taxonomies incohérentes…
Les utilisateurs en souffrent et attendent un véritable « accès unifié à l’information » : trouver l’information par les concepts plutôt que la chercher par les mots, naviguer aisément dans l’information, mieux l’exploiter en collaborant. L’entreprise doit évoluer vers un « espace informationnel enrichi », servant différents usages selon le profil ou la mission de chaque collaborateur.
La vision innovante d'Antidot permet d’aller bien au-delà de ce que permettent les approchent traditionnelles comme la « recherche fédérée » ou encore les « search based applications » car Antidot Information Factory et Antidot Finder Suite permettent de modéliser l’information, de capter, normaliser, décrire et agréger des données puis d’en inférer des informations nouvelles, facilement accessibles.
Intégrant nativement les technologies du web sémantique, Antidot apporte les solutions les plus en pointe dans le domaine et démontre à travers une réalisation emblématique - le projet ISIDORE du CNRS TGE Adonis - comment remodeler et diffuser une information à forte valeur ajoutée.
1Collecte, analyse et valorisation de Bigdata textuelles multilinguesAproged
Collecte, analyse et valorisation de contenus multilingues
avec François-Régis Chaumartin (Proxem) et Claude de Loupy (Syllabs)
Dans un monde globalisé, les fonds documentaires (internes ou issus d'une veille sur le web) sont loin d'être tous en français, et nécessitent pour être exploités de dépasser la barrière des langues.
François-Régis Chaumartin et Claude de Loupy présenteront la démarche pour effectuer une collecte multilingue sur le web et une analyse sémantique des Big data textuelles.
Nous verrons avec des illustrations provenant de retours d'expériences concrets, comment analyser un ensemble de marchés, de thématiques,d'articles de presse et de technologies rapidement et dans la plupart des langues existantes.
Introduction au Big Data présentée de Jakob Harrtung, Directeur Business Développement & Partenariats, Microsoft
Evénement - Big Data : de l'analytics à la créativité ...
Valtech - 29/11
Comment accompagner vos équipes pour passer du Data Mining traditionnel à la Data Science ?
Stockage, analyse, activation et mesure constituent les éléments clés de la valorisation de la donnée. Parallèlement, la promesse des technologies est de permettre d'opérer ce processus de façon plus agile, tout en réduisant le "time to market". Tout ceci devant être accompagné par des évolutions des organisations et des compétences :
• Technologies : mise en place de Data Lake consolidant l'ensemble des données de l'entreprise, avec des capacités de stockage et de traitements adaptés. Évolution des outils de BI et analytics,...
• Compétences : montée en compétence sur les architectures NoSQL, les nouveaux outils, les nouvelles sources de données, les nouvelles méthodes de modélisations, le deep machine learning, la datavisualisation,...
• Organisations : mise en place d'une nouvelle gouvernance : re-répartition des rôles entre l'IT, le marketing et la Data Science. Création de nouvelles fonctions : Chief Data Officer, Data Analyst, Data Manager,...
Dans ce contexte de mutation, quels sont les impacts pour le Data Mining et comment accompagner ce changement ?
Nous vous invitons à un séminaire gratuit qui abordera les questions suivantes :
• Quelles sont les possibilités et les nouvelles perspectives d'analyse offerte par le Big Data ?
• Quels sont les impacts sur le quotidien du Data Miner : quels sont les outils/techniques à maîtriser ?
• Comment accompagner vos équipes dans le passage du Data Mining à la Data Science ?
• Quels sont les principes d'organisation et de gouvernance ?
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech
La Business Intelligence, dans l’entreprise, est actuellement en train de se métamorphoser.
Le Big Data permet d’explorer de nouvelles possibilités qui révolutionnent l’informatique décisionnelle.
Hervé Desaunois - Directeur technique, Valtech Toulouse
herve.desaunois@valtech.fr
Lionel Molas - Consultant Senior - Coach Agile, Valtech Toulouse
Du Big Data vers le SMART Data : Scénario d'un processusCHAKER ALLAOUI
Du Big Data vers le SMAR Data : Scénario d'un processus
Scénario d'une implémentation d'un processus de transformations des données Big Data vers des données exploitables et représentatives via des traitements des streaming, systèmes distibués, messages, stockage dans un environnement NoSQL, gestion avec un éco-système Big Data et présentation graphique et quantitative des données avec les technologies:
Apache Storm, Apache Zookeeper, Apache Kafka, Apache Cassandra, Apache Spark et Data-Driven Document.
Livre blanc - Datavisualisation 10h11 - Mars 2015polenumerique33
Livre blanc - Datavisualisation de la société bordelaise 10h11 - Mars 2015
Pour télécharger le document suivez le lien http://bit.ly/1Iwf546
Le Pôle Numérique de la CCI de Bordeaux a eu le plaisir d'organiser sur Bordeaux un atelier sur la "datavisualisation : une image vaut qu’un long discours communiquez visuellement avec vos données" avec la société bordelaise 10H11 à consulter ici http://bit.ly/1INWGwt
Antonio CASILLI - Régimes de production des visualisations de donnéesBodyspacesociety Blog
Slides de la conférence 'Régimes de production des visualisation de données : un regard critique' d'Antonio A. Casilli (ParisTech/EHESS) dans le cadre de l’Action Nationale de Formation (ANF) "Visualiser les données de la recherche en SHS : un nouvel horizon pour les humanités numériques ?" (24 septembre 2013).
Antonio CASILLI - Le rôle des visualisations de données dans la recherche sur...Bodyspacesociety Blog
Slides de la première séance 2013/14 su séminaire EHESS d'Antonio A. Casilli "Étudier les cultures du numérique : approches théoriques et empiriques" (18 nov. 2013).
Amar Lakel - Patrimonialisation numérique et avenir digital du document.Amar LAKEL, PhD
Les humanités numériques sont la rencontre entre la numérisation des traces de l’activité humaine et la démarche scientifique des SHS. Si le digital turn est une révolution sociétale, la pratique du chercheur ne peut échapper aux enjeux majeurs d’une innovation radicale de ses pratiques. Dans le cadre de cette master class, Amar LAKEL s’est interrogé sur la capacité d’innovation du chercheur en SHS qu’il distingue de ses capacités de professionnel de la recherche. Il enjoint alors la recherche à réussir une série d’épreuves pour réussir son entrer dans le XXIe siècle.
Vous trouverez la présentation video ici : https://youtu.be/YHj953Yb95w
Et l’article sur lequel se fonde cette présentation dans la revue Etudes digitales N°6 : https://www.researchgate.net/publication/332671854_Recherches_digitales_et_production_des_donnees_bouleversement_des_agencements_pour_le_chercheur_en_SIC
Softshake 2015 - Des small data aux big data - Méthodes et TechnologiesOCTO Technology Suisse
L'importance de la donnée et les informations que nous pouvons en tirer sont en train de révolutionner notre monde. De plus en plus massives et hétérogènes, l'exploitation de ces données induit de faire appel à de nouvelles méthodes et technologies. Ces évolutions récentes en termes de moyens de stockage, de capacités de calcul et de méthodes d'analyse donnent une nouvelle place aux données dans notre quotidien.
Cette présentation offre une découverte du monde du big data en introduisant les différentes méthodes et technologies utilisées et en les illustrant de plusieurs cas pratiques.
courts circuits : les nouveaux créatifs de l'ère digitale : "ici, maintenant,...nous sommes vivants
Rapport d'innovation du Courts circuits du mois de janvier 2008 sur les avancées du numerique...emergence de nouveaux artistes...nouvelles perspectives ouvretes par l'ére digitale....
Nous invitons Jean-Daniel Fekete, directeur de recherche à Inria Saclay-Ile de France. Son domaine de recherche est l'analyse et la visualisation d'informations volumineuses et complexes. Jean-Daniel Fekete est General Chair de la conférence IEEE VIS 2014, organisée pour la première fois en dehors des US, à Paris en novembre 2014. La session portera sur un aperçu de l'état de l'art, principaux verrous et défis du domaine de la visualisation de données dans un contexte de données massives. Le thème de la "data visualisation" est presque aussi galvaudé que celui du big data: qu'est ce qu'une visualisation réellement utile à l'analyse et à la compréhension du sens des données étudiées? quelles sont les contraintes et les possibilités en fonction du niveau d'expertise ou de connaissance du domaine de la part de l'utilisateur? grand public ou expertise extrème, même challenges ou pas? La session sera illustrée de nombreux exemples concrets, dans le domaine des réseaux sociaux, de la médecine et dans le cadre d'experimentations sur la plateforme Digiscope (visualisation sur ultra large displays). Pour en savoir plus: Jean-Daniel Fekete: http://www.aviz.fr/~fekete Equipe INRIA AVIZ: http://www.aviz.fr/ IEEE VIS 2014: http://ieeevis.org/ Digiscope: http://www.digiscope.fr
Speakers : Jean-Daniel Fekete (Inria), Pierre-Louis Xech (Microsoft France)
Lync : intégration et interopérabilité à votre existant, quoi de neuf ?Microsoft Décideurs IT
Lync évolue, son écosystème aussi. Comme Lync s'intègre dans la plupart des projets dans un environnement existant et doit interopérer avec votre/vos téléphonie(s), vos salles de visio et vos applications métier, au cours de cette session, nous examinerons les bonnes pratiques de coexistence et d'interconnexion, temporaire pour une migration ou plus long terme. Nous ferons un panorama des évolutions des principaux acteurs de cette interopérabilité, avec la taille et complexité des projets croissants, et un focus sur les systèmes de supervision et d'exploitation de ces environnements complexes. Nous aurons aussi lors de cette session la présence exceptionnelle de Rui Maximo, de Lync Solution qui a notamment participer au développement de Lync au sein des équipes produits.
Lync : intégration et interopérabilité à votre existant, quoi de neuf ?Microsoft Décideurs IT
Lync évolue, son écosystème aussi. Comme Lync s'intègre dans la plupart des projets dans un environnement existant et doit interopérer avec votre/vos téléphonie(s), vos salles de visio et vos applications métier, au cours de cette session, nous examinerons les bonnes pratiques de coexistence et d'interconnexion, temporaire pour une migration ou plus long terme. Nous ferons un panorama des évolutions des principaux acteurs de cette interopérabilité, avec la taille et complexité des projets croissants, et un focus sur les systèmes de supervision et d'exploitation de ces environnements complexes. Nous aurons aussi lors de cette session la présence exceptionnelle de Rui Maximo, de Lync Solution qui a notamment participer au développement de Lync au sein des équipes produits.
La prochaine version de Windows Server va être riche en terme de nouveautés sur la virtualisation de machine et sur le stockage. Venez faire le tour de ces nouveautés en 45 minutes !
3 slides, 45 minutes de démonstration sur la partie IaaS de Microsoft Azure : de la VM Windows, Linux, du stockage, du réseau, du PRA.... Le tout dans la bonne humeur et sans stress
La prochaine version de Windows Server va être riche en terme de nouveautés sur l'administration, le réseau et le VDI. Venez faire le tour de ces nouveautés en 45 minutes !
Big Data ? Self-Service BI ? Open Data ? Mashup de données ? Dans un monde de profusion des données, il est de plus en plus difficile d'en maitriser la qualité. Et pourtant une bonne gouvernance des données est cruciale pour maximiser la valeur ajoutée pour les métiers. Dans cette session, nous traiterons de Data Gouvernance en entreprise et plus particulièrement de Data Quality Management, de Master Data Management, d'intégration de données et de l'implémentation de ces notions avec les outils Microsoft.
Retour d’expérience de Sarenza sur la façon de piloter un projet Power BIMicrosoft Décideurs IT
Le Data Steward devient incontournable dans un système de self-service BI. Mais quel est réellement son travail avec Power BI ? Dans cette session, nous nous mettrons dans la peau du Data Steward pendant 45 minutes et verrons comment il dompte Power BI. Gestion des sources, du Data Catalog, des questions Q&A, de la sécurité, du Data Refresh, de l'usage... Autant de sujets qui impactent le quotidien du Data Steward. Lors de cette session, vous aurez le témoignage d'un vrai Data Steward avec le retour d'expérience de Sarenza.
Dans le sud de Lille, deux ans avant la cyberguerre, le Dr Stan Spearski, un chasseur de malwares auvergnat, fait l’acquisition d’Arnaud, un esclave qui peut l’aider à traquer les frères Teepiaque, les cyber pirates qu’il recherche. Stan promet à Arnaud de lui rendre sa liberté lorsqu’il aura capturé les Teepiaque – morts ou vifs. Alors que les deux hommes pistent les dangereux criminels, Arnaud n’oublie pas que son seul but est de retrouver son compte Facebook, dont il fut séparé à cause du commerce des mots de passe volés… Lorsque Stan et Arnaud arrivent dans l’immense datacenter (néanmoins très green) du puissant Jean-Kevin Le Boulet (pseudo qui ne cachera que très peu l’infâme Pascal), le moindre de leur mouvement est épié par une dangereuse organisation asiatique dirigé par Cheik Cyril… Ils pensaient que patcher était pour les rookies de sysadmins, leurs tickets frelatés vont leur démontrer le contraire : dans l’os Kerberos !
Session MCNEXT: Vous découvrirez dans cette session un panorama des services PaaS de Microsoft dans Azure concernant le Big Data et la Business Intelligence. Vous seront présentés les plateformes HD Insight, Azure Stream Analytics, Azure Data Factory mais aussi Azure Machine Learning.
Windows Server 2003 EOS : l'opportunité de repenser votre IT et mettre en pla...Microsoft Décideurs IT
Session Dell: Chacun ses raisons, chacun ses moyens, chacun sa migration. Alors que l’échéance du 14 juillet 2015 approche à grands pas pour les utilisateurs de Windows Server 2003, différents scénarios sont possibles pour passer sans encombre à un nouvel environnement. Qu’il s’agisse de répondre à des contraintes de compliance, à une fin de garantie ou encore à un enjeu de sécurité, ces projets de migration doivent en effet être abordé de façon précise car ils recèlent de nombreuses opportunités pour votre organisation : • Consolider son infrastructure informatique avec la virtualisation, • Initier ou poursuivre sa transformation vers le cloud, • Optimiser et moderniser ses applications métiers. Pour faire les bons choix, les équipes de Dell, qui ont accompagné plus de 500 entreprises dans leur migration depuis Windows XP l’année dernière, sont prêtes à vous apporter conseils et expertise dans ces nouveaux défis, et partager avec vous les premiers retours d'expérience.
Architectures hybrides: Intégrer vos données métiers dans vos applications cl...Microsoft Décideurs IT
Session Azeo: Découvrez comment intégrer des données provenant du système d'information Onpremise dans vos applications cloud. Comprenez avec nous le rôle clé des Apps pour enrichir les applications SharePoint Online et intégrer l'ensemble de la plateforme Office 365 pour proposer aux utilisateurs une interface unique de collaboration. La preuve par l'exemple avec une démonstration de ces concepts appliqués lors de la mise en oeuvre de la nouvelle plateforme de partage des cinémas Gaumont Pathé.
Reprenez la main sur vos applications SharePoint en mesurant et en optimisant...Microsoft Décideurs IT
Session Dynatrace : La performance et la disponibilité applicative sont des enjeux majeurs à considérer pour assurer un niveau de service satisfaisant à nos utilisateurs. SharePoint a atteint un niveau de maturité technique et fonctionnelle qui rend cette solution incontournable, mais pas infaillible. - Trop souvent, les utilisateurs de SharePoint constatent des dysfonctionnements qui s’avèrent être autant de freins à l’adhésion de la solution. - Que ce soient des lenteurs à l'affichage, des erreurs techniques, des ressources non trouvées ou vos serveurs saturés, il est crucial de s’en préoccuper au plus tôt, avant que la réputation de vos applications ne soit définitivement ternie. Afin de répondre à l’enjeu de la performance applicative, deux questions sont essentielles : Mes utilisateurs rencontrent-ils une insatisfaction ? Quel est l'origine du dysfonctionnement ? L’objectif de cette session est de faire prendre conscience que l’Application Performance Management permet que des solutions à base de SharePoint ne soient plus écartées par les utilisateurs pour de mauvaises raisons, et montrer, à l’heure où l'IT n’a jamais été aussi complexe, qu'il est possible de donner de la visibilité et du confort à ses équipes. Après un état des lieux des sites SharePoint dont les utilisateurs se plaignent, nous aborderons en première partie les concepts clés de l'APM, puis vous assisterez à une démo Live, via une session enregistrée dans un outil d'APM, simulant des visites utilisateurs sur un environnement SharePoint.
Windows Server 2003 EOS : l'opportunité de repenser votre IT et mettre en pla...Microsoft Décideurs IT
Session Dell: Chacun ses raisons, chacun ses moyens, chacun sa migration. Alors que l’échéance du 14 juillet 2015 approche à grands pas pour les utilisateurs de Windows Server 2003, différents scénarios sont possibles pour passer sans encombre à un nouvel environnement. Qu’il s’agisse de répondre à des contraintes de compliance, à une fin de garantie ou encore à un enjeu de sécurité, ces projets de migration doivent en effet être abordé de façon précise car ils recèlent de nombreuses opportunités pour votre organisation : • Consolider son infrastructure informatique avec la virtualisation, • Initier ou poursuivre sa transformation vers le cloud, • Optimiser et moderniser ses applications métiers. Pour faire les bons choix, les équipes de Dell, qui ont accompagné plus de 500 entreprises dans leur migration depuis Windows XP l’année dernière, sont prêtes à vous apporter conseils et expertise dans ces nouveaux défis, et partager avec vous les premiers retours d'expérience.
La collaboration dans Exchange : comparaison on premises et onlineMicrosoft Décideurs IT
Cette session a pour but de démontrer les fonctions de collaboration avancées dans Exchange tout en mettant en avant les différences fondamentales entre la version d'Exchange sur site et la version d'Exchange Online que l'on trouve dans Office 365.
Cette session explique comment faire une architecture et un déploiement hybride Exchange / Office 365 entre des serveurs sur site et des serveurs OnLine afin de couvrir des problématiques telles que la segmentation des utilisateurs dans le Cloud et / ou des contraintes de sécurité et de data privacy concernant les informations à garder sur les serveurs sur site et les serveurs dans le Cloud
L’objectif de cette présentation est de vous sensibiliser sur les besoins d'établir une référence des éléments composant la sécurité de votre environnement Active Directory.: • Modélisation de la délégation • Objets systèmes AD • Comptes privilégiés sur les serveurs membres • Paramètres de sécurité des contrôleurs de domaine. Cette dernière permettra d'évaluer de manière régulière l'existant et ainsi détecter facilement toute non-conformité. Pour illustrer sous une forme de démonstration, nous nous appuierons sur une maquette pour partir d’un environnement de référence et simuler des modifications non désirées. Nous utiliserons ensuite différents outils pour révéler immédiatement toute non-conformité par rapport à la référence établie.
Cas d’étude : Comment simplifier vos backups dans le cloud grâce à VEEAM et M...Microsoft Décideurs IT
Session Veeam : Veeam permet d’assurer la continuité d’activité (The Always-On Business™) au moyen de solutions garantissant la disponibilité du data center moderne. Au cours de cette session, nous nous appuierons sur un cas concret afin d’étudier de manière technique comment architecturer, dimensionner et utiliser les produits VEEAM en adéquation avec Microsoft StorSimple, afin de sauvegarder une infrastructure virtuelle particulièrement agile dans le cloud Azure. Veeam tire pleinement parti des technologies qui composent le data center moderne, telles que Microsoft Hyper-V, pour aider les entreprises à satisfaire leurs objectifs RTPOs, gagner du temps, éliminer les risques et réduire considérablement les coûts d’immobilisation et d’exploitation.
Industrialisez le déploiement de vos infrastructures Cloud depuis votre systè...Microsoft Décideurs IT
Session Aruba : L’industrialisation est devenue une clé dans la compétitivité et la rentabilité des entreprises. Ce constat est aussi valable pour les infrastructures informatiques, qui plus est déportées et virtualisées. Aruba met à disposition de ses clients des jeux d’API et drivers leur permettant de procéder à une intégration en profondeur des infrastructures dans le SI, pouvant même être multi-fournisseurs. Lors de cet atelier, nous nous attacherons à présenter nos principales API ainsi que le driver DeltaCloud, comment s’en servir et ainsi tirer la quintessence d’une infrastructure agile.
Comment bâtir un cloud hybride en mode IaaS ou SaaS et apporter le meilleur d...Microsoft Décideurs IT
Session Hitachi Data Systems: Aujourd’hui, les Datacenters se transforment pour répondre à de nouveaux besoins avec toujours plus d’agilité et de performance mais en parallèle, les DSI réfléchissent à l’optimisation et la réduction des coûts. Hitachi Data Systems propose de nouvelles solutions en mode Cloud Hybride capable de répondre à ces challenges. A travers les solutions de convergences Hitachi Unified Compute Platform pour Microsoft Private Cloud, vous bâtirez facilement un cloud hybride IaaS en vous appuyant sur la gestion logiciel de votre Datacenter ( SDDC ) et les pack d’intégration pour Microsoft Azure. Dans un second temps grâce à nos solutions, vous pourrez aussi apporter un service de mobilité et de synchronisation aux utilisateurs Windows en mode cloud privé, tout en utilisant Azure pour l’archivage de vos données. Ainsi, vous utilisez le meilleur des deux mondes, cloud privé et cloud public, pour vos utilisateurs tout en réduisant vos coûts opérationnels.
Migrer de 2003 à 2012 R2, adopter HyperV ou Microsoft Azure : comment réalise...Microsoft Décideurs IT
Session Vision Solutions (Double-Take) : Double-Take (Vision Solutions) a reçu le Prix de l'Innovation Partner de Microsoft 2014, récompensant un savoir-faire et une technologie unique pour assurer des migrations vers Windows 2012, HyperV et Azure simples et efficaces. Vous avez des besoins de Migration vers 2012 R2 et HyperV ? Rejoignez-nous pour en apprendre plus sur Double-Take Move. Double-Take Move permet la migration de serveurs entiers, OS Applications Données, ainsi que les autorisations, les attributs, et ce sans impact sur les utilisateurs. Double-Take Move garantit l’intégrité de toutes les données migrées, notamment les données des fichiers des applications et des bases de données. Principaux avantages : des migrations universelles de toute source vers toute cible, migrez vers n’importe quelle plateforme physique, virtuelle ou cloud, une mobilité totale des Workloads avec une bascule automatisée, les migrations ne perturbent pas les utilisateurs ni la production. Double-Take Move réplique les modifications vers les nouveaux serveurs physiques ou virtuels, où qu'ils se trouvent, en local ou de manière globale. Options flexibles de limitation de bande passante et de compression intelligente permettant de contrôler la quantité de bande passante allouée aux opérations de migration. Double-Take Move provisionne automatiquement de nouvelles machines virtuelles, et ce sans nécessiter de configurations manuelles.
2. InfoVis / DataViz : Donner
du sens à la révolution
Big Data
8 février 2012
Jean-Daniel Fekete
Directeur de Recherche
INRIA
www.aviz.fr
3. La révolution Big Data
La quantité de données croît de 30% par an depuis 1999
(SIMS, Berkeley)
La quantité de données accessible a cru
exponentiellement depuis 10 ans
2000
Ex abytes
1600
1200
800
400
0
2005 2006 2007 2008 2009 2010 2011
[source: The Diverse and Exploding Digital Universe, IDC, 2008]
4. La révolution Big Data
Les solutions de stockage croissent exponentiellement
Les capteurs génèrent plus de données :
Pollution, logs, température, photos, vidéos, etc.
Les données collectées sont mises en ligne
Les données sont analysées et les analyses sont mises
en ligne
L’univers numérique explose :
2007 : 281 Exa-octets
(281 milliards de Giga-octets)
2010 : barrière du Zeta-octet
franchie
2011 : 1.8 Zeta-octets
5. Les technologies Big Data
Pour gérer la croissance des données, de nouvelles
infrastructures voient le jour :
Cloud (Azure, Amazon, Google, etc.)
NoSQL
Grids
Elles restent un peu compliquées mais sont déjà adoptées
De nouveaux services reposent sur ces infrastructures:
Apple iClouds
Windows Live
Google
DropBox
FaceBook
7. La révolution Big Data ?
―Big Data Is Not the Created Content,
nor Is It Even Its Consumption —
It Is the Analysis of All the Data Surrounding
or Swirling Around It‖
[IDC IVIEW http://www.emc.com/collateral/analyst-reports/idc-extracting-value-from-chaos-ar.pdf
]
8. Data, Information, Knowledge,
Wisdom
Where is the Life we have lost in living?
Where is the wisdom we have lost in knowledge?
Where is the knowledge we have lost in information?
-- from T.S. Eliot, "Choruses from 'The Rock'―
Comment :
transformer des données en information ?
utiliser l’information pour prendre des bonnes décisions et
apprendre de nouvelles connaissances
avoir des réponses à des questions fondamentales dont on
n’a aucune idée aujourd’hui ?
Transformer le déluge de données en opportunités !
9. Le problème
Humain
Transfert
Données
Web, livres, articles
données scientifiques
Comment ?
prix, liste de personnes,
Vision: 100 MB/s
Cours de la bourse Audition: <100 b/s
Informations Haptique/tactile
Odorat
Goût
10. Propriétés de la vision
• Sens ayant la plus grande bande passante
• Rapide, parallèle
• Reconnaissance de formes
• Pré-attentif
• Etend les capacités cognitives et mémorielles
• On pense visuellement
Super. Utilisons-la !
13. Principes de la visualisation d’information
• L’œil et la perception humaine sont remarquablement adaptés à la
reconnaissance de motifs visuels
• La transformation de données abstraites en information visuelle permet
d’utiliser cette aptitude
• Parmi toutes les représentations possibles, seules quelques-unes
« fonctionnent » :
– il faut les trouver et les répertorier
• La psychologie nous donne une base d’explication : la perception
préattentive (Triesman, 85)
– Sans effort
– D’un coup d’œil
– En temps constant
• Êtes-vous préattentifs ?
13
16. Perception préattentive
• Beaucoup de caractéristiques visuelles peuvent être perçues
préattentivement :
– Orientation de ligne/blob, longueur, épaisseur, taille, courbure,
cardinalité, terminaisons, intersections, inclusion, teinte,
clignotement, direction de mouvement, profondeur stéréoscopique,
indices 3D, direction de l’éclairement
• Problèmes :
– Les caractéristiques préattentive interfèrent entre elles
• On pensait même que toutes les caractéristiques préattentives étaient
incompatibles entre elles
– Les caractéristiques sont préattentives dans certaines limites
• 7 couleurs max (Healey, 96)
• 2 ou 3 formes
• Etc.
31. Visualisation Analytique
Lorsque les données sont trop nombreuses, la
visualisation seule ne suffit plus
Limite de la perception, limites des écrans
Il faut combiner visualisation et analyse de données
C’est le domaine de la visualisation analytique ou
Visual Analytics
L’interface graphique pilote à la fois la visualisation
interactive et les analyses
Ces analyses doivent se faire en temps réel (any time)
C’est l’utilisateur qui a le contrôle, pas les algorithmes !
33. Conclusion
L’analyse visuelle, couplée à d’autres analyses automatiques,
permet de donner du sens au Big Data
On trouve ce qu’on cherche
On trouve aussi ce qu’on ne cherchait pas !
Plusieurs représentations sont possibles
Mais beaucoup d’autres sont inefficaces et donc nuisibles
Les représentations spectaculaires ne sont pas toujours
efficaces
Utilisez la visualisation de données / information
Donnez du sens à vous données !