Maintenance Prédictive, personnalisation des interactions clients, optimisation de la supply chain : quand Spark et Hadoop s'immiscent dans les activités opérationnelles de l'entreprise
Pour qu’elles se déclinent en action à la vitesse de votre business, vos décisions doivent être désormais prises sur le terrain, sans délai de latence. Cela nécessite de repenser vos architectures décisionnelles tant en amont, pour collecter, contrôler et unifier l’information en temps réel, qu’en aval, afin d’intégrer l’analytique dans vos applications transactionnelles et digitales. Découvrez comment les technologies de Talend vous permettent d’y parvenir simplement en s’appuyant sur des technologies Big Data les plus avancées telles que Hadoop, Spark, Storm, ou le machine learning.
Quels bénéfices du Big Data pour les retailer. Quelles sont les trajectoires d'adoption du Big Data ? Pourquoi Spark permet-il de démocratiser la mise en oeuvre de nouvelles applications data driven dans le secteur du retail.
Spark : 5 moyens simples et rapides pour exploiter vos Big Data avec Spark et...Jean-Michel Franco
L'environnement Spark change la donne pour les projets Big Data: accélération des prises de décisions et des temps de traitement grâce à l'in-memory ; intégration du décisionnel dans le transactionnel grâce aux architectures lambda ; temps réel et streaming ; machine learning. Le tout dans un environnement intégré. Reste à la prendre en main rapidement, mais aussi à s'en abstraire car il n'est sans doute pas la dernière innovation que l'on peut attendre dans le monde du Big Data en général et de Hadoop en particulier.
Big Data : au delà du proof of concept et de l'expérimentation (Matinale busi...Jean-Michel Franco
Concrétiser les promesses du Big Data avec Hadoop, le Self-Service, les data lakes et le machine learning. Quels cas d'usage, quels retours d'expérience, quelle plate-forme?
Le Big Data en temps réel n’est plus seulement réservée projets à gros budget. En s'appuyant sur Apache Spark, Talend 6 permet aux entreprises de toute taille et de tout secteur d’activité de convertir des Big Data et données issues de l’Internet des Objets en connaissances exploitables immédiatement.
Les exemples d’utilisation d’analytique en temps réel tels que les recommandations personnalisées, la détection des fraudes, les soins préventifs et la tarification prédictive représentent seulement un échantillon des possibilités qui s’offrent aux entreprises ayant accès en temps réel aux informations métier. Cette présentation permet de découvrir les nouvelles capacité de Talend 6 dans ce domaine et aussi de manière plus générale, et aussi comment :
- révéler les données utiles concernant vos produits, clients, et opérations ;
- passer sans efforts au traitement Big Data temps réel et aux applications pour données décisionnelles ;
- capturer et traiter des données issues de l’Internet des Objets facilement pour délivrer des insights rapidement ;
- fournir des données plus sécurisées et fiables grâce à la qualité de données.
Talend Summer 16 (version française) : la Préparation des Données à la Portée...Jean-Michel Franco
Tous vos collaborateurs ont besoin de données pour prendre des décisions avisées et efficaces, mais les données en accès libre et sans contrôle font courir des risques à l'échelle de l’entreprise.
Découvrez les dernières innovations de Talend Summer 16, en particulier :
Accès aux données en libre-service ;
Utilisation des données sous contrôle du département IT, avec sécurité adaptée à chaque rôle ;
Solutions entièrement intégrées dans Talend Data Fabric.
Découvrez comment créer une solution complète de gouvernance des donnéesPrecisely
Les systèmes de gouvernance des données fournissent un cadre pour les politiques, les processus, les règles, les rôles et les responsabilités qui vous aident à gérer vos données. Une excellente stratégie de gouvernance des données, basée sur des outils comme le Collibra Data Governance Center (DGC), est essentielle pour tirer le meilleur parti de vos données.
Trillium Discovery s'intègre de façon transparente à Collibra pour créer une solution complète de gouvernance des données qui fournit des indicateurs sur la santé de vos données pour vous aider à mieux piloter votre organisation, tout en répondant aux contraintes règlementaires.
Participez à ce webinaire et découvrez comment vous pouvez tirer parti de cette intégration dans votre organisation pour construire, appliquer et exécuter facilement des règles de gestion basées sur les politiques de gouvernance des données au sein de Collibra.
Tracer la voie vers le BigData et l'analyse prédictive avec Talend et Amazon AWS.
Peut-on se passer du Big Data, de l’analyse prédictive, ou du machine learning depuis qu’ils ont démontré leur capacité à transformer l’entreprise et à ouvrir les portes de vos marchés à de nouveaux acteurs ? Et sinon, comment s’approprier au plus vite toute cette panoplie technologique, à première vue complexe, coûteuse et en perpétuelle mutation ?
Cette présentation démontre comment s’approprier et orchestrer les plates-formes cloud telles qu’Amazon AWS, pour tirer partie de la puissance de traitements de Hadoop et de Spark dans le cadre d’applications analytiques de nouvelle génération.
Pour qu’elles se déclinent en action à la vitesse de votre business, vos décisions doivent être désormais prises sur le terrain, sans délai de latence. Cela nécessite de repenser vos architectures décisionnelles tant en amont, pour collecter, contrôler et unifier l’information en temps réel, qu’en aval, afin d’intégrer l’analytique dans vos applications transactionnelles et digitales. Découvrez comment les technologies de Talend vous permettent d’y parvenir simplement en s’appuyant sur des technologies Big Data les plus avancées telles que Hadoop, Spark, Storm, ou le machine learning.
Quels bénéfices du Big Data pour les retailer. Quelles sont les trajectoires d'adoption du Big Data ? Pourquoi Spark permet-il de démocratiser la mise en oeuvre de nouvelles applications data driven dans le secteur du retail.
Spark : 5 moyens simples et rapides pour exploiter vos Big Data avec Spark et...Jean-Michel Franco
L'environnement Spark change la donne pour les projets Big Data: accélération des prises de décisions et des temps de traitement grâce à l'in-memory ; intégration du décisionnel dans le transactionnel grâce aux architectures lambda ; temps réel et streaming ; machine learning. Le tout dans un environnement intégré. Reste à la prendre en main rapidement, mais aussi à s'en abstraire car il n'est sans doute pas la dernière innovation que l'on peut attendre dans le monde du Big Data en général et de Hadoop en particulier.
Big Data : au delà du proof of concept et de l'expérimentation (Matinale busi...Jean-Michel Franco
Concrétiser les promesses du Big Data avec Hadoop, le Self-Service, les data lakes et le machine learning. Quels cas d'usage, quels retours d'expérience, quelle plate-forme?
Le Big Data en temps réel n’est plus seulement réservée projets à gros budget. En s'appuyant sur Apache Spark, Talend 6 permet aux entreprises de toute taille et de tout secteur d’activité de convertir des Big Data et données issues de l’Internet des Objets en connaissances exploitables immédiatement.
Les exemples d’utilisation d’analytique en temps réel tels que les recommandations personnalisées, la détection des fraudes, les soins préventifs et la tarification prédictive représentent seulement un échantillon des possibilités qui s’offrent aux entreprises ayant accès en temps réel aux informations métier. Cette présentation permet de découvrir les nouvelles capacité de Talend 6 dans ce domaine et aussi de manière plus générale, et aussi comment :
- révéler les données utiles concernant vos produits, clients, et opérations ;
- passer sans efforts au traitement Big Data temps réel et aux applications pour données décisionnelles ;
- capturer et traiter des données issues de l’Internet des Objets facilement pour délivrer des insights rapidement ;
- fournir des données plus sécurisées et fiables grâce à la qualité de données.
Talend Summer 16 (version française) : la Préparation des Données à la Portée...Jean-Michel Franco
Tous vos collaborateurs ont besoin de données pour prendre des décisions avisées et efficaces, mais les données en accès libre et sans contrôle font courir des risques à l'échelle de l’entreprise.
Découvrez les dernières innovations de Talend Summer 16, en particulier :
Accès aux données en libre-service ;
Utilisation des données sous contrôle du département IT, avec sécurité adaptée à chaque rôle ;
Solutions entièrement intégrées dans Talend Data Fabric.
Découvrez comment créer une solution complète de gouvernance des donnéesPrecisely
Les systèmes de gouvernance des données fournissent un cadre pour les politiques, les processus, les règles, les rôles et les responsabilités qui vous aident à gérer vos données. Une excellente stratégie de gouvernance des données, basée sur des outils comme le Collibra Data Governance Center (DGC), est essentielle pour tirer le meilleur parti de vos données.
Trillium Discovery s'intègre de façon transparente à Collibra pour créer une solution complète de gouvernance des données qui fournit des indicateurs sur la santé de vos données pour vous aider à mieux piloter votre organisation, tout en répondant aux contraintes règlementaires.
Participez à ce webinaire et découvrez comment vous pouvez tirer parti de cette intégration dans votre organisation pour construire, appliquer et exécuter facilement des règles de gestion basées sur les politiques de gouvernance des données au sein de Collibra.
Tracer la voie vers le BigData et l'analyse prédictive avec Talend et Amazon AWS.
Peut-on se passer du Big Data, de l’analyse prédictive, ou du machine learning depuis qu’ils ont démontré leur capacité à transformer l’entreprise et à ouvrir les portes de vos marchés à de nouveaux acteurs ? Et sinon, comment s’approprier au plus vite toute cette panoplie technologique, à première vue complexe, coûteuse et en perpétuelle mutation ?
Cette présentation démontre comment s’approprier et orchestrer les plates-formes cloud telles qu’Amazon AWS, pour tirer partie de la puissance de traitements de Hadoop et de Spark dans le cadre d’applications analytiques de nouvelle génération.
Etablir une collaboration durable entre les équipes informatiques et les méti...Jean-Michel Franco
Les données sont partout et tout le monde en a besoin pour tirer tout le potentiel de la transformation numérique. Seul un accès généralisé aux données en libre-service peut transformer les données en « actifs liquides » pouvant être consommés et exploités par tous. Mais la prolifération de données n’est pas sans risques et remet en cause les approches traditionnelles de modélisation et de gouvernance de la donnée. De nouvelles approches , plus collaboratives et participatives, sont nécessaires. En participant à cette session, vous découvrirez au travers de cas pratiques comment organiser cette gouvernance autour d’une plate-forme moderne de gestion de données, intégrant les concepts de Big Data, de Data Lakes, ou de Self-service.
Bi et partage des données financières en libre -serviceJean-Michel Franco
La Business Intelligence en libre-service s’impose pour quiconque souhaite transformer son organisation grâce aux données. Pour les équipes IT et/ou en charge des systèmes décisionnels, son adoption maîtrisée représente une opportunité tout autant qu’un défi, comme l’illustre ces prévisions du Gartner :
- cette année encore, la BI est en tête des priorités des directions informatiques ;
- d’ici 2018, la plupart des utilisateurs auront besoin d’un accès en libre-service à l’information ;
- d’ici 2018, seuls 10% de ces accès seront dotés de la gouvernance nécessaire pour éviter des incohérences préjudiciables au business
L’intégration de données en Self-Service par des utilisateurs de la direction financière représente un enjeu majeur d’agilité et de rapidité dans la prise de décision des organisations.
Nous reviendrons sur les principes de la Directive sur les services de paiement (DSP2) ainsi les enjeux, opportunités et menaces pour les acteurs traditionnels et les nouveaux entrants des marchés des services financiers et de paiement.
View recording: https://youtu.be/fDAk2IOS5iU
Explore all DataStax webinars: http://www.datastax.com/resources/webinars
La plateforme d'intégration de données de Talend dispose de nouvelles fonctionnalités de préparation et de gouvernance des données en libre service afin de transformer les data lakes en données qualifiées, propres et utilisables par tous
Les 4 étapes clés pour transformer les données client en valeurJean-Michel Franco
Les pionniers que sont Mint dans le secteur bancaire, Amazon dans la distribution ou NetFlix dans les médias, ont prouvé que de transformer les Big Data en actions au moment des points de contact avec leurs clients assure des résultats mesurables – augmentation du taux de transformation, plus grande part du portefeuille, augmentation du nombre de nouveaux clients, détection de fraude à temps, etc. Il est aujourd’hui possible de mettre en place une plate-forme centralisée de gestion des données clients, capable d’intégrer et de fournir des informations en temps réel, quel que soit le canal d’interaction utilisé… et par conséquent, de lancer les bases d’une véritable révolution sur tout un secteur d’activité en instaurant des processus orientés données.
Désormais, cette Customer Data Platform s’adapte au plus grand nombre grâce à des technologies abordables telles que Hadoop et Spark à condition que celles-ci soient utilisées conjointement avec des données intégrées ainsi qu’un système d’intégration d’applications, de gouvernance des données, de gestion de données de référence et des outils d’analytique et de traitement de données en temps réel.
Cette plate-forme, appelée Customer Data Platform ou Data Management Platform (DMP) permet de reconstituer l’intégralité du parcours client en centralisant et en croisant non seulement des données d’interaction : historique d’achat, préférences, satisfaction, fidélité, etc. (données internes), mais également des informations sociales permettant de comprendre les intentions ou l’appétence : goûts, instants décisifs, habitudes d’achat, parcours web, réseaux sociaux, etc. (données externes)
Dans cette présentation, vous découvrirez les composants clés de cette plate-forme, comment l’implémenter, et comment l’utiliser à des fins marketing.
Exploitez toute la valeur de vos données client et produit grâce à talend 6Jean-Michel Franco
La valeur de vos données client, produit, ou liées à votre organisation augmente considérablement. Potentiellement, elles peuvent favoriser l'engagement de votre clientèle, augmenter vos ventes ou dynamiser votre efficacité opérationnelle... pour finalement transformer votre entreprise grâce à vos données. Etes-vous prêt à en tirer avantage ?
Découvrez comment Talend 6 :
- vous permet de mieux contrôler et maîtriser vos données les plus importantes et critiques grâce au data masking, à la gestion des données de contacts et aux fonctions de découverte sémantique ;
- enrichit vos master data tirant parti de fonctions avancées de Big Data en temps réel et de machine learning ;
- permet d'intégrer simplement vos master data dans vos applications digitales, web, mobile, ou Cloud.
Découvrir la version WInter 20 de Talend Data Fabric.
Elle inclue un nouveau produit, Data Inventory, ainsi que de nouvelles et puissantes fonctionnalités de qualité des données intelligente et d'IA explicable, capables d’accélérer et de moderniser l’ingénierie de données.
Elle permet de :
- garantir des données fiables instantanément avec Data Inventory
- augmenter considérablement l’efficacité et la productivité avec Pipeline Designer
- automatiser davantage de tâches d’intégration avec l’IA et les API
Session découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3s2RovD
Denodo vous propose une session virtuelle pour découvrir la Data Virtualization. Quel que soit votre rôle, responsable IT, architecte, data scientist, analyste ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Ce webinar sera l’occasion de comprendre comment DataStax et Linkurious peuvent permettre de détecter en temps réel des activités frauduleuses telles que la fraude identitaire. Des applications concrètes de ces technologies seront détaillées, de l’affaire des Panama Papers à des cas d’usages quotidiens dans des banques et des institutions financières. Les techniques de lutte antifraude ainsi que les avantages des approches orientées graphe seront également présentés.
Guide destiné aux PME
Avec l'augmentation du volume de données, les entreprises s'appuient sur la puissance du cloud pour collecter, analyser et visualiser des données issues de sources internes et externes, et ainsi améliorer leur performance à plusieurs niveaux.
pour accompagner les talents, gérer les compétences et assurer la conformité des données pour GDPR
Vos collaborateurs sont au cœur de la réussite de votre entreprise, mais disposez-vous d’informations précises et fiables les concernant ? Sont-elles sécurisées et en conformité avec les réglementations telles que GDPR, tout en étant facilement accessibles pour les prises de décision et activités opérationnelles ?
Lors de ce webinar à la demande, les équipes RH Orange et les consultants d’Orange Consulting partageront leur retour d’expérience dans la mise en œuvre de la vue 360° employés au sein du groupe, la méthode utilisée, les difficultés rencontrées et les résultats obtenus.
Participez à ce webinar à la demande d'une heure pour apprendre comment :
fédérer et réconcilier les 18 sources d'informations RH différents issus de plusieurs systèmes d'information ;
mieux connaitre les salariés pour répondre aux enjeux RH et business des managers de disposer d’une cartographie dynamique en temps réel des données salariés ;
mettre en place des tableaux de bord d’ indicateurs pertinents pour accompagner la réflexion stratégique et les plans d’actions RH par une vision synthétique, actualisé et multicritères des données salariés ;
anticiper la mise en application de la nouvelle règlementation européenne sur les données privées (GDPR).
This document discusses performance management and business analytics. It includes:
- A maturity model showing four steps of performance management maturity from reacting to orchestrating.
- Charts and data from surveys on the amount of useless information managers receive, time wasted searching for information, and accidentally using wrong information.
- Descriptions of what is needed for effective performance management including an enterprise platform, consistent information access, and best practice solutions.
- An overview of how Cognos and IBM solutions address business analytics needs like financial, customer, and supply chain optimization.
One of the major challenges for Gas Turbine users is to ensure high level of engine availability and reliability, and efficient operation during their complete life-cycle. For this purpose, Various maintenance approaches have been introduced over the years for the gas turbine maintenance: Breakdown Maintenance or Run to Failure, Preventive Maintenance or Scheduled Maintenance and Condition-Based Maintenance (CBM). Here the focus is on CBM or predictive maintenance.
Etablir une collaboration durable entre les équipes informatiques et les méti...Jean-Michel Franco
Les données sont partout et tout le monde en a besoin pour tirer tout le potentiel de la transformation numérique. Seul un accès généralisé aux données en libre-service peut transformer les données en « actifs liquides » pouvant être consommés et exploités par tous. Mais la prolifération de données n’est pas sans risques et remet en cause les approches traditionnelles de modélisation et de gouvernance de la donnée. De nouvelles approches , plus collaboratives et participatives, sont nécessaires. En participant à cette session, vous découvrirez au travers de cas pratiques comment organiser cette gouvernance autour d’une plate-forme moderne de gestion de données, intégrant les concepts de Big Data, de Data Lakes, ou de Self-service.
Bi et partage des données financières en libre -serviceJean-Michel Franco
La Business Intelligence en libre-service s’impose pour quiconque souhaite transformer son organisation grâce aux données. Pour les équipes IT et/ou en charge des systèmes décisionnels, son adoption maîtrisée représente une opportunité tout autant qu’un défi, comme l’illustre ces prévisions du Gartner :
- cette année encore, la BI est en tête des priorités des directions informatiques ;
- d’ici 2018, la plupart des utilisateurs auront besoin d’un accès en libre-service à l’information ;
- d’ici 2018, seuls 10% de ces accès seront dotés de la gouvernance nécessaire pour éviter des incohérences préjudiciables au business
L’intégration de données en Self-Service par des utilisateurs de la direction financière représente un enjeu majeur d’agilité et de rapidité dans la prise de décision des organisations.
Nous reviendrons sur les principes de la Directive sur les services de paiement (DSP2) ainsi les enjeux, opportunités et menaces pour les acteurs traditionnels et les nouveaux entrants des marchés des services financiers et de paiement.
View recording: https://youtu.be/fDAk2IOS5iU
Explore all DataStax webinars: http://www.datastax.com/resources/webinars
La plateforme d'intégration de données de Talend dispose de nouvelles fonctionnalités de préparation et de gouvernance des données en libre service afin de transformer les data lakes en données qualifiées, propres et utilisables par tous
Les 4 étapes clés pour transformer les données client en valeurJean-Michel Franco
Les pionniers que sont Mint dans le secteur bancaire, Amazon dans la distribution ou NetFlix dans les médias, ont prouvé que de transformer les Big Data en actions au moment des points de contact avec leurs clients assure des résultats mesurables – augmentation du taux de transformation, plus grande part du portefeuille, augmentation du nombre de nouveaux clients, détection de fraude à temps, etc. Il est aujourd’hui possible de mettre en place une plate-forme centralisée de gestion des données clients, capable d’intégrer et de fournir des informations en temps réel, quel que soit le canal d’interaction utilisé… et par conséquent, de lancer les bases d’une véritable révolution sur tout un secteur d’activité en instaurant des processus orientés données.
Désormais, cette Customer Data Platform s’adapte au plus grand nombre grâce à des technologies abordables telles que Hadoop et Spark à condition que celles-ci soient utilisées conjointement avec des données intégrées ainsi qu’un système d’intégration d’applications, de gouvernance des données, de gestion de données de référence et des outils d’analytique et de traitement de données en temps réel.
Cette plate-forme, appelée Customer Data Platform ou Data Management Platform (DMP) permet de reconstituer l’intégralité du parcours client en centralisant et en croisant non seulement des données d’interaction : historique d’achat, préférences, satisfaction, fidélité, etc. (données internes), mais également des informations sociales permettant de comprendre les intentions ou l’appétence : goûts, instants décisifs, habitudes d’achat, parcours web, réseaux sociaux, etc. (données externes)
Dans cette présentation, vous découvrirez les composants clés de cette plate-forme, comment l’implémenter, et comment l’utiliser à des fins marketing.
Exploitez toute la valeur de vos données client et produit grâce à talend 6Jean-Michel Franco
La valeur de vos données client, produit, ou liées à votre organisation augmente considérablement. Potentiellement, elles peuvent favoriser l'engagement de votre clientèle, augmenter vos ventes ou dynamiser votre efficacité opérationnelle... pour finalement transformer votre entreprise grâce à vos données. Etes-vous prêt à en tirer avantage ?
Découvrez comment Talend 6 :
- vous permet de mieux contrôler et maîtriser vos données les plus importantes et critiques grâce au data masking, à la gestion des données de contacts et aux fonctions de découverte sémantique ;
- enrichit vos master data tirant parti de fonctions avancées de Big Data en temps réel et de machine learning ;
- permet d'intégrer simplement vos master data dans vos applications digitales, web, mobile, ou Cloud.
Découvrir la version WInter 20 de Talend Data Fabric.
Elle inclue un nouveau produit, Data Inventory, ainsi que de nouvelles et puissantes fonctionnalités de qualité des données intelligente et d'IA explicable, capables d’accélérer et de moderniser l’ingénierie de données.
Elle permet de :
- garantir des données fiables instantanément avec Data Inventory
- augmenter considérablement l’efficacité et la productivité avec Pipeline Designer
- automatiser davantage de tâches d’intégration avec l’IA et les API
Session découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3s2RovD
Denodo vous propose une session virtuelle pour découvrir la Data Virtualization. Quel que soit votre rôle, responsable IT, architecte, data scientist, analyste ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Ce webinar sera l’occasion de comprendre comment DataStax et Linkurious peuvent permettre de détecter en temps réel des activités frauduleuses telles que la fraude identitaire. Des applications concrètes de ces technologies seront détaillées, de l’affaire des Panama Papers à des cas d’usages quotidiens dans des banques et des institutions financières. Les techniques de lutte antifraude ainsi que les avantages des approches orientées graphe seront également présentés.
Guide destiné aux PME
Avec l'augmentation du volume de données, les entreprises s'appuient sur la puissance du cloud pour collecter, analyser et visualiser des données issues de sources internes et externes, et ainsi améliorer leur performance à plusieurs niveaux.
pour accompagner les talents, gérer les compétences et assurer la conformité des données pour GDPR
Vos collaborateurs sont au cœur de la réussite de votre entreprise, mais disposez-vous d’informations précises et fiables les concernant ? Sont-elles sécurisées et en conformité avec les réglementations telles que GDPR, tout en étant facilement accessibles pour les prises de décision et activités opérationnelles ?
Lors de ce webinar à la demande, les équipes RH Orange et les consultants d’Orange Consulting partageront leur retour d’expérience dans la mise en œuvre de la vue 360° employés au sein du groupe, la méthode utilisée, les difficultés rencontrées et les résultats obtenus.
Participez à ce webinar à la demande d'une heure pour apprendre comment :
fédérer et réconcilier les 18 sources d'informations RH différents issus de plusieurs systèmes d'information ;
mieux connaitre les salariés pour répondre aux enjeux RH et business des managers de disposer d’une cartographie dynamique en temps réel des données salariés ;
mettre en place des tableaux de bord d’ indicateurs pertinents pour accompagner la réflexion stratégique et les plans d’actions RH par une vision synthétique, actualisé et multicritères des données salariés ;
anticiper la mise en application de la nouvelle règlementation européenne sur les données privées (GDPR).
This document discusses performance management and business analytics. It includes:
- A maturity model showing four steps of performance management maturity from reacting to orchestrating.
- Charts and data from surveys on the amount of useless information managers receive, time wasted searching for information, and accidentally using wrong information.
- Descriptions of what is needed for effective performance management including an enterprise platform, consistent information access, and best practice solutions.
- An overview of how Cognos and IBM solutions address business analytics needs like financial, customer, and supply chain optimization.
One of the major challenges for Gas Turbine users is to ensure high level of engine availability and reliability, and efficient operation during their complete life-cycle. For this purpose, Various maintenance approaches have been introduced over the years for the gas turbine maintenance: Breakdown Maintenance or Run to Failure, Preventive Maintenance or Scheduled Maintenance and Condition-Based Maintenance (CBM). Here the focus is on CBM or predictive maintenance.
Presentation by Dr. Peter Bruce, Statistics.com. Presented on April 27, 2012 at the MRA Spring Research Symposium hosted by the Mid-Atlantic Chapter of the Marketing Research Association.
Ibm ofa ottawa_analytics_in_gov _campbell_robertsondawnrk
Opportunity for Analytics Ottawa event. Presentation by Campbell Robertson, Analytics in Government. Results based outcomes with IBM Predictive Analysis for Cost Avoidance and Beyond.
This document introduces predictive maintenance, which uses data from connected devices and sensors to alert operators of potential issues before failures occur. It discusses three types of maintenance strategies - corrective, preventive, and predictive. Predictive maintenance can use simple condition-based monitoring of sensor data or more advanced model-based approaches involving machine learning. The document outlines architectures for basic and advanced predictive maintenance systems, covering components like connected devices, databases, APIs, and machine learning models. It emphasizes collecting sensor data, using tools like Elasticsearch and machine learning APIs, to build models that can optimize maintenance planning and increase equipment uptime.
Déjeuner Conférence - La maintenance à l'ère du prédictifagileDSS
Depuis plusieurs années déjà, la maintenance d’équipements a souvent été une source de problèmes pour bien des entreprises. D’un côté, si vous ne faites pas assez de maintenance, vous aurez une perte de productivité et d’un autre côté, si vous le faites trop fréquemment, vous aurez une explosion de coûts. Comment trouver un juste milieu permettant de maximiser la longévité des équipements tout en diminuant les coûts d’entretien? La réponse se trouve plus près que vous ne le croyez!
"Maximiser la production tout en diminuant les coûts de maintenance; comment les données d’aujourd’hui permettent de prédire la maintenance de demain?"
C’est pour bien comprendre l’impact de la maintenance prédictive que nous vous invitons à ce déjeuner-conférence le 20 mai prochain. En plus d’échanger avec vos pairs vous aurez l’occasion d’assister à la conférence de Thierry Desjardins sur les différentes applications de la maintenance prédictive et comment vous pourriez l’intégrer au sein de votre entreprise.
Des sujets et thèmes à ne pas manquer!
- Internet of Thing, iBeacon, GPS… Comment les technologies impacteront la maintenance de vos équipements?
- Comment savoir quels appareils ont besoin de maintenance, à quel moment et quel en est la cause?
- Comment évolueront les processus de maintenance? Est-ce que la maintenance just in time est accessible?
- Comment certaines entreprises ont réussi à opérationnaliser efficacement un modèle de maintenance prédictive?
The document discusses predictive analytics and forecasting. It defines predictive analytics as producing predictive scores for each customer or organizational element, while forecasting provides aggregate estimates such as total sales. Prediction involves classifying outcomes like customer retention, while forecasting understands trends and seasonality. Predictive modeling creates statistical models of future behavior by collecting and analyzing data to predict outcomes. Common predictive algorithms include logistic regression, decision trees, naive bayes, and clustering.
Predictive analytics can take you from guesswork to prediction by showing you where you are now, and where you can go next. It empowers you to analyze trends, patterns and relationships in your structured and unstructured data, apply those insights to predict future events, and act to achieve your desired outcomes.
Using the Industrial Internet to Move From Planned Maintenance to Predictive ...Sentient Science
Sentient Science provides Prognostics Health Management using the Industrial Internet and will show practical examples of driving down O&M costs by moving from Planned Preventative Maintenance (PPM) to Predictive Health Maintenance (PHM) for distributed assets. This presentation will outline how the IIC, and the practical benefits of integrating your distributed assets with prognostics, predictive models for life extension.
Big data is revolutionizing predictive maintenance and manufacturing intelligence in factories of the future. An automotive supplier implemented solutions from IBM (PMQ) and Braincube to analyze real-time data from production equipment, reduce scrap rates, and quickly address production issues. Data was ingested from sensors in factories and stored in Hadoop for analysis to generate insights for improving operations and equipment maintenance.
BA Summit 2014 Predictive maintenance: Met big data het lek dichtenDaniel Westzaan
Predictive maintenance is een van de big-datatoepassingen met enorme potentie. Voor Vitens, het grootste waterbedrijf van Nederland met meer dan 5,5 miljoen klanten, toonden CGI en IBM in een proof of value aan dat sneller en nauwkeuriger lekken lokaliseren in potentie miljoenen kan besparen.
De primaire taak van Vitens is ervoor zorgen dat klanten te allen tijde kunnen beschikken over topkwaliteit drinkwater. Met een netwerk van meer dan 49.000 km relatief oude pijpleiding, is het kostenefficiënt onderhouden van het netwerk een voortdurende uitdaging. Veelal wordt gekozen voor preventief onderhoud waardoor pijpleiding vaak eerder wordt vervangen dan strikt nodig is. Desondanks treden er regelmatig lekken op met soms grote schade en bedreiging van de leveringszekerheid.
Het lokaliseren van lekken gebeurt handmatig, wat veel tijd en geld kost omdat het zoekgebied vaak kan oplopen tot tientallen kilometers. Vitens vroeg CGI en IBM om met behulp van een big-datatoepassing een methode te ontwikkelen voor het lokaliseren van lekken. In een proof of value werd historische data geanalyseerd waarbij de helft van de geanalyseerde lekken tot op 2,5 km nauwkeurig kon worden gelokaliseerd.
Door sneller lekken te lokaliseren of zelfs te voorspellen, kan Vitens niet alleen direct besparen op inzet van medewerkers voor lokalisatie en bezetting van het callcenter. Het maakt het ook mogelijk om de effectieve levensduur van pijpleidingen te verlengen of, bij minder kritische delen van het netwerk, zelfs te kiezen voor de maximale levensduur waarbij pas leiding pas wordt vervangen bij het daadwerkelijk optreden van lekken.
This document discusses predictive maintenance using sensor data in utility industries. It describes how sensors can monitor infrastructure and predict failures by analyzing patterns in sensor data using machine learning models. An architecture is proposed that uses big data frameworks like Spark, Kafka and HBase to collect, analyze and store large volumes of real-time sensor data at scale. Predictive analytics on this data with techniques like clustering and regression can detect anomalies and predict failures to enable condition-based maintenance in utilities. Modeling uncertain sensor readings with probabilistic and autoregressive approaches is also discussed.
Predictive Maintenance by analysing acoustic data in an industrial environmentCapgemini
This document discusses predictive maintenance through acoustic data analysis in an industrial setting. It describes using sensors and data collection from machines to detect potential issues through acoustic and vibration analysis. The customer case study involves implementing a predictive maintenance platform using acoustic data from an air compressor to identify mechanical, electrical, and other problems to decrease maintenance costs and increase machine availability. The solution involves collecting machine and sensor data, storing it in an IIoT platform, and performing analytics using predictive models and dashboards.
Predictive maintenance uses sensors and data analytics to predict failures in machines before they occur. It aims to replace parts that will break imminently, rather than all parts preventatively. This approach reduces costs compared to traditional preventative maintenance. Developing an effective predictive maintenance program requires understanding machine operations and economics, identifying relevant data sources, and creating predictive models. It is a collaborative process without single solutions, as each machine system presents unique challenges. The goal is finding the optimal balance of predictive efforts and resulting cost savings.
The document discusses predictive maintenance in oil refineries using analytics. It notes that most refinery shutdowns are unplanned and due to mechanical failures. Traditional maintenance methods are reactive or preventive. Predictive analytics uses real-time equipment data and historical maintenance records to monitor equipment health and estimate remaining lifespan. This allows refineries to schedule maintenance more efficiently to avoid breakdowns and reduce downtime. The document provides examples of predictive algorithms and dashboards that can integrate data for predictive maintenance to optimize operations and supply chain processes. It estimates that a typical 100,000 bpd refinery could save over $3.5 million annually through predictive maintenance.
The Science of Predictive Maintenance: IBM's Predictive Analytics SolutionSenturus
Overview of IBM’s Predictive Maintenance and Quality (PMQ) solution. View the webinar video recording and download this deck: http://www.senturus.com/resources/science-predictive-maintenance/.
We show you the PMQ solution can keep manufacturing processes, infrastructure and field equipment running to maximize use and performance, while minimizing costs.
We show how you can use powerful analytics and data integration to help: Anticipate asset maintenance and product quality problems, Reduce unscheduled asset downtime, Spend less time solving production machinery and field asset problems, Improve asset productivity and process quality, Monitor how assets are performing in real-time and predict what will happen next.
Senturus, a business analytics consulting firm, has a resource library with hundreds of free recorded webinars, trainings, demos and unbiased product reviews. Take a look and share them with your colleagues and friends: http://www.senturus.com/resources/.
International competition, shorter product life cycles and faster technological leaps forward – these are only a few of the challenges the production of a company is facing in the 21st century. In order to survive in an environment like this, resource-efficient and secure planning of production processes are necessary to guarantee a consistent and high quality output. Unforeseeable machine failures as well as performance drops or deterioration in quality because of defective system components can lead to shortness of supplies which will eventually weaken the market position of the entire organization.
To meet these requirements organizations are increasingly focusing on the improvement of maintenance, repair and operations of their machinery. In the previous years, the industry shifted their focus away from only reactive repair mechanisms towards the predictive coordination of machine maintenance.
Predictive Maintenance falls under the category of the future of maintenance developments. Originally developed in the course of the “Industrie 4.0” high-tech strategy of the German government, today Predictive Maintenance represents the informatization of production processes - intelligent IT-based production systems on the path towards a Smart Factory. Through the generation and analysis of different machine data, the predictive power of the state of industrial plants is not only enhanced, but also provides the basis for an improved planning certainty as well as the efficient planning of repair and maintenance work.
The document provides an introduction to predictive maintenance. It outlines the objectives of the course, which are to define predictive maintenance programs and various condition monitoring techniques, including vibration analysis, lubrication analysis, ultrasonic analysis, and thermographic analysis. The agenda covers topics such as predictive maintenance, maintenance planning, vibration analysis, and thermal analysis. The document then begins discussing predictive maintenance in more detail, defining preventative maintenance, predictive maintenance, and condition monitoring. It explores patterns of equipment failure and how to monitor equipment condition.
Vos données produits sont-elles fiables et sont-elles fiables et cohérentes à travers tous vos systèmes en temps réel ? Les services concernés ont-ils accès aux informations les plus récentes et les plus complètes sur vos produits ?
Cette présentation montre comment :
- tirer parti du Big Data pour connecter vos produits grâce à l’Internet des Objets ;
- optimiser les processus de maintenance, réparation et révision (MRO) ;
- harmoniser l'information au travers de votre supply chain ;
- gérer vos stratégies de commerce multicanal ;
- échanger avec vos partenaires et les autorités de réglementation.
Session découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/38mIuTp
Denodo vous propose une session virtuelle pour découvrir la Data Virtualization. Quel que soit votre rôle, responsable IT, architecte, data scientist, analyste ou CDO, vous découvrirez comment Denodo Platform, la plateforme leader en data intégration, data management et livraison de données en temps réel permet d'accéder à tout type de source de données pour en tirer de la valeur.
06/07/17 Table ronde Data Transformation ProgramSoft Computing
Data Transformation Program : une nouvelle révolution déjà en marche
Pourquoi aujourd'hui les entreprises mettent la Data au coeur de leur transformation ? Comment initier et déployer ces programmes ? Quels impacts pour quelle création de valeur espérée ?
Avec le témoignage de la Responsable du Programme de Transformation Data d’ACCOR HOTELS.
Les entreprises ont largement initié leur mue digitale. Cette transformation est souvent, comme toutes les grandes mutations, dans un premier temps sous-estimée, faute d’intégration de tous les acteurs, de trajectoire partagée et séquencée, de valorisation concrète des bénéfices.
A l’heure de l’industrialisation des projets Big Data et du stockage des données en masse, il est nécessaire de s’interroger sur la création de valeur générée par la collecte, l’usage et la gouvernance de ces données.
Alors au-delà de la promesse d’améliorer la connaissance client, qu’entend-on par «Data Transformation » ? Pourquoi est-ce un projet d’Entreprise ? Quels peuvent en être les bénéfices concrets ? Quelles sont les dimensions prioritaires ? Quelles missions pour le Chief Data Officer ?
Adoption de Hadoop : des Possibilités Illimitées - Hortonworks and TalendHortonworks
Hadoop has become unavoidable. Companies of all sizes are at different stages of their thoughts on Big Data. Whether you're just starting to explore the platform or you already have several existing clusters, everyone faces the same challenge - to develop its internal expertise.
Specialists of Big Data, Talend, and Hortonworks, watch this webinar to discover how to unify all your data in Hadoop, without specific skills Big Data.
Découvrez pourquoi les solutions cloud sont à considérer dans l'exploitation ...agileDSS
L'architecte de solutions est souvent appelé à mettre en place des solutions qui apporteront de la valeur à l'entreprise tout en ayant un budget limité. Nonobstant, les unités d'affaires deviennent de plus en plus exigeantes et s'attendent à avoir des solutions de pointes, souvent difficiles à intégrer, pour répondre à leurs nouvelles réalités.
Il se doit d'être ingénieux pour offrir des solutions personnalisées et flexibles tout en en étant capable de les financer.
Cette présentation vise à explorer les possibilités des services clouds et établir des critères de sélections en lien avec la valeur recherchée afin de justifier le ROI du projet, montrer comment une saine planification de l'utilisation des technologies clouds au sein de votre environnement est essentiel pour concrétiser une valeur d'usage et des économies concrètes.
Session Avanade: Le déploiement d’une stratégie de cloud hybride sera une priorité en 2015 pour 72% des entreprises françaises*. Si les sociétés investissent de plus en plus vite dans le cloud hybride, rares sont celles qui mesurent pleinement son potentiel. Comment les aider à tirer avantage du cloud, et à en concrétiser les promesses, sans renoncer à la facilité d’administration qu’elles attendent de leurs environnements informatiques classiques ? Lors de cette session, nous vous présenterons la solution Accenture de cloud hybride pour Microsoft Azure. Nous détaillerons comment assurer une migration et une gestion des applications entre clouds privés et publics de façon fluide et automatisée, à la demande et en temps réel à partir d’une console unique. *Source : étude Avanade réalisée en octobre 2014 par Wakefield Research.
Session Avanade: Le déploiement d’une stratégie de cloud hybride sera une priorité en 2015 pour 72% des entreprises françaises*. Si les sociétés investissent de plus en plus vite dans le cloud hybride, rares sont celles qui mesurent pleinement son potentiel. Comment les aider à tirer avantage du cloud, et à en concrétiser les promesses, sans renoncer à la facilité d’administration qu’elles attendent de leurs environnements informatiques classiques ? Lors de cette session, nous vous présenterons la solution Accenture de cloud hybride pour Microsoft Azure. Nous détaillerons comment assurer une migration et une gestion des applications entre clouds privés et publics de façon fluide et automatisée, à la demande et en temps réel à partir d’une console unique. *Source : étude Avanade réalisée en octobre 2014 par Wakefield Research.
Microsoft Dynamics 365 : combinez votre ERP et votre CRM !
Vous souhaitez accompagner la croissance de votre entreprise dans sa transformation digitale ? Vous cherchez à répondre aux besoins de vos clients et optimiser le suivi de nouvelles opportunités grâce à une meilleure utilisation des données ? Vous désirez simplifier vos opérations et réduire vos coûts ? Vous voulez investir de nouveaux marchés en repensant vos produits et en créant de nouveaux modèles commerciaux ?
Microsoft Dynamics 365 est la solution pensée pour vous ! Découvrez ses fonctionnalités, ses avantages et bénéficiez d’un comparatif exclusif avec Salesforce !
[French] Une Vision à 360° de vos clients grâce au Master Data Management et ...Jean-Michel Franco
Vos données clients sont-elles fiables et cohérentes au travers de tous les systèmes d'information qui nécessitent de les exploiter ? Sont-elles sécurisées et facilement accessibles par les équipes opérationnelles ?
Cette présentation s'intéresse à la mise en œuvre d'un système de Master Data Management pour:
• obtenir une vision unique de vos clients à travers toute votre infrastructure ;
• transformer ces informations en données utilisables (qui peuvent être utilisées par les équipes marketing, commerciales, de service ou de fidélisation client) ;
• récupérer des données depuis de nouvelles sources en alliant les technologies de MDM et de Big Data.
Optimiser l’intégration globale des données grâce à la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/2zdlULt
A l’ère de la transformation digitale et de l’adoption rapide de nouvelles solutions, les équipes IT sont amenées à traiter un volume croissant de sources de données disparates et à un rythme de plus en plus soutenu pour satisfaire les besoins Métiers. Les techniques d’intégration traditionnelles présentent des limites pour répondre à ces défis, car elles délivrent les données par lots programmés et ne peuvent pas prendre en charge les nombreux types de données riches et complexes actuels.
La data virtualization constitue alors une approche moderne d’intégration des données. Cette technologie agile d’intégration, d’abstraction et de services de données en temps réel permet un accès unifié à un large éventail de sources, sans répliquer ou déplacer les données, afin d’en créer une couche unique virtuelle. Elle permet ainsi une réduction des coûts, des ressources et du temps alloués aux opérations IT.
Les experts de Denodo et Govarch vous proposent ce webinar en français pour comprendre comment exploiter la data virtualization afin d’optimiser votre stratégie globale d’intégration de données et ainsi vous aligner sur les objectifs Métiers.
Agenda :
- Les défis actuels de l’intégration des données et les limites des techniques d’intégration traditionnelles
- Comment déployer la couche de virtualisation dans une architecture IT pour bénéficier d’un accès unifié aux diverses sources des données
- Une démo live de la solution Score One, pour évaluer l’applicabilité de la virtualisation des données à des cas d’usage concrets.
Le Big Data présente aujourd'hui de nombreuses opportunités pour le secteur des Télécommunications. L'abondance des données doit être exploitées grâce à la Data Science pour améliorer la gestion de l'expérience client, les analyses opérationnelles, l'optimisation réseau et la monétisation. Skylads, société spécialisée dans la R&D autour de l'intelligence artificielle et du Big Data propose des produits et services permettant de tirer le meilleur de ses données.
UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...OCTO Technology
Un menu copieux pour cette rentrée des petits-déjeuners OCTO avec un focus sur les architectures de données, un témoignage de BNP Paribas, un retour sur la mise en œuvre de ces nouvelles architectures de données et, cerise sur le gâteau, une mise en perspective de la tendance vers des architectures de flux à l’occasion de la publication du livre blanc Digital Studies Vol.02 : La question du temps dans les architectures digitales.
Les données sont là, initialement éclatées dans différents silos applicatifs. Mais maintenant qu’elles commencent à alimenter un Data Lake sous Hadoop, que va-t-on en faire ? Comment les valoriser ? Comment créer de nouveaux services à valeur ajoutée ?
BNP Paribas était présent pour témoigner de sa démarche avec un retour sur la mise en œuvre de ces nouvelles architectures de données.
OCTO a présenté le retour d'expérience sur la mise en œuvre de ces nouvelles architectures de données, incluant les technologies Hadoop, Spark, Cassandra, Solr ainsi que des expérimentations sur le Machine Learning, tout en soulignant les méthodes de travail utilisées avec des équipes mixtes BNP Paribas / OCTO.
Ce petit-déjeuner a aussi été l’occasion de vous présenter et de vous remettre une version imprimée du livre blanc Digital Studies Vol.02, consacré aux questions d’architecture, notamment aux nouvelles architectures de flux.
Le référentiel employé pour tirer toute la valeur de vos données RHJean-Michel Franco
Les informations concernant vos collaborateurs sont-elles fiables et cohérentes au travers de tous les systèmes d'information qui nécessitent de les exploiter ? Sont-elles sécurisées et aisément accessibles par les équipes opérationnelles ?
Dans cette présentation, Talend et Edis Jems Group illustrent comment :
- Fédérer les informations RH à travers les organisation et ses systèmes d’information ;
- Améliorer les processus RH grâce à ces informations, pour digitaliser les services RH ou mieux gérer la performance individuelle et collective, la relation avec les IRP, ou encore la gestion prévisionnelle des emplois et compétences
- Enrichir les données RH grâce au Big Data pour mieux connaitre vos propres talents ou en découvrir de nouveaux en les connectant à des sources externes telles que Linkedin.
CAPPUCCINO CRM vous accompagne sur plusieurs axes : - la digitalisation du parcours client : quelles sont les briques opérationnelles impactées dans vos systèmes d'information, quels projets de transformations doivent être menés ? - la cloud transformation : accompagner une externalisation de certains de vos systèmes d'information, quelle roadmap, quelle étapes ? - le Big Data dans votre CRM : comment y aller ? Quelles sont les étapes de démarrage et d'évaluation ? - Votre écosystème CRM est-il trop dépendant de vos solutions d'encaissement ?
Similaire à DATA FORUM MICROPOLE 2015 - Atelier Talend (20)
ORCHESTRA - Gouvernance des donnees et MDM - Data forum MICROPOLE 2016 Micropole Group
- Orchestra Networks is a privately-held company founded in 2000 that provides a unified data management software called EBX5 to manage various types of master and reference data.
- EBX5 is a model-driven software that can manage any type of data through configuration rather than coding, providing capabilities for master data management, reference data management, metadata management, and data governance.
- EBX5 supports both operational systems like ERP and CRM as well as analytical systems like BI and big data by providing shared, accurate data assets across the enterprise.
CONTENTSERV - PIM le noyau central d'un ecosysteme digital - Data forum MIC...Micropole Group
The document summarizes Dorel Juvenile's implementation of a product information management (PIM) system from Contentserv. It discusses Dorel's complex product information landscape across multiple brands, languages, and channels. Implementing PIM helped centralize content and provide a single source of truth. It improved efficiency by reducing duplicated work and ensuring consistent data. The PIM system also unlocked new opportunities by making content easily accessible for various uses like websites, e-commerce, and marketing campaigns. While the project brought challenges, it established important lessons for Dorel as it continues expanding PIM to more regions and digital touchpoints.
Matinée Micropole DE LA BI A LA DATA INTELLIGENCE 18-10-2016Micropole Group
Avec l’explosion du volume des données disponibles (structurées, non structurées, dark data, open data…) et la multiplicité des sources d’information, les utilisateurs ont besoin d’accéder à des données de plus en plus nombreuses et d’avoir la main sur leur exploration et leur manipulation pour gagner en agilité.
Wide Coffee La Connaissance Client en mode digitalMicropole Group
Connaissez-vous vraiment vos clients ? La question mérite d’être posée tant le digital ne cesse de bouleverser les usages et l’environnement dans lequel les entreprises évoluent.
2. 2
Les entreprises orientées données…
· 23 fois plus d’acquisition de clients
· 6 fois plus de fidélisation clients
· 19 fois plus rentables
McKinsey’s DataMatics 2013 Survey - Using customer analytics to boost corporate performance
Dynamiser l’entreprise par ses Données
3. 3
ABOUT TALEND
Faits et chiffres
• Créé en 2006
• 500+ employés dans 7 pays
• 1700+ clients
• 2M+ téléchargement open source
• 108% CAGR
2007 2008 2209 2010 2011 2012 2013 2014
CLOUD
INTEGRATIO
N
DATA
INTEGRATION
BIG DATA
INTEGRATION
MASTER DATA
MANAGEMENT
APPLICATION
INTEGRATION
Talend en bref
Data Fabric
4. 4
Réussir les transitions de l’expérimentation à la transformation digitale
Trajectoires d’adoption pour le Big Data
Experimentation Analytique Data driven
Valeur
Seuil de
rentabilité
Proof of
concept
Projet
approuvé
Généra-
lisation
Transfor-
mation
+
+
Data Fabric
+
Big data
“Ne cédez pas à la mode “data scientist”.
Ayez une vision plus globale
& commencez dès à présent à
opérationnaliser le big data”
5. 5
Le Big Data pour mieux servir le client connecté
Exemple de Cas d’usage
Mettre en place la Customer Data Platform
Les enjeux :
• Améliorer les taux de transformation tout au long du parcours client
• Améliorer le service client et personnaliser chaque interaction
• Mesurer avec plus de précision l’efficacité des promotions et services
La démarche :
• Créer la vue unique et opérationnelle du client multi-canal
• Collecter et connecter les données d’interaction/transaction
• Enrichir avec l’analytique
• Intégrer les points de contacts client en temps réel
La plate forme :
• Master Data Management pour la vue client consolidée
• Big Data et machine learning pour la vue 360°enrichie
• Intégration temps réel aux applications digitales et point de vente
6. 6
Personnaliser le parcours santé
L’enjeu :
Transformer le parcours santé en une expérience personnalisée et
plus efficace grâce aux données et à l’analytique
Pourquoi Talend :
Une offre de Master Data Management dans le cloud, prête pour
le Big Data, pour comprendre le contexte de chaque patient et
l’orienter vers le bon service
Valeur :
Temps et efforts pour intégrer chaque nouveau client diminués de
75% grâce à la standardisation et la réutilisation des sources de
données We are smart, passionate people, committed
to creating a better healthcare experience
and better outcome
7. 7
Pourquoi Spark et Talend ?
Quelle plate-forme pour opérer votre transformation
par les données ?
Spark
Streaming
Architecture
Lambda
In Memory
Machine
Learning
Pas de code
Migration
en 1 click
Analyser avant d’agir, au
bon moment
Transformer les
données en décisions,
prescriptions et actions
Rester à la pointe de la
technologie sans efforts
Supprimer les temps de
latence quels que soient
les traitements à
appliquer
Exploiter la donnée dès
qu’elle vient
8. 8
Disposer de l’information en juste à temps
Supprimer les temps de latence grâce à l’in-memory
Case d’usage : Vers une approche plus dynamique du pricing
Pourquoi Spark et Talend :
· Développer rapidement des traitements massifs de données et augmenter
leur fréquence d’exécution
Augmentation de la performance des traitements batch
Utilisation du caching et du partitionnement
Tirer partie de la mémoire pour accélérer drastiquement les temps
de traitement
Résultats :
· Des ventes augmentées de 9%,
· Des rotations de stocks améliorées de 6%
· Une profitabilité améliorée de 5%.
http://www.blue-yonder.com/blog-e/2014/05/07/dynamic-pricing-critical-todays-multichannel-retailer/
9. 9
Avantage : Transformer les données de l’Internet des Objets en décisions
puis actions prises en temps réel grâce à une seule solution
z NoSQL
Messaging rapide, Ingestion à haut débit, Traitement
de données
Les usages de Spark Streaming pour l’Internet des Objets
Exploiterla donnéedèsqu’ellevient
AMQP
10. 10
Les apports de l’architecture Lambda
Analyser avant d’agir, au bon moment
Mobile
Sensors
Web
Mobile App
Analytic App
Web App
Streaming
Batch
Query
Transform
Cleanse
Govern
Transform
Cleanse
Govern
Spark Streaming/Kafka
Spark
Spark
SQL
11. 11
Passer de l’analyse prédictive vers l’analyse prescriptive avec MLlib
• Cas d’usage typique :
personnalisation et
recommandation temps réel
• Bénéfices (source Venture Beat
Survey) :
• Cas 1 : contenu personnalisé sur
site web pour un nombre de page
vues augmenté de 300 %
• Cas 2 : taux de conversion
augmenté de 219%.
Transformer les données en Décisions, Actions &
Prescriptions
Don-
nées
Intégrer
Appren
dre
Agir
avec
clairvo-
yance
Valeur
Alimenter
l’apprentissage
Appliquer le
modèle
Talend Big Data
Integration
& Quality
Machine learning et
analyse prédictive
Talend Real Time Big
Data integration
Puissance de
traitement des
données dans Spark
MLlib et Spark R
Spark streaming
et modèle de machine
learning
opérationnalisé
Solution
13. 13
Passer de MapReduce vers Spark en un clic grâce à Talend !
Performance
MapReduce
(fonctionnement sur
disque)
Un
Clic
Performance
Spark
(fonctionnement en mémoire
et sur disque)
5X
plus
rapide
14. 14
Tenez vous prêts pour le « Next Big Thing »
Un
Click
Spark
Next Big Thing
Next Big Thing
la prochaine
innovation