Science des Donnees Intelligence ArtificielleTélécom Paris
Après le déluge des données du big data, issues du Web ou des silos d’information des entreprises, la science des données doit appréhender le retour en force du concept d’intelligence artifi cielle (IA). Nouvelles données issues des capteurs de l’Internet des objets, capacités de stockage et de calcul considérablement accrues, vitesse de transfert augmentée, ont permis de raviver la recherche dans cette disci-pline. Soulevant enjeux technologiques et économiques, questions scientifi ques et éthiques, l’intelligence artifi cielle est rapidement devenue emblématique de notre monde contemporain.
L’avènement du Digital s’accompagne d’une démultiplication de données à analyser : structurées et non structurées.
Parallèlement, les entreprises sont à la recherche de sources d’avantages concurrentiels et d’identification de nouveaux débouchés marketing associés à un enjeu de défendre leur part de marché. Celles-ci sont conscientes, que la valorisation de leurs données constituera la réponse.
Afin de pouvoir analyser ces mines de données, les technologies ont fortement évolué :
• Mise en place de Big Data pour stocker d’importantes volumétries de données ;
• Parallélisation/montée en mémoire des traitements pour permettre de réduire les délais de réalisation ;
• Développement de nouveaux algorithmes qui offrent de nouvelles perspectives d’analyses ;
• Evolution des outils statistiques.
Dans ce contexte de mutations technologiques et à l’heure du temps réel, quels sont les impacts pour le Data Mining?
Nous vous invitons à un séminaire gratuit qui abordera les questions suivantes :
• Quels impacts sur le quotidien du Data Miner : quelles sont les techniques/outils à maîtriser ?
• Quelles sont les possibilités et les nouvelles perspectives d’analyse offertes par le Big Data ?
• Quels sont les pièges à éviter ?
Projet intelligence économique : Les enjeux des transferts de technologie et...Léa Bernard
Les transferts de technologie jouent un rôle déterminant dans le processus d'innovation des entreprises. Les firmes possédant de telles technologies disposent d'un réel avantage concurrentiel leur permettant d'acquérir des parts de marché importantes. Ce projet aura donc pour but de retracer les moyens pour les entreprises de mettre en place des transferts de technologies ainsi que l’arbitrage réalisé les ayant mené à ce choix. Nous aurons aussi une analyse plus détaillée des dérives pouvant découler des échecs des transferts de technologie à travers l’espionnage industriel. Il s’agira alors de voir comment s’en protéger et de retracer deux grandes affaires d’espionnage industriel s’étant déroulées ces dernières années.
Guide : Gouvernance des données personnelles et analyse d'impactSEKIMIA by O'Service2
La proposition de règlement de la Commission Européenne a des conséquences importantes sur les enjeux de gouvernance des données personnelles au sein des organismes. Ces dernières devront s’adapter à un principe de responsabilité accrue qui se traduit par l’obligation pour un responsable de traitement de rendre des comptes.
Concrètement, cela implique, pour le responsable du traitement, de prendre des mesures efficaces et appropriées afin de se conformer au règlement européen et d’apporter la preuve, sur demande de l’autorité de contrôle, que les mesures nécessaires ont bien été prises.
Il s’agit d’une démarche de renforcement du cadre de la gouvernance d’entreprise où les notions de contrôle interne et de gestion des risques revêtent une place majeure. L’introduction de l’obligation d’une analyse d’impact en est la traduction.
Dans ce contexte, la conduite de l’analyse d’impact se doit :
- d’être intégrée aux processus de gestion des risques des organisations et d’amélioration continue,
- d’être orientée sur les processus des organisations,
- d’être menée le plus tôt possible dans la conception des applications,
- d’être souple et adaptée au niveau de risques identifiés.
A ce jour, de nombreuses zones d’incertitudes subsistent, telle la notion de grande échelle ou de risques particuliers.
Le présent guide présente les réflexions d'un groupe de travail sous l'égide de l'Académie des sciences comptables et financières, auquel j'ai eu le grand honneur de participer. Il sera mis à jour et actualisé au fur et à mesure de l’évolution des textes et de la jurisprudence ainsi que de la confrontation des expériences.
Ce livre blanc, réalisé par une équipe pluridisciplinaire comprenant des délégués aux données personnelles ou CIL des plus grands groupes, des RSSI, des ingénieurs spécialisés, des juristes d’entreprises, des avocats et des commissaires aux comptes, se veut un guide pratique pour :
- comprendre le cadre juridique de l’analyse de risques et de l’analyse d’impact
- comprendre quand une analyse d’impact est obligatoire
- comprendre comment conduire une analyse d’impact
- démontrer par l’exemple le déroulement d’une analyse d’impact
Au-delà du règlement européen, l’analyse de risques et l’analyse d’impact relatives à la protection des données personnelles sont des bonnes pratiques que les entreprises ont intérêt à appliquer pour montrer à leurs écosystèmes le respect qu’elles ont des personnes.
Science des Donnees Intelligence ArtificielleTélécom Paris
Après le déluge des données du big data, issues du Web ou des silos d’information des entreprises, la science des données doit appréhender le retour en force du concept d’intelligence artifi cielle (IA). Nouvelles données issues des capteurs de l’Internet des objets, capacités de stockage et de calcul considérablement accrues, vitesse de transfert augmentée, ont permis de raviver la recherche dans cette disci-pline. Soulevant enjeux technologiques et économiques, questions scientifi ques et éthiques, l’intelligence artifi cielle est rapidement devenue emblématique de notre monde contemporain.
L’avènement du Digital s’accompagne d’une démultiplication de données à analyser : structurées et non structurées.
Parallèlement, les entreprises sont à la recherche de sources d’avantages concurrentiels et d’identification de nouveaux débouchés marketing associés à un enjeu de défendre leur part de marché. Celles-ci sont conscientes, que la valorisation de leurs données constituera la réponse.
Afin de pouvoir analyser ces mines de données, les technologies ont fortement évolué :
• Mise en place de Big Data pour stocker d’importantes volumétries de données ;
• Parallélisation/montée en mémoire des traitements pour permettre de réduire les délais de réalisation ;
• Développement de nouveaux algorithmes qui offrent de nouvelles perspectives d’analyses ;
• Evolution des outils statistiques.
Dans ce contexte de mutations technologiques et à l’heure du temps réel, quels sont les impacts pour le Data Mining?
Nous vous invitons à un séminaire gratuit qui abordera les questions suivantes :
• Quels impacts sur le quotidien du Data Miner : quelles sont les techniques/outils à maîtriser ?
• Quelles sont les possibilités et les nouvelles perspectives d’analyse offertes par le Big Data ?
• Quels sont les pièges à éviter ?
Projet intelligence économique : Les enjeux des transferts de technologie et...Léa Bernard
Les transferts de technologie jouent un rôle déterminant dans le processus d'innovation des entreprises. Les firmes possédant de telles technologies disposent d'un réel avantage concurrentiel leur permettant d'acquérir des parts de marché importantes. Ce projet aura donc pour but de retracer les moyens pour les entreprises de mettre en place des transferts de technologies ainsi que l’arbitrage réalisé les ayant mené à ce choix. Nous aurons aussi une analyse plus détaillée des dérives pouvant découler des échecs des transferts de technologie à travers l’espionnage industriel. Il s’agira alors de voir comment s’en protéger et de retracer deux grandes affaires d’espionnage industriel s’étant déroulées ces dernières années.
Guide : Gouvernance des données personnelles et analyse d'impactSEKIMIA by O'Service2
La proposition de règlement de la Commission Européenne a des conséquences importantes sur les enjeux de gouvernance des données personnelles au sein des organismes. Ces dernières devront s’adapter à un principe de responsabilité accrue qui se traduit par l’obligation pour un responsable de traitement de rendre des comptes.
Concrètement, cela implique, pour le responsable du traitement, de prendre des mesures efficaces et appropriées afin de se conformer au règlement européen et d’apporter la preuve, sur demande de l’autorité de contrôle, que les mesures nécessaires ont bien été prises.
Il s’agit d’une démarche de renforcement du cadre de la gouvernance d’entreprise où les notions de contrôle interne et de gestion des risques revêtent une place majeure. L’introduction de l’obligation d’une analyse d’impact en est la traduction.
Dans ce contexte, la conduite de l’analyse d’impact se doit :
- d’être intégrée aux processus de gestion des risques des organisations et d’amélioration continue,
- d’être orientée sur les processus des organisations,
- d’être menée le plus tôt possible dans la conception des applications,
- d’être souple et adaptée au niveau de risques identifiés.
A ce jour, de nombreuses zones d’incertitudes subsistent, telle la notion de grande échelle ou de risques particuliers.
Le présent guide présente les réflexions d'un groupe de travail sous l'égide de l'Académie des sciences comptables et financières, auquel j'ai eu le grand honneur de participer. Il sera mis à jour et actualisé au fur et à mesure de l’évolution des textes et de la jurisprudence ainsi que de la confrontation des expériences.
Ce livre blanc, réalisé par une équipe pluridisciplinaire comprenant des délégués aux données personnelles ou CIL des plus grands groupes, des RSSI, des ingénieurs spécialisés, des juristes d’entreprises, des avocats et des commissaires aux comptes, se veut un guide pratique pour :
- comprendre le cadre juridique de l’analyse de risques et de l’analyse d’impact
- comprendre quand une analyse d’impact est obligatoire
- comprendre comment conduire une analyse d’impact
- démontrer par l’exemple le déroulement d’une analyse d’impact
Au-delà du règlement européen, l’analyse de risques et l’analyse d’impact relatives à la protection des données personnelles sont des bonnes pratiques que les entreprises ont intérêt à appliquer pour montrer à leurs écosystèmes le respect qu’elles ont des personnes.
Keynote Big Data & Data Science - 24h pharma@dreuxAlexia Audevart
Keynote Big Data & Data Science :
Partie 1 : Data & Big Data
Partie 2 : Valorisation de données - Machine Learning
Partie 3 : Visualisation de données
Date 24 Octobre 2018 - Marathon créatif 24H Pharma@Dreux
Un marathon créatif de 24h où vont s’associer industriels de la pharmaceutique, étudiants, développeurs, designers, start-uppers… pour créer l’industrie pharmaceutique du futur.
Plus d'infos : http://www.dreux-agglomeration.fr/Emploi-Economie/24H-Pharma-Dreux
L’accélération du développement et des usages des technologies de l’information et de la communication nous a indéniablement projeté dans une nouvelle ère numérique, celle du « Big Data », où la collecte, le stockage et l’accès à des données toujours plus massives offrent la perspective de progrès considérables dans de nombreux secteurs d’activité, poursuivant dans la voie tracée par les grands acteurs de l’internet.
Les données personnelles : un patrimoine à sécuriser !
Dans un environnement règlementaire déjà complexe et évolutif, que va impliquer la nouvelle règlementation européenne dans vos processus marketing et digitaux ?
Le 25 mai 2018, les entreprises françaises devront être en mesure de respecter le nouveau règlement européen sur la protection des données (RGPD). S'il s'inscrit dans la continuité du cadre législatif français existant, il modifie significativement les droits et les rapports entre les consommateurs, les entreprises et les autorités de protection.
Quels sont les éléments clés du règlement de l'Union Européenne ?
Quels sont les principes à prendre en compte en matière de protection de données personnelles dans les bases marketing et le marketing digital ?
Quelles conséquences sur votre activité ? Concrètement, quels impacts sur votre animation digitale, votre pratique actuelle de gestion des consentements, de stockage et de protection des données ?
Quelle approche méthodologique et outils à adopter pour une mise en place d'une politique de traitement des données et avancer sur une mise en conformité ?
Accompagnés du Cabinet PBA, et fort de notre expérience opérationnelle, nous répondrons à ces interrogations lors de ce séminaire au cours duquel nous vous exposerons une démarche concrète de mise en conformité.
Cette étude met en lumière sept métiers, qui placent les données au cœur de leur activité, qu'il s'agisse de leur collecte et de leur stockage, de leur traitement et de leur modélisation ou encore de leur protection.
La révolution numérique a fait rentrer nombre d’entreprises dans l’ère du big data.
Les entreprises ont besoin de mobiliser des compétences spécifiques pour tirer profit au mieux des données.
Formation professionnelle "Big data : concepts et enjeux"Philippe METAYER
Sensibiliser au contexte des données massives et du big data.
Le web est un incroyable réservoir de données.
Concept des données structurées et non structurées.
Les 5V : Volumétrie Vitesse Valeur Variété Véracité
Comprendre les technologies de récolte des données : scraping et crawling.
Comment traiter les données récoltées ?
Formation réalisée par Philippe Métayer - IUT MMI Bordeaux.
Ch&cie présentation du big data dans l'assuranceBetito Yan
Big data is a common word and concept with major business and operational impacts for companies. Specifically insurance companies will have to face a significant shift in their activities to cope with this new paradigm. More than a concept, actions and operational changes are required now.
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech
La Business Intelligence, dans l’entreprise, est actuellement en train de se métamorphoser.
Le Big Data permet d’explorer de nouvelles possibilités qui révolutionnent l’informatique décisionnelle.
Hervé Desaunois - Directeur technique, Valtech Toulouse
herve.desaunois@valtech.fr
Lionel Molas - Consultant Senior - Coach Agile, Valtech Toulouse
Soft Computing & IBM : Digital, Big Data & DMPSoft Computing
Soft Computing et IBM partagent leurs retours d'expériences.
La digitalisation bouleverse toutes les facettes de la relation client. Le marketing digital n'existe plus, c'est l'ensemble du marketing qui est passé à l'ère du digital. Tout est devenu générateur de données, mais comment les valoriser ?
Les frontières entre marketing services, données, design, publicité, social, web et mobile s'estompent au fur et à mesure que la technologie évolue pour simplifier les interactions entre disciplines.
S'appuyant notamment sur diverses solutions avancées en matière de Big Data & Analytics, le large panorama de l'offre d'IBM vous sera replacé dans le contexte des besoins du marketing client et produit.
Soft Computing partagera avec vous des cas d'usages métiers en partant du CRM multi canal confronté aux nouveaux parcours, puis en intégrant les nouveaux médias et les Big Data.
Enfin, pour répondre aux nouveaux enjeux marketing sans tomber dans les difficultés de mise en œuvre de projets complexes et couteux, Soft Computing vous présentera le dispositif « Soft Computing Marketing Ready » tel que mis en œuvre notamment pour de grandes enseignes de la distribution alimentaire. Il comprend à la fois des outils informatiques et des prestations de services, qui couvrent l'ensemble des fonctions marketing de manière intégrée : connaissance client, campagnes marketing, fidélité, promotions, référentiel client, qualité des données, moteur de recommandations, référencement web, veille et animation sociale, enquêtes, reporting marketing, datasharing et data onboarding.
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...Touria Engohan
L’entreprise doit prendre conscience de cette révolution en anticipant sa mise en place par des investissements humains et matériels. Celles qui sauront tirer profit de leur capital « Données », s’ouvriront de nouvelles perspectives vers plus de compétitivité et d’innovation...
Big Data / Données massives
Big Data – Contexte
Big Data – L'univers digital devient de plus en plus large et interconnecté
Big Data – Perception du Volume de l'univers digital
Big Data 4 V
Big Data – conséquence de la maturité et la démocratisation de plusieurs disciplines
Big Data – Études de cas (Sécurité du citoyen, Analyse de Sentiment, Analyse temps réel de churn, Traitement des échanges boursiers, Recommandation de services/produits, ...)
Big Data – 3 Stratégies de traitement
Big Data versus Grid Computing
Big Data – Visualisation
Big Data – Quels Profils et Compétences ?
Big Data – Le Maroc a tout à y gagner
Machine Learning et Intelligence ArtificielleSoft Computing
Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de visages, de sentiments, analyse de signaux issus notamment d’objets connectés. Comment capitaliser sur ces méthodologies pour des applications Marketing ? Avec quels outils, méthodes et compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle. Cette débauche de moyens en recherche et développement génère la diffusion en Open Source de nombreux algorithmes ou le foisonnement de fonctions et d’API de Machine Learning et Deep Learning et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, des sentiments …
En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitement considérables qui permettent d’appliquer ces algorithmes de Machine Learning sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Le Marketing et la connaissance client capitalisent sur toutes ces nouvelles possibilités : conseiller le bon produit – en mode recommandation ou substitution, anticiper des changements dans les comportements, s’adresser au client de façon complètement personnalisée, surveiller en temps réel des indicateurs de bon ou mauvais fonctionnement – objets connectés, fluidifier et optimiser l’expérience client en identifiant des axes d’amélioration des parcours ou process.
Ce séminaire vise à démystifier le Machine Learning, à en dessiner des applications potentielles pour le Marketing. Les modalités de mise en œuvre – outils, procédures et techniques, forces et faiblesses – seront détaillées à travers la présentation de cas d’usage.
Formations professionnelles digitales & ICT à Technofutur TICTechnofutur TIC
Agenda de nos formations professionnelles du 2ème semestre 2016. Vous trouverez tous les descriptifs complets de formation sur notre site http://bit.ly/ZzYxiu
Dossier presse chaire-big-data-market-insightsTélécom Paris
TÉLÉCOM PARISTECH CRÉE SA CHAIRE DE RECHERCHE
“BIG DATA & MARKET INSIGHTS”,
EN PARTENARIAT AVEC TÉLÉCOM ÉCOLE DE MANAGEMENT ET AVEC LE SOUTIEN DE DELOITTE, DU GROUPE YVES ROCHER ET DE VOYAGES-SNCF.COM
Keynote Big Data & Data Science - 24h pharma@dreuxAlexia Audevart
Keynote Big Data & Data Science :
Partie 1 : Data & Big Data
Partie 2 : Valorisation de données - Machine Learning
Partie 3 : Visualisation de données
Date 24 Octobre 2018 - Marathon créatif 24H Pharma@Dreux
Un marathon créatif de 24h où vont s’associer industriels de la pharmaceutique, étudiants, développeurs, designers, start-uppers… pour créer l’industrie pharmaceutique du futur.
Plus d'infos : http://www.dreux-agglomeration.fr/Emploi-Economie/24H-Pharma-Dreux
L’accélération du développement et des usages des technologies de l’information et de la communication nous a indéniablement projeté dans une nouvelle ère numérique, celle du « Big Data », où la collecte, le stockage et l’accès à des données toujours plus massives offrent la perspective de progrès considérables dans de nombreux secteurs d’activité, poursuivant dans la voie tracée par les grands acteurs de l’internet.
Les données personnelles : un patrimoine à sécuriser !
Dans un environnement règlementaire déjà complexe et évolutif, que va impliquer la nouvelle règlementation européenne dans vos processus marketing et digitaux ?
Le 25 mai 2018, les entreprises françaises devront être en mesure de respecter le nouveau règlement européen sur la protection des données (RGPD). S'il s'inscrit dans la continuité du cadre législatif français existant, il modifie significativement les droits et les rapports entre les consommateurs, les entreprises et les autorités de protection.
Quels sont les éléments clés du règlement de l'Union Européenne ?
Quels sont les principes à prendre en compte en matière de protection de données personnelles dans les bases marketing et le marketing digital ?
Quelles conséquences sur votre activité ? Concrètement, quels impacts sur votre animation digitale, votre pratique actuelle de gestion des consentements, de stockage et de protection des données ?
Quelle approche méthodologique et outils à adopter pour une mise en place d'une politique de traitement des données et avancer sur une mise en conformité ?
Accompagnés du Cabinet PBA, et fort de notre expérience opérationnelle, nous répondrons à ces interrogations lors de ce séminaire au cours duquel nous vous exposerons une démarche concrète de mise en conformité.
Cette étude met en lumière sept métiers, qui placent les données au cœur de leur activité, qu'il s'agisse de leur collecte et de leur stockage, de leur traitement et de leur modélisation ou encore de leur protection.
La révolution numérique a fait rentrer nombre d’entreprises dans l’ère du big data.
Les entreprises ont besoin de mobiliser des compétences spécifiques pour tirer profit au mieux des données.
Formation professionnelle "Big data : concepts et enjeux"Philippe METAYER
Sensibiliser au contexte des données massives et du big data.
Le web est un incroyable réservoir de données.
Concept des données structurées et non structurées.
Les 5V : Volumétrie Vitesse Valeur Variété Véracité
Comprendre les technologies de récolte des données : scraping et crawling.
Comment traiter les données récoltées ?
Formation réalisée par Philippe Métayer - IUT MMI Bordeaux.
Ch&cie présentation du big data dans l'assuranceBetito Yan
Big data is a common word and concept with major business and operational impacts for companies. Specifically insurance companies will have to face a significant shift in their activities to cope with this new paradigm. More than a concept, actions and operational changes are required now.
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech
La Business Intelligence, dans l’entreprise, est actuellement en train de se métamorphoser.
Le Big Data permet d’explorer de nouvelles possibilités qui révolutionnent l’informatique décisionnelle.
Hervé Desaunois - Directeur technique, Valtech Toulouse
herve.desaunois@valtech.fr
Lionel Molas - Consultant Senior - Coach Agile, Valtech Toulouse
Soft Computing & IBM : Digital, Big Data & DMPSoft Computing
Soft Computing et IBM partagent leurs retours d'expériences.
La digitalisation bouleverse toutes les facettes de la relation client. Le marketing digital n'existe plus, c'est l'ensemble du marketing qui est passé à l'ère du digital. Tout est devenu générateur de données, mais comment les valoriser ?
Les frontières entre marketing services, données, design, publicité, social, web et mobile s'estompent au fur et à mesure que la technologie évolue pour simplifier les interactions entre disciplines.
S'appuyant notamment sur diverses solutions avancées en matière de Big Data & Analytics, le large panorama de l'offre d'IBM vous sera replacé dans le contexte des besoins du marketing client et produit.
Soft Computing partagera avec vous des cas d'usages métiers en partant du CRM multi canal confronté aux nouveaux parcours, puis en intégrant les nouveaux médias et les Big Data.
Enfin, pour répondre aux nouveaux enjeux marketing sans tomber dans les difficultés de mise en œuvre de projets complexes et couteux, Soft Computing vous présentera le dispositif « Soft Computing Marketing Ready » tel que mis en œuvre notamment pour de grandes enseignes de la distribution alimentaire. Il comprend à la fois des outils informatiques et des prestations de services, qui couvrent l'ensemble des fonctions marketing de manière intégrée : connaissance client, campagnes marketing, fidélité, promotions, référentiel client, qualité des données, moteur de recommandations, référencement web, veille et animation sociale, enquêtes, reporting marketing, datasharing et data onboarding.
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...Touria Engohan
L’entreprise doit prendre conscience de cette révolution en anticipant sa mise en place par des investissements humains et matériels. Celles qui sauront tirer profit de leur capital « Données », s’ouvriront de nouvelles perspectives vers plus de compétitivité et d’innovation...
Big Data / Données massives
Big Data – Contexte
Big Data – L'univers digital devient de plus en plus large et interconnecté
Big Data – Perception du Volume de l'univers digital
Big Data 4 V
Big Data – conséquence de la maturité et la démocratisation de plusieurs disciplines
Big Data – Études de cas (Sécurité du citoyen, Analyse de Sentiment, Analyse temps réel de churn, Traitement des échanges boursiers, Recommandation de services/produits, ...)
Big Data – 3 Stratégies de traitement
Big Data versus Grid Computing
Big Data – Visualisation
Big Data – Quels Profils et Compétences ?
Big Data – Le Maroc a tout à y gagner
Machine Learning et Intelligence ArtificielleSoft Computing
Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de visages, de sentiments, analyse de signaux issus notamment d’objets connectés. Comment capitaliser sur ces méthodologies pour des applications Marketing ? Avec quels outils, méthodes et compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle. Cette débauche de moyens en recherche et développement génère la diffusion en Open Source de nombreux algorithmes ou le foisonnement de fonctions et d’API de Machine Learning et Deep Learning et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, des sentiments …
En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitement considérables qui permettent d’appliquer ces algorithmes de Machine Learning sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Le Marketing et la connaissance client capitalisent sur toutes ces nouvelles possibilités : conseiller le bon produit – en mode recommandation ou substitution, anticiper des changements dans les comportements, s’adresser au client de façon complètement personnalisée, surveiller en temps réel des indicateurs de bon ou mauvais fonctionnement – objets connectés, fluidifier et optimiser l’expérience client en identifiant des axes d’amélioration des parcours ou process.
Ce séminaire vise à démystifier le Machine Learning, à en dessiner des applications potentielles pour le Marketing. Les modalités de mise en œuvre – outils, procédures et techniques, forces et faiblesses – seront détaillées à travers la présentation de cas d’usage.
Formations professionnelles digitales & ICT à Technofutur TICTechnofutur TIC
Agenda de nos formations professionnelles du 2ème semestre 2016. Vous trouverez tous les descriptifs complets de formation sur notre site http://bit.ly/ZzYxiu
Dossier presse chaire-big-data-market-insightsTélécom Paris
TÉLÉCOM PARISTECH CRÉE SA CHAIRE DE RECHERCHE
“BIG DATA & MARKET INSIGHTS”,
EN PARTENARIAT AVEC TÉLÉCOM ÉCOLE DE MANAGEMENT ET AVEC LE SOUTIEN DE DELOITTE, DU GROUPE YVES ROCHER ET DE VOYAGES-SNCF.COM
Ey étude (Big) data - Où en sont les entreprises françaises ?polenumerique33
(Big) data - Où en sont les entreprises françaises ?
Quelle maturité dans l'exploitation des données clients ?
Les résultats de cette enquête, menée auprès de plus de 150 entreprises françaises, révèlent qu’en dépit d’une perception majoritairement positive, le « Big data bang » n’a pas encore eu lieu dans la réalité.
http://www.ey.com/FR/fr/Services/Advisory/EY-etude-Big-data-2014
Le 16 octobre j’ai assisté à une conférence organisée par information builders au Shangri la de Paris intitulée : « Les nouveaux enjeux de l’EIM, MDM et big data, l’association gagnante ». Même si le titre est un peu abscons, et requiert lui-même un peu de data mining, le contenu allait au-delà de mes espérances avec une présentation très intéressante de Jean-Michel Franco (photo), Directeur de l’innovation chez Business & décision. Et je peux dire qu’enfin j’ai tout compris, ou presque,au big data, au vrai big data, pas aux incantations aux dieux de la mode, mais à la description d’une vraie révolution au sein des entreprises et des directions marketing qui n’a pas fini de créer des remous dans les organisations et les méthodologies. Voir mon compte-rendu : http://wp.me/p3XOzT-2wS
Big data : Défi, enjeux et impacts métiersBruno Patin
Nous sommes tous au cœur d’une révolution technologique sans précédent : la croisée des réseaux sociaux, de la mobilité, de la géolocalisation, du big data ou l’explosion du communautaire sont en train de radicalement changer le monde dans lequel nous vivons.
L'ère du numérique, également appelée l'ère de l'information, fait référence à la période actuelle où la technologie de l'information et de la communication joue un rôle central dans tous les aspects de notre vie. Cette ère est caractérisée par l'utilisation généralisée d'ordinateurs, d'Internet, de smartphones, de réseaux sociaux et d'autres technologies numériques qui ont transformé notre façon de communiquer, de travailler, de consommer des informations et de mener nos activités quotidiennes.
L'Alliance Big Data est une communauté transverse 2.0 et un Do-Tank dans le Big Data. Avec cette première rencontre ouverte à toutes les sensibilités autour du Big Data en France, l'Alliance Big Data veut rassembler toutes les énergies et créer une synergie dans ce domaine éminemment important pour aujourd'hui et pour demain.
L’année 2014 a été marquée par le Big Data. L’Alliance Big Data a participé activement aux échanges, groupes de travail, livres blancs, évènements, formation, et autres formes de communication et de partage en s’appuyant notamment sur un réseau social actif, un site web relooké et la première saison de sa série TV (la Big Data TV).
Cette soirée de networking a été également l’occasion de rencontrer des lauréats du concours mondial de l’innovation (section Big Data), d’écouter le témoignage d’un grand compte sur l’un de ses projets Big Data et de suivre les derniers développements de l’Alliance.
Le Big Data, semble aujourd’hui la solution miraculeuse pour une gestion efficace des masses de donnée. Mais de quoi s’agit-il ? Un vrai levier pour améliorer son activité? ou simple poudre aux yeux ? Dans ce contexte, Nexialog s’intéresse de plus en plus à cette thématique porteuse, et a réalisé une première étude abordant le Big Data en lien avec les secteurs financiers et assurantiels.
Trois sujets de recherche ont également été lancés en interne :
-L’impact du Big data sur l’organisation de l’entreprise
-Les technologies Big Data
-Gestion de Risques dans l’environnement Big Data
L'Internet des Objets : Les priorités des entreprises FrançaisesJean-Marc Hui Bon Hoa
L'intérêt actuel des médias pour le concept d'internet des objets (IoT) est à son paroxysme.
Cependant, à travers les discussions quotidiennes avec les entreprises, certaines nous confient
observer cette agitation médiatique avec une certaine perplexité. En effet, capteurs, actuateurs,
communications M2M, systèmes complexes, diffusion continue de flux de données et informatique
embarquée sont pratiques courantes dans certains secteurs d'activité depuis plusieurs années.
Malgré tout, les organisations admettent que les avancées technologiques ouvrent de nouvelles
opportunités permettant de créer de la valeur. Mais pourquoi maintenant ? Principalement parce
que plusieurs avancées technologiques déterminantes convergent pour créer l'Internet des Objets
et se diffusent progressivement dans tous les secteurs d'activités à savoir:
Mastere Specialise Intelligence ArtificielleTélécom Paris
Anticipez le futur des services numériques. Maîtrisez de nombreuses techniques d'apprentissage statistique avancé. Apprenez à concevoir des systèmes d'IA en interaction. Relevez des défis industriels et sociétaux dans une multitude d'applications.
Cette note sectorielle :
• présente les enjeux auxquels font face les DSI (enjeux technologiques, financiers, organisationnels et sociaux) ;
• est destinée à tous les élus s’intéressant à cette problématique, qu’ils fassent partie d’une DSI ou non ;
• introduit les principales notions et les questions incontournables à poser pour connaître les tenants et aboutissants des DSI.
Une révolution technologique à nos portes ; nos organisations sont-elles prêtes?IRSST
Présentation au Colloque IRSST 2017 de Geneviève Lefebvre, directrice de projet, Innovation et Transfert au CEFRIO.
http://www.irsst.qc.ca/colloque-2017
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
Big data telecom-evolution
1.
2. Big Data : de nouveaux champs de
développement et d’innovation
pour les entreprises
Le Big Data est une tendance de fond appelant de
nouveaux profils et de nouvelles compétences sur le
marché de l’emploi. En effet, s’il y a quelques années le
Big Data ne touchait que certains métiers ou certaines
industries, telles le marketing ou la finance, il s’est
aujourd’hui étendu à des secteurs très variés. La majorité
des entreprises et administrations se transforment en
détentrices et utilisatrices d’informations massives. Ces
flux de données imposent leur présence dans l’activité
productive et commerciale, et posent un triple défi en
termes d’adaptation et de mise à niveau.
Le premier défi est d’ordre technique et tient à la collecte,
l’analyse et la protection des données à travers la maîtrise
des outils informatiques auxquels s’ajoute un besoin
d’expertise en mathématiques et algorithmique afin de
manipuler ces données et extraire des informations en
temps réel.
Le second défi concerne les opportunités et risques nés
de ces données. Il s’agit de définir leur valeur marchande
mais également d’appréhender les obligations juridiques
et les cadres éthiques liés à leur manipulation et plus
spécifiquement quand il s’agit de données personnelles.
Le troisième défi est d’ordre organisationnel, concurrentiel
et stratégique. Les entreprises ou administrations doivent-
elles reconsidérer leur fonctionnement et leurs process
pour intégrer la gestion de données ?
De plus, de très nombreuses start-up se lancent chaque
année, créant applications mobiles, services innovants
et objets connectés issus directement des dernières
avancées du domaine, générateurs de nouvelles activités
porteuses de croissance.
les métiers de la
donnée
Data Analyst
Organise, synthétise et traduit les
données internes de l’entreprise. Le poste
peut évoluer vers celui de data scientist.
Data Scientist
Travaille à un niveau stratégique et
manipule les données structurées ou
non, internes ou externes à l’entreprise
pour faire remonter les informations
susceptibles de favoriser la prise de
décisions.
Architecte des systèmes d’information
Big Data
Conçoit et crée le système informatique
de l’entreprise pour stocker et traiter les
données en temps réel.
Data Protection Officer
Responsable de la protection et de la
conformité des données de la société.
Chief Data Officer (CDO)
Assure la qualité de l’information au sein
de l’entreprise et son exploitabilité ; met
en place la stratégie.
Expert en Data Visualisation
Représente une grande quantité de
données de façon visuelle (graphique,
diagramme, …) afin de les comprendre et
de les analyser facilement.
2 Télécom Evolution - Big Data
Le Big Data fait partie des priorités
nationales fixées par le Gouvernement
au travers du Plan Big Data lancé en 2014
qui vise à faire de la France la référence
mondiale dans ce domaine, notamment
via la création de 10 000 emplois d’ici
2019, pour une valorisation de 2,8 milliards
d’euros.
Les secteurs concernés sont extrêmement
variés : banque et assurance, automobile,
santé, recherche… Tous recherchent les
compétences de data scientists que ce soit
pouranalyserpluseffacementleursdonnées,
trouver des applications innovantes, créer
de la valeur à partir de ressources jusqu’alors
inexploitées, proposer de nouveaux services
aux consommateurs...
Il est nécessaire de disposer de
compétences techniques, mais aussi d’une
capacité à anticiper les services et les
usages rendus possibles par le Big Data.
Les connaissances juridiques relatives à la
collecte, au stockage et à l’exploitation des
données sont également un atout.
Le domaine Big Data ne se limite pas au seul
métier de data scientist, mais concerne des
postes transversaux et multidisciplinaires,
qui se créent aussi dans le cadre d’évolutions
ou de reconversions internes.
3. Télécom Evolution, une expertise dans la
transition numérique par le Big Data
Télécom Evolution conçoit et produit des solutions de formations innovantes,
dans tous les domaines du numérique. La valeur de ses formations vient
de l’attention portée aux besoins réels des entreprises, avec qui elle
travaille en étroite collaboration. Télécom Evolution intègre l’expertise
de professionnels reconnus et des équipes pluridisciplinaires
d’enseignants-chercheurs des écoles d’ingénieurs de l’Institut
Mines-Télécom spécialisées dans le numérique : Télécom
Bretagne, Télécom ParisTech et Télécom SudParis. Ces
équipes participent à de nombreux projets de recherche
en partenariat avec les acteurs économiques. Cet ancrage
scientifique de haut niveau garantit un positionnement d’excellence de Télécom Evolution au cœur de
l’écosystème du domaine Big Data.
Mathématiques financières, graph-mining et
exploration des réseaux sociaux, ranking et
filtragecollaboratif,sécurité,détectiond’attaque,
publicité sur Internet, analyse d’images et de
données spatio-temporelles, anonymisation des
données, indexation/recherche de documents
multimédia, visualisation de données mais aussi
aspects sociétaux, juridiques, économiques,
politiques et philosophiques en relation avec
l’utilisation des données personnelles.
De grandes forces académiques
• Télécom Bretagne :
PôleCID(Connaissance,Information,
Décision)
• Télécom ParisTech :
50 enseignants-chercheurs et
50 doctorants répartis entre les
départements TSI (Traitement du
Signal et des Images), COMELEC
(COMmunication ELECtronique),
INFRES(INFormatiqueetRESeaux),
SES (Sciences Economiques et
Sociales)
• Télécom SudParis :
DépartementsCITI(Communications,
ImagesetTraitementdel’Information),
RS2M (Réseaux et Services
Multimédia Mobiles), RST (Réseaux et
ServicesdeTélécommunications),INF
(Informatique), ARTEMIS (Advanced
Research and TEchniques for
Multidimensional Imaging Systems)
Trois Chaires de recherche et
d’enseignement
Les écoles Télécom s’investissent
dans trois Chaires, soutenues par des
partenaires industriels qui travaillent
de façon rapprochée avec les
enseignants-chercheurs.
• Machine Learning for Big Data
avec Criteo, PSA Peugeot Citroën,
Safran et BNP Paribas.
• Big Data & Market Insights avec
Deloitte, Groupe BPCE, Groupe
Rocher et SNCF.
• Valeurs et Politiques des
Informations Personnelles avec
Groupe Imprimerie Nationale, BNP
Paribas, Orange, LVMH, Dassault
Systèmes, Deveryware et la CNIL.
Trois incubateurs
La valorisation de l’innovation dans
le domaine du Big Data se fait
au travers de trois incubateurs :
ParisTech Entrepreneurs (Télécom
ParisTech), Télécom & Management
SudParis Entrepreneurs (Télécom
SudParis) et l’incubateur de Télécom
Bretagne qui accueillent plusieurs
dizaines de start-up reposant sur
ces technologies.
Une plateforme pour catalyser
l’innovation
La plateforme Teralab, pilotée
par l’Institut Mines-Télécom et
le GENES (Groupe des écoles
nationales d’économie et de
statistique), a pour but de lever
la barrière à l’entrée de l’adoption
des technologies Big Data. Teralab
est une infrastructure puissante,
flexibleetdeconfiance.Sonéquipe
est appuyée par des chercheurs
reconnus dans l’analyse des
données et le machine learning.
Elle accueille déjà de nombreux
projets d’excellence, d’envergure
internationale, regroupant acteurs
économiques et académiques.
Une expertise thématique large et variée au
sein des écoles Télécom
3
4. 3 niveaux adaptés à des
profils variés allant de
professionnels maitrisant
l’outil informatique
(ingénieurs, chefs de
projet, data scientists,
techniciens….) à un public
de non spécialistes.
S’initier aux concepts
(pour les non spécialistes)
Acquérir une vision
globale et comprendre
les enjeux
Acquérir une
expertise spécifique
et des connaissances
opérationnelles
Stage comportant une
proportion importante de
travaux pratiques et/ou
études de cas
STAGE "PANORAMA"STAGE "COMPRENDRE" STAGE "avancé" STAGE "aTELIER"
mOOC* fondamentaux pour le big data
Ce MOOC, proposé par Télécom ParisTech, a pour objectif de fournir une formation de base à toute personne
recherchant une solution flexible, accessible et compatible avec le maintien d’une activité professionnelle et
souhaitant accéder aux formations conduisant aux métiers du Big Data en raison des importants besoins
de recrutement dans ce domaine. Ce MOOC offre ainsi les connaissances de base dans les domaines de
l’algèbre, des probabilités, des statistiques, de la programmation Python et des bases de données afin
d’acquérir le niveau requis aux formations de spécialisation aux métiers du Big Data.
PROGRAMME
6 semaines / effort estimé en heures : 24 heures
Accès Libre
Prérequis : Bases en mathématiques et en algorithmique (niveau L2 validé)
Vérification du niveau des candidats par un test de connaissance (quiz)
organisé avant le début du MOOC.
Introduction générale
Python et Algèbre (Partie 1)
Limites des bases de données relationnelles / Python et Algèbre (Partie 2)
Python (Partie 3) / Probabilités et Analyse (Partie 1)
Probabilités et Analyse (Partie 2)
Statistiques / Présentation du mini-projet
Classifieur Perceptron
Ce MOOC peut être adapté pour une utilisation spécifique en entreprise
ou être enrichi de services d’accompagnement dédiés pour un parcours de
formation plus personnalisé.
Information sur les conditions
d'inscription et le planning :
www.telecom-evolution.fr/moocs
*Massive Open Online Course
4 Télécom Evolution - Big Data
une offre complète centrée sur des technologies spécifiquesformations courtes
Une gamme de huit formations courtes (1 à 2 jours) permettant un focus sur des compétences précises
dans le domaine du Big Data.
Big Data : Premiers succès et retours
d’expérience - 1 jour
Objectifs : apprécier l’étendue des cas
d’usages réels possibles du big data,
identifier les mesures de succès mises
en place par leurs auteurs, ainsi que les
obstacles rencontrés et les solutions
apportées ; interagir avec les praticiens de
la « data » autour de leurs problématiques.
Responsable : François Lainée, président
de CetaData, cabinet de conseil et
développement de solutions Big Data
Big Data : Enjeux stratégiques et défis
technologiques – 2 jours
Objectifs : mesurer et prendre en compte
tous les besoins, enjeux et défis techniques
associés au big data et à l’exploitation des
données massives qui s’y rattachent.
Responsables : Bruno Defude, enseignant-
chercheur à Télécom SudParis, spécialiste de
la gestion de données et Claire Levallois-Barth,
enseignant-chercheur en droit à Télécom
ParisTech, coordinatrice de la Chaire « Valeurs
et Politiques des Informations Personnelles »
5. Big Data : Panorama des infrastructures et
architectures distribuées – 2 jours
Objectifs : comprendre les paradigmes de
calculs distribués et les solutions de passage
à l’échelle (scaling).
Responsable : Jérémie Albert, senior architect
chez la start-up Ezakus
Data Science : Introduction au Machine
Learning - 2 jours
Objectifs : acquérir des bases solides dans
le domaine du machine learning ; apprendre
à mettre en place des plans expérimentaux,
les algorithmes d’apprentissage, interpréter
les règles prédictives et mesurer leur
performance.
Responsable:StéphanClémençon,enseignant-
chercheur au département « Traitement du
signal et des images » de Télécom ParisTech,
coordinateur de la Chaire « Machine Learning
for Big Data »
Introduction à la sécurité du Big Data
2 jours
Objectifs : acquérir une vision globale des
problèmes de sécurité liés au big data ;
disposer des bases nécessaires pour mettre
en place une architecture de sécurité et
comprendre les techniques de protection
des données dans un contexte big data.
Responsables : Thierry Baritaud, responsable
sécurité des services et réseaux à la division
innovation d’Orange et Xavier Aghina,
responsable du programme de recherche en
sécurité à la division Orange Labs
Visualisation d’information (Infovis)
2 jours
Objectifs : introduire les principes de
base de la visualisation des données et de
l’information ; apprendre à créer et à adapter
des représentations visuelles de différentes
données et tâches utilisateurs.
Responsable : James Eagan, enseignant-
chercheur à Télécom ParisTech, mène des
activités de recherche dans le domaine de la
visualisation d’information et de l’interaction
homme-machine
Web sémantique et extraction de données
2 jours
Objectifs : comprendre les bases du web
sémantique ; connaître les bases de la
représentation des connaissances et les
algorithmes les plus importants d’extraction
d’information ; savoir appliquer les
algorithmes à des problèmes concrets.
Responsable : Fabian Suschanek, enseignant-
chercheur à Télécom ParisTech et auteur
principal de Yago, une des plus grandes bases
de connaissances publiques dans le monde
Introduction à R – 2 jours
Objectifs : présenter R et les tests
d’hypothèses pour étudier les séries
chronologiques ainsi que les concepts de
base du traitement de données.
Responsable : Jean-Marc Le Caillec,
enseignant-chercheur à Télécom Bretagne,
enseigne le traitement et la décision
statistique et Patrick Meyer, enseignant-
chercheur à Télécom Bretagne, enseigne la
recherche opérationnelle et l’algorithmique
Retrouvez toutes les dates de ces formations sur
www.telecom-evolution.fr/domaines/big-data
Ces formations sont réalisables en inter-entreprises
pour un besoin individuel ou en intra-entreprise
pour un besoin collectif dans le cadre d’un projet de
formation.
5
6. Responsables pédagogiques :
Florence D’Alché-Buc, enseignant-chercheur au département « Traitement du Signal et des Images » de
Télécom ParisTech. Ses recherches portent sur l’apprentissage statistique à partir de données structurées
et/ou temporelles, la modélisation de systèmes dynamiques et la prédiction de liens dans les réseaux.
Pierre Senellart, enseignant-chercheur au département « INFormatique et RESeaux » de Télécom
ParisTech, directeur de l’information du Journal of the ACM. Ses recherches portent sur les aspects
pratiques et théoriques de la gestion de données du Web, en particulier le crawl et l’archivage
du Web, l’extraction d’informations depuis le Web, la gestion de l’incertitude, la fouille du
Web et l’interrogation sous contraintes d’accès.
Démarche pédagogique
Une formation en forte adéquation avec les besoins des
entreprises, validée par un comité de veille et assurée
par des experts reconnus du domaine qui regroupe :
- Enseignements académiques
- Acquisition de savoir-faire au travers de retours
d’expérience, études de cas et mises en situation
professionnelle
- Travail en groupe sur des cas opérationnels
- Projet personnel d’application se concrétisant par la
rédaction et la soutenance d’un mémoire professionnel
La formation se déroule en 12 modules de 2 jours
sur une période de 10 mois et est organisée pour
permettre la poursuite d’une activité professionnelle.
Evaluation et certification :
- Contrôle des acquis et des savoir-faire à travers des travaux individuels et en groupe
- Des projets inter-sessions illustrent la théorie par des cas pratiques.
Le Certificat d’Etudes Spécialisées « Data Scientist » de Télécom ParisTech est délivré après une
évaluation d’un projet individuel et une soutenance devant jury.
Participants concernés et prérequis
Cette formation s’adresse à des ingénieurs,
techniciens, chefs de projet souhaitant développer
leurs compétences dans le domaine de la gestion et
l’analyse statistique des données massives.
De bonnes connaissances en mathématiques
(optimisation, probabilités/statistique, algèbre linéaire)
et une bonne expérience de la programmation sont
nécessaires pour suivre avec profit cette formation. Le
suivi du MOOC « Fondamentaux pour le Big Data »
(gratuit) est un prérequis au suivi du CES.
CES (Certificat d’études Spécialisées) data scientist
Une formation certifiante permettant la maîtrise des techniques de gestion et d’analyse des Big Data et des
principaux algorithmes de machine learning.
OBJECTIFS :
La grande complexité des données disponibles aujourd’hui et la nécessité d’automatiser le
traitement en vue de satisfaire aux contraintes du temps réel, ont conduit au développement du
machine learning, discipline à l’interface des mathématiques appliquées et de l’informatique, ce
qui a favorisé l’essor d’un nouveau métier : Data Scientist.
L’objectif du CES est de former à ce métier permettant d’articuler des compétences en mathématiques et en
informatique afin d’appréhender la chaîne de traitement des données dans sa globalité.
Le programme vise à :
- Maitriser les techniques récentes de gestion et d’analyse de grandes masses de données
- Connaitre les différents formats des données, modèles, méthodes d’extraction de descripteurs structurels et
sémantiques
- Manipuler les algorithmes de prédiction et les techniques d’analyse des données et d’apprentissage statistique
- Appréhender les techniques de passage à l’échelle.
6 Télécom Evolution - Big Data
7. Programme du CES Data Scientist
Introduction à l’apprentissage statistique
• Objectifs et enjeux de l’apprentissage statistique,
Nomenclature des problèmes
• Formalisme probabiliste
• Régression logistique - loi/vraisemblance
conditionnelle - Newton Raphson
• Le perceptron, Méthode des k- plus proches voisins
Introduction aux bases de données NoSQL
• Bases de Données distribuées (MapReduce, clé-
valeur, orientées colonne, orientées document,
orientées graphe)
• Flux de données
Données textuelles/web
• Extraction d’informations du web
• Reconnaissance d’entités nommées
• Fast extraction
• Web sémantique
Données multimédia
• Indexation des images
• Indexation des sons
Apprentissage supervisé
• Théorie de Vapnik-Chervonenkis
• Arbres de décision, Réseaux de neurones, SVM,
Boosting, Lasso
• Apprentissage par renforcement
Techniques avancées pour l’apprentissage
• Apprentissage en ligne
• Apprentissage statistique distribué
• Techniques d’échantillonnage
Apprentissage non supervisé
• Variables latentes
• Clustering
• Analyse des affinités
• Détection d’anomalies
HMM, modèles graphiques, réseaux bayésiens/
markoviens
• Chaines de Markov cachées
• Réseaux bayésiens
Visualisation des données massives
• Principes de base de la visualisation d’information
• Critique des techniques de visualisation appliquées à
une donnée particulière pour une tâche donnée
• Evaluation des systèmes de visualisation
• Conception de nouveaux outils de visualisation
Stockage distribué : SQL, NewSQL, NoSQL
• SGBD relationnels distribués classiques
• Systèmes de fichiers distribués HDFS/GFS
• Stockage à grande échelle, clés-valeurs (Dynamo), par
arbre distribué (BigTable, HBase)
• Systèmes NewSQL (Google Spanner, SGBD en
mémoire, MySQL Cluster)
Calcul distribué
• MapReduce avancé
• Spark, Stratosphere, MPI
• Calculs distribués sur des graphes : GraphLab, Pregel,
Giraph
Machine learning distribué
• Distribution d’algorithmes d’indexation,
d’apprentissage et de fouille
• Index inversé
• Factorisation de matrice
• Echantillonnage
• PageRank
7
Informations pratiques
CES data scientist
Procédure d’admission :
- Dossier de candidature et entretien
individuel pour valider le projet
professionnel
Organisation pédagogique :
Durée : 10 mois
Rythme : 25 jours (175 heures)
Lieu : Télécom ParisTech à Paris
Tarif : 10 600 € nets de taxes
Financement :
Eligible au titre :
- du Compte Personnel de Formation (CPF)
(en cours d’agrément)
- du plan de formation de l’entreprise
- du Congé Individuel de Formation (CIF)
Contact :
cesdatascientist@telecom-evolution.fr