La Verteego Data Suite, suite logicielle open source et gratuite pour les data scientists. Installable depuis le lien GitHub accessible depuis l'onglet Lab du site web Verteego.com
Verteego Data Suite : support du lancementJeremy Fain
Le mardi 7 mars 2017 au Palais des Congrès, Porte Maillot à Paris, Verteego lançait en Salle A, de 12h30 à 13h, la Verteego Data Suite. La Verteego Data Suite est une première mondiale : la suite open source et gratuite consacrée à la pratique de la Data Science par les data scientists. La Verteego Data Suite est installable gratuitement : retrouvez le lien vers GitHub depuis l'onglet Lab du site web Verteego.com.
20170316 Présentation Verteego Hacking Hôtel de Ville ParisJeremy Fain
Verteego présente comment l'intelligence artificielle peut permettre de prévoir précisément la nature de spectateurs et de téléspectateurs de grandes manifestations sportives mondiales, épreuve par épreuve, tour de sélection par tour de sélection, étape par étape,... pour le plus grand bonheur des organisateurs, des sponsors, et de la chaîne d'accueil. Cette présentation fut le support du pitch de Rupert Schiessl, cofondateur et DG de Verteego, au Hacking 2017 à l'Hôtel de Ville de Paris organisé par Paris&Co.
Ready Your Organization for Mobile BPM: BPM on the Go with IBM WorklightProlifics
Mobile BPM enables three key use cases: customer engagement, workforce empowerment, and ecosystem-driven processes. It provides benefits like greater accuracy, personalization, and cost savings. IBM offers various options for developing mobile smarter processes using IBM Business Process Manager and Worklight, including out-of-the-box, Worklight-based, and custom applications. New features in V8.5.5 include responsive coach design, lite coach views, and client-side human services. Industry accelerators provide best practices for mobile processes in specific industries.
The document provides information about data science and the role of a data scientist. It discusses that data scientist is considered the sexiest job of the 21st century with average salaries over $100,000 at major tech companies. A data scientist's responsibilities include getting data through scraping or collection, exploring and visualizing data, building machine learning models, and presenting insights. The skills required include proficiency in Python/R, SQL, linear algebra, statistics, and machine learning algorithms. It recommends taking online courses from Harvard, Coursera, Udacity and practicing on Kaggle competitions to become a data scientist.
Verteego Data Suite : support du lancementJeremy Fain
Le mardi 7 mars 2017 au Palais des Congrès, Porte Maillot à Paris, Verteego lançait en Salle A, de 12h30 à 13h, la Verteego Data Suite. La Verteego Data Suite est une première mondiale : la suite open source et gratuite consacrée à la pratique de la Data Science par les data scientists. La Verteego Data Suite est installable gratuitement : retrouvez le lien vers GitHub depuis l'onglet Lab du site web Verteego.com.
20170316 Présentation Verteego Hacking Hôtel de Ville ParisJeremy Fain
Verteego présente comment l'intelligence artificielle peut permettre de prévoir précisément la nature de spectateurs et de téléspectateurs de grandes manifestations sportives mondiales, épreuve par épreuve, tour de sélection par tour de sélection, étape par étape,... pour le plus grand bonheur des organisateurs, des sponsors, et de la chaîne d'accueil. Cette présentation fut le support du pitch de Rupert Schiessl, cofondateur et DG de Verteego, au Hacking 2017 à l'Hôtel de Ville de Paris organisé par Paris&Co.
Ready Your Organization for Mobile BPM: BPM on the Go with IBM WorklightProlifics
Mobile BPM enables three key use cases: customer engagement, workforce empowerment, and ecosystem-driven processes. It provides benefits like greater accuracy, personalization, and cost savings. IBM offers various options for developing mobile smarter processes using IBM Business Process Manager and Worklight, including out-of-the-box, Worklight-based, and custom applications. New features in V8.5.5 include responsive coach design, lite coach views, and client-side human services. Industry accelerators provide best practices for mobile processes in specific industries.
The document provides information about data science and the role of a data scientist. It discusses that data scientist is considered the sexiest job of the 21st century with average salaries over $100,000 at major tech companies. A data scientist's responsibilities include getting data through scraping or collection, exploring and visualizing data, building machine learning models, and presenting insights. The skills required include proficiency in Python/R, SQL, linear algebra, statistics, and machine learning algorithms. It recommends taking online courses from Harvard, Coursera, Udacity and practicing on Kaggle competitions to become a data scientist.
Blue DME - COVEA : projet XDStore sur l'accès aux données externes dans l'ass...Blue DME
Présentation réalisée par Blue DME et COVEA lors du salon Big Data Paris 2017, le 6 mars.
Retour d'expérience "Accélérer la connaissance des clients et des risques grâce à la donnée externe" dans l'assurance (données open data, données partenaires payantes, etc.).
Contexte, innovations d'usage et technologiques et retours d'expérience des data scientists, actuaires et experts data.
Innovation récompensée le 7 mars dans le même salon avec le trophée B2B remporté.
Technologies utilisées : hadoop spark, machine learning.
Apache NiFi is a dataflow system developed at NSA that was donated to the Apache Software Foundation in 2014. It provides real-time data routing, transformation, and system mediation capabilities with an intuitive visual interface. Key features include flow-based programming, provenance tracking, security controls, and clustering support. The system aims to automate dataflows from any source to systems that analyze or store the data.
MiNiFi is a recently started sub-project of Apache NiFi that is a complementary data collection approach which supplements the core tenets of NiFi in dataflow management, focusing on the collection of data at the source of its creation. Simply, MiNiFi agents take the guiding principles of NiFi and pushes them to the edge in a purpose built design and deploy manner. This talk will focus on MiNiFi's features, go over recent developments and prospective plans, and give a live demo of MiNiFi.
The config.yml is available here: https://gist.github.com/JPercivall/f337b8abdc9019cab5ff06cb7f6ff09a
Hadoop Interview Questions and Answers | Big Data Interview Questions | Hadoo...Edureka!
This Hadoop Tutorial on Hadoop Interview Questions and Answers ( Hadoop Interview Blog series: https://goo.gl/ndqlss ) will help you to prepare yourself for Big Data and Hadoop interviews. Learn about the most important Hadoop interview questions and answers and know what will set you apart in the interview process. Below are the topics covered in this Hadoop Interview Questions and Answers Tutorial:
Hadoop Interview Questions on:
1) Big Data & Hadoop
2) HDFS
3) MapReduce
4) Apache Hive
5) Apache Pig
6) Apache HBase and Sqoop
Check our complete Hadoop playlist here: https://goo.gl/4OyoTW
#HadoopInterviewQuestions #BigDataInterviewQuestions #HadoopInterview
What Is Data Science? Data Science Course - Data Science Tutorial For Beginne...Edureka!
This Edureka Data Science course slides will take you through the basics of Data Science - why Data Science, what is Data Science, use cases, BI vs Data Science, Data Science tools and Data Science lifecycle process. This is ideal for beginners to get started with learning data science.
You can read the blog here: https://goo.gl/OoDCxz
You can also take a complete structured training, check out the details here: https://goo.gl/AfxwBc
Impact 2013 2963 - IBM Business Process Manager Top PracticesBrian Petrini
This document provides an overview and best practices for modeling and implementing business processes using IBM Business Process Manager (BPM). It discusses practices such as keeping BPMN process models simple, using activities to represent significant business steps, leveraging ad-hoc and event-driven semantics, exposing only process-relevant data as process state, and dealing with large data objects. The document is intended to help users design effective process models and implementations.
This document outlines Scarborough Borough Council's plans to implement a Procure to Pay (P2P) process. Currently, only 25% of spending goes through purchase orders. The new P2P process will require all purchases to be made through purchase orders to improve budgetary control, compliance, and efficiency. It will be implemented in Technology One and rolled out between June and September 2012 through training workshops and guidance materials. The session will cover the new requisition, approval, receipt, and invoice processes.
This presentation describes the state of Accounts Payable and uncovers the paradigm shift underway. With greater integration with the procure-to-pay (P2P) process, expect a more connected, automated, and transparent operation. Find out how the Tradeshift platform is designed for the new world of P2P.
The relationship and communication between the CPO and CFO in any organization is critically important. In this 'must-see' presentation we review the activities of the Procure- to-Pay Process and the value that has been generated by ISS Group for the QAD community utilizing the ISSG iPurchase™ (PO Requisitions utilizing a highly Advanced Approval Workflow Engine), and iVoucher™ (AP Automation) Solutions that transform and digitize those activities, controlling Maverick spend, instilling Policies and Compliance and streamlining the entire AP department.
The document discusses adventure films and provides examples of different types of adventure films. It notes that adventure films often use exotic locations and action scenes to explore these locations in an energetic way. Some adventure films focus on the main protagonist undertaking risky actions or dangers that drive the storyline. However, each adventure film is unique depending on factors like the director and characters. The document also provides opinions on specific adventure films, noting dislikes of some due to finding them boring or cliche.
This document discusses different verb patterns in English including verb + to + infinitive, verb + object + infinitive, and verb + gerund (-ing). Some example verbs that follow each pattern are provided such as "have to do" and "ask someone to do." It also lists categories of verbs like verbs of emotion and provides the acronym FACESMCD to help remember verbs that can be followed by a gerund.
ORCID: ¿una solución definitiva para la identificación de autores?SocialBiblio
El documento habla sobre los problemas de identificación unívoca de autores y cómo ORCID puede proporcionar una solución. Explica brevemente qué es ORCID, su lanzamiento, datos sobre su adopción, estrategias de implantación, y los beneficios potenciales para autores, instituciones y una implantación a nivel nacional. También discute el papel de los repositorios institucionales en la implantación de ORCID.
Este documento habla sobre presentarse en el mercado y dar a conocer una marca de manera eficaz y notable, independientemente del medio, lugar o idioma utilizado. Proporciona una lista de eventos recientes realizados para diferentes clientes como Nokia Siemens Network, Abbott, Bridgestone, Samsung, El Economista, Bausch + Lomb, entre otros.
The procure to pay cycle involves requisitioning goods or services, requesting quotations from suppliers, issuing a purchase order, receiving the items or services, receiving and paying an invoice, transferring the transaction to the general ledger, importing any journals, and posting the transaction.
Airjet loom are machines used in Fashion Industry
Air-jet weaving is done on an air jet loom,
which propels yarn called “Weft" by using a
jet of air. Weft yarn fills in the lengthwise
pattern set down first by the “Warp" yarn.
Indexing thousands of writes per second with redispauldix
The document describes using Redis to index thousands of writes per second. Redis can be used to index financial bond data being written at rates of 3,000-5,000 writes per second. It provides examples of storing bond data in Redis hashes and indexing them using Redis sorted sets, lists, and sets to allow retrieving the data based on sorting, pagination, or time ranges. Maintaining the indexes requires periodically trimming old data to control memory usage.
Greenplum is the first open source Massively Parallel Processing (MPP) data warehouse, built with over two million lines of code. MPP allows a program to run across multiple processors that each use their own memory and operating system. Greenplum was released under Apache software and differs functionally and architecturally from other open source data systems through its use of MPP to execute complex SQL analytics over large datasets at high speeds. As an open source system, Greenplum assures customers that their software needs will be met long-term.
La plateforme logicielle BlueData EPIC™ simplifie, accélère et rend plus rentable le déploiement d’infrastructures et d’applications Big Data telles que Hadoop, Spark, Kafka, Cassandra, et plus, dans l’infrastructure locale ou dans le cloud public.
Blue DME - COVEA : projet XDStore sur l'accès aux données externes dans l'ass...Blue DME
Présentation réalisée par Blue DME et COVEA lors du salon Big Data Paris 2017, le 6 mars.
Retour d'expérience "Accélérer la connaissance des clients et des risques grâce à la donnée externe" dans l'assurance (données open data, données partenaires payantes, etc.).
Contexte, innovations d'usage et technologiques et retours d'expérience des data scientists, actuaires et experts data.
Innovation récompensée le 7 mars dans le même salon avec le trophée B2B remporté.
Technologies utilisées : hadoop spark, machine learning.
Apache NiFi is a dataflow system developed at NSA that was donated to the Apache Software Foundation in 2014. It provides real-time data routing, transformation, and system mediation capabilities with an intuitive visual interface. Key features include flow-based programming, provenance tracking, security controls, and clustering support. The system aims to automate dataflows from any source to systems that analyze or store the data.
MiNiFi is a recently started sub-project of Apache NiFi that is a complementary data collection approach which supplements the core tenets of NiFi in dataflow management, focusing on the collection of data at the source of its creation. Simply, MiNiFi agents take the guiding principles of NiFi and pushes them to the edge in a purpose built design and deploy manner. This talk will focus on MiNiFi's features, go over recent developments and prospective plans, and give a live demo of MiNiFi.
The config.yml is available here: https://gist.github.com/JPercivall/f337b8abdc9019cab5ff06cb7f6ff09a
Hadoop Interview Questions and Answers | Big Data Interview Questions | Hadoo...Edureka!
This Hadoop Tutorial on Hadoop Interview Questions and Answers ( Hadoop Interview Blog series: https://goo.gl/ndqlss ) will help you to prepare yourself for Big Data and Hadoop interviews. Learn about the most important Hadoop interview questions and answers and know what will set you apart in the interview process. Below are the topics covered in this Hadoop Interview Questions and Answers Tutorial:
Hadoop Interview Questions on:
1) Big Data & Hadoop
2) HDFS
3) MapReduce
4) Apache Hive
5) Apache Pig
6) Apache HBase and Sqoop
Check our complete Hadoop playlist here: https://goo.gl/4OyoTW
#HadoopInterviewQuestions #BigDataInterviewQuestions #HadoopInterview
What Is Data Science? Data Science Course - Data Science Tutorial For Beginne...Edureka!
This Edureka Data Science course slides will take you through the basics of Data Science - why Data Science, what is Data Science, use cases, BI vs Data Science, Data Science tools and Data Science lifecycle process. This is ideal for beginners to get started with learning data science.
You can read the blog here: https://goo.gl/OoDCxz
You can also take a complete structured training, check out the details here: https://goo.gl/AfxwBc
Impact 2013 2963 - IBM Business Process Manager Top PracticesBrian Petrini
This document provides an overview and best practices for modeling and implementing business processes using IBM Business Process Manager (BPM). It discusses practices such as keeping BPMN process models simple, using activities to represent significant business steps, leveraging ad-hoc and event-driven semantics, exposing only process-relevant data as process state, and dealing with large data objects. The document is intended to help users design effective process models and implementations.
This document outlines Scarborough Borough Council's plans to implement a Procure to Pay (P2P) process. Currently, only 25% of spending goes through purchase orders. The new P2P process will require all purchases to be made through purchase orders to improve budgetary control, compliance, and efficiency. It will be implemented in Technology One and rolled out between June and September 2012 through training workshops and guidance materials. The session will cover the new requisition, approval, receipt, and invoice processes.
This presentation describes the state of Accounts Payable and uncovers the paradigm shift underway. With greater integration with the procure-to-pay (P2P) process, expect a more connected, automated, and transparent operation. Find out how the Tradeshift platform is designed for the new world of P2P.
The relationship and communication between the CPO and CFO in any organization is critically important. In this 'must-see' presentation we review the activities of the Procure- to-Pay Process and the value that has been generated by ISS Group for the QAD community utilizing the ISSG iPurchase™ (PO Requisitions utilizing a highly Advanced Approval Workflow Engine), and iVoucher™ (AP Automation) Solutions that transform and digitize those activities, controlling Maverick spend, instilling Policies and Compliance and streamlining the entire AP department.
The document discusses adventure films and provides examples of different types of adventure films. It notes that adventure films often use exotic locations and action scenes to explore these locations in an energetic way. Some adventure films focus on the main protagonist undertaking risky actions or dangers that drive the storyline. However, each adventure film is unique depending on factors like the director and characters. The document also provides opinions on specific adventure films, noting dislikes of some due to finding them boring or cliche.
This document discusses different verb patterns in English including verb + to + infinitive, verb + object + infinitive, and verb + gerund (-ing). Some example verbs that follow each pattern are provided such as "have to do" and "ask someone to do." It also lists categories of verbs like verbs of emotion and provides the acronym FACESMCD to help remember verbs that can be followed by a gerund.
ORCID: ¿una solución definitiva para la identificación de autores?SocialBiblio
El documento habla sobre los problemas de identificación unívoca de autores y cómo ORCID puede proporcionar una solución. Explica brevemente qué es ORCID, su lanzamiento, datos sobre su adopción, estrategias de implantación, y los beneficios potenciales para autores, instituciones y una implantación a nivel nacional. También discute el papel de los repositorios institucionales en la implantación de ORCID.
Este documento habla sobre presentarse en el mercado y dar a conocer una marca de manera eficaz y notable, independientemente del medio, lugar o idioma utilizado. Proporciona una lista de eventos recientes realizados para diferentes clientes como Nokia Siemens Network, Abbott, Bridgestone, Samsung, El Economista, Bausch + Lomb, entre otros.
The procure to pay cycle involves requisitioning goods or services, requesting quotations from suppliers, issuing a purchase order, receiving the items or services, receiving and paying an invoice, transferring the transaction to the general ledger, importing any journals, and posting the transaction.
Airjet loom are machines used in Fashion Industry
Air-jet weaving is done on an air jet loom,
which propels yarn called “Weft" by using a
jet of air. Weft yarn fills in the lengthwise
pattern set down first by the “Warp" yarn.
Indexing thousands of writes per second with redispauldix
The document describes using Redis to index thousands of writes per second. Redis can be used to index financial bond data being written at rates of 3,000-5,000 writes per second. It provides examples of storing bond data in Redis hashes and indexing them using Redis sorted sets, lists, and sets to allow retrieving the data based on sorting, pagination, or time ranges. Maintaining the indexes requires periodically trimming old data to control memory usage.
Greenplum is the first open source Massively Parallel Processing (MPP) data warehouse, built with over two million lines of code. MPP allows a program to run across multiple processors that each use their own memory and operating system. Greenplum was released under Apache software and differs functionally and architecturally from other open source data systems through its use of MPP to execute complex SQL analytics over large datasets at high speeds. As an open source system, Greenplum assures customers that their software needs will be met long-term.
La plateforme logicielle BlueData EPIC™ simplifie, accélère et rend plus rentable le déploiement d’infrastructures et d’applications Big Data telles que Hadoop, Spark, Kafka, Cassandra, et plus, dans l’infrastructure locale ou dans le cloud public.
Lors du PaaS Tour de France, j'ai co-organisé et réalisé un talk sous forme de REX sur Hager
Vincent Thavonekham Regional Director
AZUG FR-MUG Lyon
VISEO
ExperienceNow - Découvrez comment Soitec modernise son IT et gagne en agilité...Devoteam
Jeudi 7 avril 2016, Devoteam et ServiceNow ont invité clients et prospects à assister au retour d’expérience de notre client Soitec à Lyon. Soitec, leader mondial des matériaux semi-conducteurs innovants, a mis en place avec Devoteam la solution ServiceNow pour la gestion de ses services IT, des demandes de voyages, des modifications du process de fabrication ainsi que le Facilities Management (services généraux).
Durant cette session très intéractive, Laurent Maumet (VP for Quality and Operations Support & Transformation) et Damien Andreani (Head of IT Department) de Soitec nous ont partagé leur cheminement depuis l’IT Service Management vers le PaaS (Platform as a Service).
Pour compléter ce retour d’expérience, Thomas de Lacharrière (Devoteam Management Consulting) est revenu sur l’accompagnement de Soitec par Devoteam puis a ouvert la discussion autour des nouveaux enjeux du PaaS et expliquer comment le “Digital Lab” de Devoteam peut aider à tirer la valeur de ces plateformes.
Cette matinée s’est terminée par une démonstration du portail de services ServiceNow par Sébastien Deniaux.
Converteo renouvelle son panorama sur les opportunités liées à une infrastructure Data-Lakes. Cette technologie a démontré ses capacités d’exploitation et de valorisation des datas des entreprises et, dans un contexte de mise en conformité RGPD, révèle encore plus son agilité.
Mieux comprendre le Data-Lake :
Littéralement traduit par lac de données, il s’agit d’un espace de stockage permettant le traitement d’informations de plusieurs sources et ce, de manière quasi illimitée et en un temps record.
Le Data-Lake est donc une réelle opportunité et doit être considéré en amont de toute démarche data-driven, que ce soit dans le domaine :
- Du marketing : pour alimenter des campagnes, choisir un lieu d’implantation d’un nouveau magasin ;
- De l’expérience client : pour personnaliser une offre, recommander les produits adéquats ;
- De la business Intelligence : pour créer une vision 360° de ses clients, piloter la pression publicitaire ;
- De la performance opérationnelle : pour réduire ses coûts informatiques, adapter ses ressources en fonction de l’activité.
Infrastructure flexible, elle permet donc un large champ d’analyse qualitative avec des données activables à tout moment en fonction des besoins business.
Editeurs de logiciels, innovez avec l'Intelligence ArtificielleGuillaume Renaud
Les opportunités de marché pour les éditeurs
La plateforme IA Microsoft
Retours d’experiences AB Tasty & Damdy
Comment capitaliser sur l’IA dans vos solutions
Session découverte de la Logical Data Fabric soutenue par la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3oGxZmz
Reconnu en tant que leader dans le Gartner® Magic Quadrant™ for Data Integration Tools ainsi que Customers’ Choice 3 années consécutives, Denodo Platform, soutenue par la Data Virtualization, permet une approche moderne de l'intégration, de la gestion et de la livraison des données, en offrant des fonctionnalités clés telles que la couche d'abstraction des données, les requêtes optimisées par l'IA pour les charges de travail analytiques complexes, le data catalog basé sur l'IA/ML, et la gestion de l'infrastructure cloud.
Découvrez lors de cette session d'1h30 en quoi la Logical Data Fabric et la Data Virtualization révolutionnent l'approche métier & IT dans l’accès, la livraison, la consommation, la gouvernance et la sécurisation de vos données, quel que soit l'âge de votre technologie, le format de la donnée ou son emplacement. Cette technologie mature comble le fossé entre l’IT et les utilisateurs métier, et permet des économies considérables en termes de coûts et de temps.
Introduction et présentation du projet OpenStack
DevOps, Agilité, Déploiement continu, Cloud privé, VM en self service : l'Open Source au cœur de la révolution IT
Démonstration d’OpenStack (déploiement automatisé d’architecture n-tiers avec Heat)
Retour d’expérience par Lionel Porcheron, Sierra Wireless.
Venez découvrir les nouveautés du service Office 365 : les évolutions des services Exchange, SharePoint, Lync et Office dans le Cloud. Pour tout savoir des fonctionnalités, nouveautés d'administration et la feuille de route du service. Office 365 ouvre de nouvelles possibilités d'usage et de déploiement de cette nouvelle version du service.
Visual Studio 2013 / SharePoint 2013 duo de choc de 2010 à 2013 en un clin d’œilMicrosoft Technet France
Démonstration de transformation de développements spécifiques de solutions prépackagées Upper-Link (provisionning automatique de sites, webpart multirequêtes sur des listes et bibliothèques sharepoint...) développées sous sharepoint 2010 vers le modèle App de 2013 avec une exploitation maximale des fonctionnalités offertes par l'environnement de développement de Visual Studio 2013. Session présentée par le partenaire : Upper-Link.
Speakers : Mehdi Hendli (Upper-link), Kaïs Majbri (Upper-link)
Similaire à Fiche Produit Verteego Data Suite, mars 2017 (20)
Visual Studio 2013 / SharePoint 2013 duo de choc de 2010 à 2013 en un clin d’œil
Fiche Produit Verteego Data Suite, mars 2017
1. Et si le meilleur logiciel de Data Science était gratuit ?
Verteego Data Suite est une composition des meilleures briques open source
du marché, de la capture de données à la librairie d’analyse prédictive
SERVICES
Externalisation :
nous réalisons les apps
prédictives dont rêvent
vos équipes
Hébergement : cloud
public, cloud privé,
cloud hybride ou bien
votre propre infra
Support : de 100€
(5 questions par email)
à 500€ mensuels
(questions illimitées)
par utilisateur
Onboarding : formation,
setup, configuration,
assistance
MODULES
Made in Verteego :
• Interface utilisateurs
unifiée
• Echanges de données
d’uncomposant à l’autre
en streaming
• Programme d’installation
simple, rapide et
personnalisable
Nettoyez vos
données avec
OpenRefine
Créez des notebooks
en Python ou en R pour
scripter rapidement
vos PoC d’intelligence
artificielle avec Jupyter
Connectez-vous
à vos données au
travers des workflows
automatisés avec
Apache NiFi
Créez des modèles
prédictifs sur vos
données avec H2O
Explorez, visualisez
et partagez vos
données avec Superset
2. DATA SUITE : QUESTIONS / RÉPONSES
Pourquoi la Verteego Data Suite ?
On voulait donner accès à nos clients, au travers d’une solution best-
of-breed, aux meilleures briques tout le long de la chaîne typique de
travail d’un data scientist : l’extraction des données, le nettoyage des
données, l’analyse et la visualisation, le scripting pour personnali-
ser des tâches, du dashboarding collaboratif, et enfin tout un volet
prédictif et machine learning.
A qui s’adresse la Verteego Data Suite ?
Aux data scientists de métier, aux statisticiens qui ont de bonnes
connaissances informatiques, et aux développeurs informatiques à
qui nous permettons de réaliser rapidement leurs premiers projets de
data science une fois la prise en main de la suite logicielle effective.
Etant donné que Verteego est éditeur de logiciels,
pourquoi avez-vous choisi de faire appel à des
composants open source plutôt que d’avoir réalisé
des développements propriétaires ?
Parce qu’aujourd’hui, le marché du Big Data bouge tellement vite
qu’entre le moment où l’on pense un produit et le moment où on
le met sur le marché dans le logiciel propriétaire, et à moins d’avoir
des moyens financiers gigantesques permettant d’imposer un produit
comme standard par le marketing, le risque est grand d’être obsolète.
Ainsi, en faisant pour nos clients la veille technologique et en choisissant
en continu les meilleures briques, selon nous, pour eux, nous leur
garantissons d’avoir entre les mains ce qui se fait de mieux.
Quelles sont les réalisations techniques des équipes
Produit de Verteego au sein de la Verteego Data Suite ?
Outre la veille technologique, Verteego réalise la colonne vertébrale
logicielle qui permet aux données de circuler en streaming d’un
module à l’autre, le design et la mise en oeuvre d’une interface utilisa-
teurs aussi unifiée et homogène que possible entre des composants
développés par des communautés différentes, la production de toute
la documentation et des programmes d’installation, ainsi que les
partenariats avec les fournisseurs de services cloud pour couvrir
l’ensemble de la chaîne de valeur - y compris les couches basses.
Quel est l’intérêt de se former à la Verteego Data Suite ?
En se formant à la Verteego Data Suite, nos utilisateurs se forment en
même temps à quelques uns des composants de Data Science du marché
parmi les plus populaires au sein de la communauté mondiale des
Data Scientists.
Qu’est-ce que la Data Suite n’est pas ?
La Verteego Data Suite n’est par exemple pas une distribution Hadoop.
La Verteego Data Suite vient en aval de messageries type Kafka ou des
systèmes de stockage des fichiers qui peuvent exister. La Verteego Data
Suite se greffe sur ce type de systèmes et ne les propose donc
pas à l’installation. Toutefois, la Verteego Data Suite intègre
évidemment une brique d’orchestration des flux de don-
nées, nommément Apache NiFi, conçue pour interconnec-
ter des applications et gérer des problématiques de data lakes,
c’est-à-dire pour agréger différents types de données et les re-
travailler de manière à les assembler à un ou plusieurs endroits
qui permettent ensuite de réaliser des analyses ou des prédictions.
Apache NiFi est le point d’entrée et la colonne vertébrale de la Verteego
Data Suite.
Peut-on utiliser R dans la Data Suite ?
Peut-on y scripter en Python ?
LaVerteegoDataSuiteintègredescapacitésàécriredesNotebooks,via
la brique Jupyter. On peut faire du R dans la Data Suite et appeler direc-
tementlesscriptsquiontétéfaitsdansR.LaDataSuitepermetdegérer
tout l’environnement dont a besoin R pour fonctionner. Un kernel pré-
installépourRpermetdefaireduscriptingR.Danslaversioninstallable
par défaut de la Data Suite, nous avons intégré R, Python 2, Python 3
et Bash. Il est possible d’y ajouter Scala ou tout autre langage.
La Verteego Data Suite est-elle adaptée aux
démarches de Proof-of-Concept (PoC) comme aux
projets à même d’être exploités à grande échelle ?
Absolument. La Verteego Data Suite est adaptée aux PoC car
vous pourrez lancer rapidement vos projets et lancer différentes
approches. Et vous n’aurez pas à changer de technologie pour les
déployer à grande échelle car les technologies embarquées dans la Data
Suite sont rompues aux environnements de production complexes.
Où puis-je installer et héberger
la Verteego Data Suite ?
Tout d’abord, la Verteego Data Suite
se présente sous la forme d’une machine image installable sur les
serveurs Verteego ou sur l’infrastructure de nos clients. Aujourd’hui
(mars 2017), l’installation est pré-packagée pour la Google Cloud
Platform ou alors pour vos propres serveurs UNIX. La Verteego Data
Suite est parfaitement installable sur tous types de cloud publics,
hybrides ou privés.
www.verteego.com
@verteego_FR hello@verteego.com
8, rue du faubourg poissonnière - 75010 Paris - France
www.linkedin.com/company/verteego
+33 1 47 70 08 90