Alphorm.com Formation Microsoft SQL Server 2016 Business Intelligence (SSIS)Alphorm
Formation complète ici:
http://www.alphorm.com/tutoriel/formation-en-ligne-microsoft-sql-server-2016-ssis-implementer-une-solution-etl
Afin d'améliorer les capacités de BI, les entreprises doivent gérer de façon sécurisée la migration des données à travers de nombreuses plateformes. Dans cette formation SSIS, vous obtiendrez les compétences pour automatiser les tâches de migration complexes et contrôler la réussite ou l'échec des processus de migration.
SQL Server Integration Services (SSIS) est un puissant outil ETL utilisé dans le cadre de projets d'intégration ou de BI. Grâce à cette formation SSIS pratique, vous apprendrez à implémenter une solution ETL évoluée avec SSIS 2016. Vous découvrirez le traitement et l'alimentation des données, la sécurisation et l'optimisation des flux.
Cette formation SSIS vous apprendra à concevoir et à déployer une solution de Business Intelligence avec SQL Server 2016. A l'issue de cette formation SSIS, vous aurez acquis les connaissances et compétences nécessaires pour mettre en œuvre les méthodes de base de l’ETL, implémenter un flux de contrôles et de données dans Intégration Services, déboguer et implémenter la gestion d'erreurs dans Intégration Services, gérer et sécuriser des packages …
Deep Dive Performance , le In-Memory dans SQL ServerMicrosoft
Durant cette session, nous verrons comment SQL Serveur implémente les solutions In-Memory OLTP (aka « Hekaton ») et In-Memory DWH (aka « ColumnStore »). Nous commencerons par revoir l’architecture interne de ces technologies, puis nous verrons comment elles fonctionnent et elles se mettent en œuvre et comment elles s’administrent. Cela nous donnera aussi l’occasion de revoir ensemble les bonnes pratiques de ces fonctionnalités afin d’en tirer les meilleurs performances !
Speakers : Aurélien Koppel (Microsoft), Frederic Pichaut (Microsoft)
MySQL est le SGBDR Open Source le plus populaire au monde. Sa cinquième version, sortie en octobre 2005, permet de mieux répondre aux problématiques d’entreprise. Au menu des nouveautés fonctionnelles : les vues, les procédures stockées, les déclencheurs, de nouveaux moteurs de stockage, la base de données INFORMATION_SCHEMA et diverses petites améliorations.
Avec toutes ces nouveautés la philosophie de MySQL reste la même : « simplicité et hautes performances ».
Converteo renouvelle son panorama sur les opportunités liées à une infrastructure Data-Lakes. Cette technologie a démontré ses capacités d’exploitation et de valorisation des datas des entreprises et, dans un contexte de mise en conformité RGPD, révèle encore plus son agilité.
Mieux comprendre le Data-Lake :
Littéralement traduit par lac de données, il s’agit d’un espace de stockage permettant le traitement d’informations de plusieurs sources et ce, de manière quasi illimitée et en un temps record.
Le Data-Lake est donc une réelle opportunité et doit être considéré en amont de toute démarche data-driven, que ce soit dans le domaine :
- Du marketing : pour alimenter des campagnes, choisir un lieu d’implantation d’un nouveau magasin ;
- De l’expérience client : pour personnaliser une offre, recommander les produits adéquats ;
- De la business Intelligence : pour créer une vision 360° de ses clients, piloter la pression publicitaire ;
- De la performance opérationnelle : pour réduire ses coûts informatiques, adapter ses ressources en fonction de l’activité.
Infrastructure flexible, elle permet donc un large champ d’analyse qualitative avec des données activables à tout moment en fonction des besoins business.
#ScalaBigDay
Jeudi 12 juin 2014
"Présentation autour de la BI, Power BI, SQL Server 2014 et témoignage client de Massa Pneu" (Salle 1, 11h15 - 12h00)
Speakers : Ilana Cohen, Sébastien Blanc et Cédric Massa
[JSS2015] Azure SQL Data Warehouse - Azure Data LakeGUSS
• Présentation du service MPP dans le Cloud SQL Data Warehouse : DWU, Polybase, ...
• Présentation des nouveaux services Big Data dans Azure : Data Lake Store, Data Lake Analytics Service (U-SQL)
• Plein de démos :-)"
Alphorm.com Formation Microsoft SQL Server 2016 Business Intelligence (SSIS)Alphorm
Formation complète ici:
http://www.alphorm.com/tutoriel/formation-en-ligne-microsoft-sql-server-2016-ssis-implementer-une-solution-etl
Afin d'améliorer les capacités de BI, les entreprises doivent gérer de façon sécurisée la migration des données à travers de nombreuses plateformes. Dans cette formation SSIS, vous obtiendrez les compétences pour automatiser les tâches de migration complexes et contrôler la réussite ou l'échec des processus de migration.
SQL Server Integration Services (SSIS) est un puissant outil ETL utilisé dans le cadre de projets d'intégration ou de BI. Grâce à cette formation SSIS pratique, vous apprendrez à implémenter une solution ETL évoluée avec SSIS 2016. Vous découvrirez le traitement et l'alimentation des données, la sécurisation et l'optimisation des flux.
Cette formation SSIS vous apprendra à concevoir et à déployer une solution de Business Intelligence avec SQL Server 2016. A l'issue de cette formation SSIS, vous aurez acquis les connaissances et compétences nécessaires pour mettre en œuvre les méthodes de base de l’ETL, implémenter un flux de contrôles et de données dans Intégration Services, déboguer et implémenter la gestion d'erreurs dans Intégration Services, gérer et sécuriser des packages …
Deep Dive Performance , le In-Memory dans SQL ServerMicrosoft
Durant cette session, nous verrons comment SQL Serveur implémente les solutions In-Memory OLTP (aka « Hekaton ») et In-Memory DWH (aka « ColumnStore »). Nous commencerons par revoir l’architecture interne de ces technologies, puis nous verrons comment elles fonctionnent et elles se mettent en œuvre et comment elles s’administrent. Cela nous donnera aussi l’occasion de revoir ensemble les bonnes pratiques de ces fonctionnalités afin d’en tirer les meilleurs performances !
Speakers : Aurélien Koppel (Microsoft), Frederic Pichaut (Microsoft)
MySQL est le SGBDR Open Source le plus populaire au monde. Sa cinquième version, sortie en octobre 2005, permet de mieux répondre aux problématiques d’entreprise. Au menu des nouveautés fonctionnelles : les vues, les procédures stockées, les déclencheurs, de nouveaux moteurs de stockage, la base de données INFORMATION_SCHEMA et diverses petites améliorations.
Avec toutes ces nouveautés la philosophie de MySQL reste la même : « simplicité et hautes performances ».
Converteo renouvelle son panorama sur les opportunités liées à une infrastructure Data-Lakes. Cette technologie a démontré ses capacités d’exploitation et de valorisation des datas des entreprises et, dans un contexte de mise en conformité RGPD, révèle encore plus son agilité.
Mieux comprendre le Data-Lake :
Littéralement traduit par lac de données, il s’agit d’un espace de stockage permettant le traitement d’informations de plusieurs sources et ce, de manière quasi illimitée et en un temps record.
Le Data-Lake est donc une réelle opportunité et doit être considéré en amont de toute démarche data-driven, que ce soit dans le domaine :
- Du marketing : pour alimenter des campagnes, choisir un lieu d’implantation d’un nouveau magasin ;
- De l’expérience client : pour personnaliser une offre, recommander les produits adéquats ;
- De la business Intelligence : pour créer une vision 360° de ses clients, piloter la pression publicitaire ;
- De la performance opérationnelle : pour réduire ses coûts informatiques, adapter ses ressources en fonction de l’activité.
Infrastructure flexible, elle permet donc un large champ d’analyse qualitative avec des données activables à tout moment en fonction des besoins business.
#ScalaBigDay
Jeudi 12 juin 2014
"Présentation autour de la BI, Power BI, SQL Server 2014 et témoignage client de Massa Pneu" (Salle 1, 11h15 - 12h00)
Speakers : Ilana Cohen, Sébastien Blanc et Cédric Massa
[JSS2015] Azure SQL Data Warehouse - Azure Data LakeGUSS
• Présentation du service MPP dans le Cloud SQL Data Warehouse : DWU, Polybase, ...
• Présentation des nouveaux services Big Data dans Azure : Data Lake Store, Data Lake Analytics Service (U-SQL)
• Plein de démos :-)"
Restitution des données environnement Microsoft & data visualization : panel ...Microsoft
Reporting, analyse ad-hoc, dashboarding, data crunching… : les besoins en termes de restitution des données sont nombreux, et les outils tout autant ! Vous découvrirez au cours de cette session les différentes solutions de l’offre BI Microsoft à disposition des différentes typologies d’utilisateurs, depuis Excel à SQL Server Reporting Services 2012 & PowerView. Nous vous présenterons également une solution tierce de l’écosystème partenaire Microsoft combinant au sein d’un même outil puissance d’analyse ad-hoc et reporting web : XLCubed.
Nous vous proposons pour ce 4ème épisode de notre série « Infrastructures BI @JSS », un focus sur les techniques de mise à l’échelle horizontale « Scale Out » des plateformes décisionnelles.
Les besoins toujours croissants des organisations (nombre d’utilisateur simultanés, fraicheur des données, extension des domaines fonctionnels…) nécessitent de concevoir des architectures en mesure de répondre à ces attentes, pour une montée en charge optimale.
La session traitera des différentes couches que nous retrouvons dans les architectures décisionnelles (datamarts, analyse, reporting…), sans oublier d’évoquer SQL Server 2016 qui apporte des nouveautés significatives en matière de Scale Out !
Le Big Data offre la capacité de traiter des volumes de données conséquents à l’aide d’architectures techniques nouvelles, comment les utilisateurs traditionnels (datamanager, datasteward, dataminers) accèderont et traiteront les données dans ces nouvelles architectures ?
[Café techno] Optimiser le coût de vos données avec DB2 distribuéGroupe D.FI
DB2 Advanced Entreprise Server Edition intègre nativement des fonctionnalités additionnelles pour optimiser le coût de vos données. Vous pourrez :
- Économiser des ressources grâce à la compression de données,
- Faciliter les tâches d'administration, de gestion de performance et de tuning,
- Bénéficier des dispositifs de haute disponibilité et de site de secours,
- Optimiser le développement avec les outils dédiés,
- et intégrer facilement des environnements hétérogènes DB2 et Oracle.
SQL Server Analysis Services dans sa version 2012 a introduit la notion de BI Semantic Model, BISM, qui se décline soit en modèle Multidimensionnel, soit en modèle Tabulaire. Les besoins adressés par ces deux modes sont pour une grande part communs, mais les prérequis nécessaires à leur implémentation diffèrent sur de nombreux points qu'il est important de connaître avant de se lancer dans un projet. Durant cette session nous comparerons ces deux modes sur de nombreux critères, qu'ils concernent les administrateurs (infrastructures à mettre en place, maintenabilité, sécurité), les architectes (modélisations relationnelles sous-jacentes et frontaux supportés), les développeurs (techniques d'implémentation, performance des requêtes) et les chefs de projet qu'ils soient techniques ou fonctionnels (cas métier adressés, facilité de mise en place).
Présentation effectuée à Open Source Expérience 2022 par Christophe Villeneuve et Sébastien de MariaDB sur "MariaDB : une base de données NewSQL".
Cette présentation a pour but de montrer que la base de données Mariadb propose des nouvelles fonctionnalités et avancés importantes pour devenir un coeur
Les nouveautés stockage dans Windows Server 2012 R2Microsoft
Les nouveautés des composants stockage dans l’édition Windows Server 2012 R2 ont pour objectif de rendre les déploiements encore plus évolutifs mais également de simplifier les déploiements d’Hyper-V et d’en améliorer les performances et la disponibilité. Microsoft renforce ainsi sa stratégie de Cloud OS visant à permettre aux entreprises de consommer les technologies serveurs dans une typologie de déploiement Cloud. Dans le cadre de cette session, la plupart de ces nombreuses améliorations ou nouveautés seront abordées et sera démontré comment la déduplication, Automated Storage Tiering, Storage Spaces, le nouveau format VHDX ou encore la cible iSCSI permettent de déployer de puissantes infrastructures. Certaines de ces composants introduits avec Windows Server 2012 ont été largement améliorés qui rendent ainsi les composants stockage de cette édition à un haut niveau de maturité et de fonctionnalités.
Speakers : Christophe Dubos (Microsoft), Cédric Georgeot (Sogeti), Pierre Chesné (Microsoft)
Les nouveautés des composants stockage dans l’édition Windows Server 2012 R2 ont pour objectif de rendre les déploiements encore plus évolutifs mais également de simplifier les déploiements d’Hyper-V et d’en améliorer les performances et la disponibilité. Microsoft renforce ainsi sa stratégie de Cloud OS visant à permettre aux entreprises de consommer les technologies serveurs dans une typologie de déploiement Cloud. Dans le cadre de cette session, la plupart de ces nombreuses améliorations ou nouveautés seront abordées et sera démontré comment la déduplication, Automated Storage Tiering, Storage Spaces, le nouveau format VHDX ou encore la cible iSCSI permettent de déployer de puissantes infrastructures. Certaines de ces composants introduits avec Windows Server 2012 ont été largement améliorés qui rendent ainsi les composants stockage de cette édition à un haut niveau de maturité et de fonctionnalités.
Speakers : Christophe Dubos (Microsoft), Cédric Georgeot (Sogeti), Pierre Chesné (Microsoft)
Session des Journées SQL Server 2014 - Stéphane Goudeau
---
Cette session permettra de découvrir l’ensemble des nouveautés du service Azure SQL Database : tiers Basic/Standard/premium, modèle de mesure des performances (Database Throughput Unit : DTU), mécanismes de backup-restore et de geo-replication.
Lors de cette session nous ferons un tour d’horizon des solutions NoSQL présentes dans Azure telles que DocumentDB, HBase, les Tables Azure, Datastax Enterprise / Cassandra, MongoDB et bien d’autres. Venez découvrir les solutions que propose Azure via des solutions natives ou via l’intégration de solutions open source ayant fait leurs preuves.
Lors de cette session nous ferons un tour d’horizon des solutions NoSQL présentes dans Azure telles que DocumentDB, HBase, les Tables Azure, Datastax Enterprise / Cassandra, MongoDB et bien d’autres. Venez découvrir les solutions que propose Azure via des solutions natives ou via l’intégration de solutions open source ayant fait leurs preuves.
Projet de Mémoire sur l'application de l'intelligence artificielle sur le cancer du sein chez la femme. Si vous êtes intéressé par les travaux du document merci de me contacter par mail aicha01galledou@gmail.com
Présentation du Projet sur l'application de l'intelligence artificielle sur le cancer du sein chez la femme. Si vous êtes intéressé par les travaux du document merci de me contacter par mail aicha01galledou@gmail.com
Restitution des données environnement Microsoft & data visualization : panel ...Microsoft
Reporting, analyse ad-hoc, dashboarding, data crunching… : les besoins en termes de restitution des données sont nombreux, et les outils tout autant ! Vous découvrirez au cours de cette session les différentes solutions de l’offre BI Microsoft à disposition des différentes typologies d’utilisateurs, depuis Excel à SQL Server Reporting Services 2012 & PowerView. Nous vous présenterons également une solution tierce de l’écosystème partenaire Microsoft combinant au sein d’un même outil puissance d’analyse ad-hoc et reporting web : XLCubed.
Nous vous proposons pour ce 4ème épisode de notre série « Infrastructures BI @JSS », un focus sur les techniques de mise à l’échelle horizontale « Scale Out » des plateformes décisionnelles.
Les besoins toujours croissants des organisations (nombre d’utilisateur simultanés, fraicheur des données, extension des domaines fonctionnels…) nécessitent de concevoir des architectures en mesure de répondre à ces attentes, pour une montée en charge optimale.
La session traitera des différentes couches que nous retrouvons dans les architectures décisionnelles (datamarts, analyse, reporting…), sans oublier d’évoquer SQL Server 2016 qui apporte des nouveautés significatives en matière de Scale Out !
Le Big Data offre la capacité de traiter des volumes de données conséquents à l’aide d’architectures techniques nouvelles, comment les utilisateurs traditionnels (datamanager, datasteward, dataminers) accèderont et traiteront les données dans ces nouvelles architectures ?
[Café techno] Optimiser le coût de vos données avec DB2 distribuéGroupe D.FI
DB2 Advanced Entreprise Server Edition intègre nativement des fonctionnalités additionnelles pour optimiser le coût de vos données. Vous pourrez :
- Économiser des ressources grâce à la compression de données,
- Faciliter les tâches d'administration, de gestion de performance et de tuning,
- Bénéficier des dispositifs de haute disponibilité et de site de secours,
- Optimiser le développement avec les outils dédiés,
- et intégrer facilement des environnements hétérogènes DB2 et Oracle.
SQL Server Analysis Services dans sa version 2012 a introduit la notion de BI Semantic Model, BISM, qui se décline soit en modèle Multidimensionnel, soit en modèle Tabulaire. Les besoins adressés par ces deux modes sont pour une grande part communs, mais les prérequis nécessaires à leur implémentation diffèrent sur de nombreux points qu'il est important de connaître avant de se lancer dans un projet. Durant cette session nous comparerons ces deux modes sur de nombreux critères, qu'ils concernent les administrateurs (infrastructures à mettre en place, maintenabilité, sécurité), les architectes (modélisations relationnelles sous-jacentes et frontaux supportés), les développeurs (techniques d'implémentation, performance des requêtes) et les chefs de projet qu'ils soient techniques ou fonctionnels (cas métier adressés, facilité de mise en place).
Présentation effectuée à Open Source Expérience 2022 par Christophe Villeneuve et Sébastien de MariaDB sur "MariaDB : une base de données NewSQL".
Cette présentation a pour but de montrer que la base de données Mariadb propose des nouvelles fonctionnalités et avancés importantes pour devenir un coeur
Les nouveautés stockage dans Windows Server 2012 R2Microsoft
Les nouveautés des composants stockage dans l’édition Windows Server 2012 R2 ont pour objectif de rendre les déploiements encore plus évolutifs mais également de simplifier les déploiements d’Hyper-V et d’en améliorer les performances et la disponibilité. Microsoft renforce ainsi sa stratégie de Cloud OS visant à permettre aux entreprises de consommer les technologies serveurs dans une typologie de déploiement Cloud. Dans le cadre de cette session, la plupart de ces nombreuses améliorations ou nouveautés seront abordées et sera démontré comment la déduplication, Automated Storage Tiering, Storage Spaces, le nouveau format VHDX ou encore la cible iSCSI permettent de déployer de puissantes infrastructures. Certaines de ces composants introduits avec Windows Server 2012 ont été largement améliorés qui rendent ainsi les composants stockage de cette édition à un haut niveau de maturité et de fonctionnalités.
Speakers : Christophe Dubos (Microsoft), Cédric Georgeot (Sogeti), Pierre Chesné (Microsoft)
Les nouveautés des composants stockage dans l’édition Windows Server 2012 R2 ont pour objectif de rendre les déploiements encore plus évolutifs mais également de simplifier les déploiements d’Hyper-V et d’en améliorer les performances et la disponibilité. Microsoft renforce ainsi sa stratégie de Cloud OS visant à permettre aux entreprises de consommer les technologies serveurs dans une typologie de déploiement Cloud. Dans le cadre de cette session, la plupart de ces nombreuses améliorations ou nouveautés seront abordées et sera démontré comment la déduplication, Automated Storage Tiering, Storage Spaces, le nouveau format VHDX ou encore la cible iSCSI permettent de déployer de puissantes infrastructures. Certaines de ces composants introduits avec Windows Server 2012 ont été largement améliorés qui rendent ainsi les composants stockage de cette édition à un haut niveau de maturité et de fonctionnalités.
Speakers : Christophe Dubos (Microsoft), Cédric Georgeot (Sogeti), Pierre Chesné (Microsoft)
Session des Journées SQL Server 2014 - Stéphane Goudeau
---
Cette session permettra de découvrir l’ensemble des nouveautés du service Azure SQL Database : tiers Basic/Standard/premium, modèle de mesure des performances (Database Throughput Unit : DTU), mécanismes de backup-restore et de geo-replication.
Lors de cette session nous ferons un tour d’horizon des solutions NoSQL présentes dans Azure telles que DocumentDB, HBase, les Tables Azure, Datastax Enterprise / Cassandra, MongoDB et bien d’autres. Venez découvrir les solutions que propose Azure via des solutions natives ou via l’intégration de solutions open source ayant fait leurs preuves.
Lors de cette session nous ferons un tour d’horizon des solutions NoSQL présentes dans Azure telles que DocumentDB, HBase, les Tables Azure, Datastax Enterprise / Cassandra, MongoDB et bien d’autres. Venez découvrir les solutions que propose Azure via des solutions natives ou via l’intégration de solutions open source ayant fait leurs preuves.
Projet de Mémoire sur l'application de l'intelligence artificielle sur le cancer du sein chez la femme. Si vous êtes intéressé par les travaux du document merci de me contacter par mail aicha01galledou@gmail.com
Présentation du Projet sur l'application de l'intelligence artificielle sur le cancer du sein chez la femme. Si vous êtes intéressé par les travaux du document merci de me contacter par mail aicha01galledou@gmail.com
Mise en place du système de gestion de Fichier PYDIO avec APACHE2. Si vous êtes intéressé par les travaux du document merci de me contacter par mail aicha01galledou@gmail.com
Proposition d'une politique de sécurité pour les systèmes de base de données ...Aichétou Djimé Gallédou
Il s'agit d'une proposition d'un ensemble de politique sécurité pouvant être mis en place dans un SBDR. Si vous êtes intéressé par les travaux du document merci de me contacter par mail aicha01galledou@gmail.com
Mise en place des outils de supervision zabbix et prtg. Si vous êtes intéressé par les travaux du document merci de me contacter par mail aicha01galledou@gmail.com
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
3. Introduction
Rendre l’analyse des données flexible, facile
agréable et en un temps raisonnable aux utilisateur est
l’objectif de tous SGBD.
Alors comment Sur SQL SERVER ceci est rendu
possible avec SSAS.
4. C’est quoi SSAS
SQL SERVER Analysis Services (SSAS) est une
plateforme de stockage et de restitution de données
faisant partie de la suite décisionnelle
de Microsoft BI.
Il est dédié principalement à la mise en place de
couches sémantiques appelées BISM <<Business
Intelligence Semantic Model>>
5. Concept de SSAS
Une couche BISM permet de simplier aux utilisateurs
l’accès aux données.
Il est sous deux formes:
Un cube OLAP (OnLine Analytical Processing)
géré par le moteur OLAP de SSAS
Un cube TABULAR gére par le moteur
xVelocity de SSAS
6. Les cubes OLAP
Ils sont caractérisés par:
Analyser des données déjà agrégées et stockées selon les
besoins de l’utilisateur;
Modéliser les données sous forme de dimensions et de mesures;
Capacité à manipuler de gros volumes de données agrégées en
croissant différentes dimensions;
Un cube OLAP utilise les fonctions classiques d’agrégation:
Min, Count, Sum mais peut être enrichi avec des calculs
spécifiques complexes;
7. Ils sont caractérisés par:
Analyse des données <<in-memory>> ce qui permet
d’assurer des temps de réponse très réduits;
Possibilité de ne pas charger les données en mémoires
et configurer le mode <<Direct Query>>;
Modéliser les données sous forme de <<tableaux >>
liés avec des relations.
Les cubes <<TABULAR>> peuvent être
enrichis avec des calculs spécifiques.
Les cubes TABULAR
8. Un moteur data mining
Data Mining <<Exploration de données>> est
également disponible, aidant dans le design, visuel et
créant des modèles d'exploration de données mettant
en place d’algorithmes.
Intégrant ainsi des fonctions d’analyse de:
– Séries chronologiques;
– Segmentation;
– Scoring..
9. Fonctionnalités principales de
SSAS
Création et gestion de couches
sémantiques(OLAP,..);
Création d’indicateurs de performances;
Création de calculs avancés(analyses temporelles,
analyses financières,..);
Création de hiérarchies dans les dimensions;
Gestion de rôles d’accès aux données;
Data Mining (exploration de données);
Restitution de données dans Excel.
OLAP Online Analytical Processing Permet aux utilisateurs d&apos;analyser des données multidimensionnelles (appelées faits) de manière interactive (par navigation ou interrogation) à partir d&apos;une perspective multiple (appelées dimensions)