Neo4j Stored Procedure Training Part 1Max De Marzi
This document provides instructions for creating and testing a stored procedure in Neo4j using Java and Maven. It discusses setting up a Maven project with the necessary dependencies, creating a stored procedure class with the @Procedure annotation, returning results with a custom Result class, and testing the procedure using the Neo4jRule to start an embedded Neo4j instance with the procedure deployed. The document contains code snippets and step-by-step explanations for setting up the project structure, procedure, and test.
Log Management
Log Monitoring
Log Analysis
Need for Log Analysis
Problem with Log Analysis
Some of Log Management Tool
What is ELK Stack
ELK Stack Working
Beats
Different Types of Server Logs
Example of Winlog beat, Packetbeat, Apache2 and Nginx Server log analysis
Mimikatz
Malicious File Detection using ELK
Practical Setup
Conclusion
The document discusses using Windows event logs to detect advanced attacks and malware. It provides the following key points:
1. Six main Windows event IDs (4688, 4624, 5140, 5156, 7045, 4663) can be monitored and alerted on to detect a variety of malware and hacker activity.
2. Real examples are shown of how logs caught commodity malware, PowerShell logging bypasses, and the multi-stage WinNTI attack in action.
3. Tips are provided on enabling command line logging, using lookup lists to reduce noise, and sample Splunk queries to analyze key events like new processes started and logon activity.
4. Attendees
What Is ELK Stack | ELK Tutorial For Beginners | Elasticsearch Kibana | ELK S...Edureka!
( ELK Stack Training - https://www.edureka.co/elk-stack-trai... )
This Edureka tutorial on What Is ELK Stack will help you in understanding the fundamentals of Elasticsearch, Logstash, and Kibana together and help you in building a strong foundation in ELK Stack. Below are the topics covered in this ELK tutorial for beginners:
1. Need for Log Analysis
2. Problems with Log Analysis
3. What is ELK Stack?
4. Features of ELK Stack
5. Companies Using ELK Stack
This document summarizes new features in Greenplum 6 including changes to querying, data types, storage, extensions, administration, backup/restore, security, and other areas. Some key changes are:
- Support for collations to specify sort order at the column level
- Enhanced recursive queries including support for cycles and path tracking
- Improved error handling for stored procedures
- Introduction of the JSONB data type for more efficient JSON storage and querying
- Support for replicated tables to replicate data across all segments
- New compression algorithms including Zstandard
- Enhancements to the CREATE TABLE statement including LIKE support to copy properties
In this presentation, we are going to discuss how elasticsearch handles the various operations like insert, update, delete. We would also cover what is an inverted index and how segment merging works.
The document provides an introduction to the ELK stack, which is a collection of three open source products: Elasticsearch, Logstash, and Kibana. It describes each component, including that Elasticsearch is a search and analytics engine, Logstash is used to collect, parse, and store logs, and Kibana is used to visualize data with charts and graphs. It also provides examples of how each component works together in processing and analyzing log data.
Neo4j Stored Procedure Training Part 1Max De Marzi
This document provides instructions for creating and testing a stored procedure in Neo4j using Java and Maven. It discusses setting up a Maven project with the necessary dependencies, creating a stored procedure class with the @Procedure annotation, returning results with a custom Result class, and testing the procedure using the Neo4jRule to start an embedded Neo4j instance with the procedure deployed. The document contains code snippets and step-by-step explanations for setting up the project structure, procedure, and test.
Log Management
Log Monitoring
Log Analysis
Need for Log Analysis
Problem with Log Analysis
Some of Log Management Tool
What is ELK Stack
ELK Stack Working
Beats
Different Types of Server Logs
Example of Winlog beat, Packetbeat, Apache2 and Nginx Server log analysis
Mimikatz
Malicious File Detection using ELK
Practical Setup
Conclusion
The document discusses using Windows event logs to detect advanced attacks and malware. It provides the following key points:
1. Six main Windows event IDs (4688, 4624, 5140, 5156, 7045, 4663) can be monitored and alerted on to detect a variety of malware and hacker activity.
2. Real examples are shown of how logs caught commodity malware, PowerShell logging bypasses, and the multi-stage WinNTI attack in action.
3. Tips are provided on enabling command line logging, using lookup lists to reduce noise, and sample Splunk queries to analyze key events like new processes started and logon activity.
4. Attendees
What Is ELK Stack | ELK Tutorial For Beginners | Elasticsearch Kibana | ELK S...Edureka!
( ELK Stack Training - https://www.edureka.co/elk-stack-trai... )
This Edureka tutorial on What Is ELK Stack will help you in understanding the fundamentals of Elasticsearch, Logstash, and Kibana together and help you in building a strong foundation in ELK Stack. Below are the topics covered in this ELK tutorial for beginners:
1. Need for Log Analysis
2. Problems with Log Analysis
3. What is ELK Stack?
4. Features of ELK Stack
5. Companies Using ELK Stack
This document summarizes new features in Greenplum 6 including changes to querying, data types, storage, extensions, administration, backup/restore, security, and other areas. Some key changes are:
- Support for collations to specify sort order at the column level
- Enhanced recursive queries including support for cycles and path tracking
- Improved error handling for stored procedures
- Introduction of the JSONB data type for more efficient JSON storage and querying
- Support for replicated tables to replicate data across all segments
- New compression algorithms including Zstandard
- Enhancements to the CREATE TABLE statement including LIKE support to copy properties
In this presentation, we are going to discuss how elasticsearch handles the various operations like insert, update, delete. We would also cover what is an inverted index and how segment merging works.
The document provides an introduction to the ELK stack, which is a collection of three open source products: Elasticsearch, Logstash, and Kibana. It describes each component, including that Elasticsearch is a search and analytics engine, Logstash is used to collect, parse, and store logs, and Kibana is used to visualize data with charts and graphs. It also provides examples of how each component works together in processing and analyzing log data.
Data Warehouse on Kubernetes: lessons from Clickhouse OperatorAltinity Ltd
1) Kubernetes operators can simplify deploying data warehouses like ClickHouse from a single specification and provide portability, fast deployment, and flexible resource management.
2) While the Kubernetes operator model reduces overhead, ensuring data safety remains a challenge as data warehouses are complex and losing data is problematic.
3) Future work includes developing data warehouses as a service on Kubernetes with multi-tenancy, high availability, security, and optimized resource utilization, as well as enhancing ClickHouse to better match Kubernetes' cloud-native execution model.
This document discusses logging best practices and compares different .NET logging frameworks like log4net, NLog, and Serilog. It recommends using Serilog for its simpler API and support for structured logging. Structured logging stores log data in JSON format for easier parsing and querying. Seq is introduced as a log management platform that supports structured logs and has tools for filtering, analyzing, and alerting on logs. The document demonstrates logging an object to Seq using Serilog's structured logging features.
The document introduces the ELK stack, which consists of Elasticsearch, Logstash, Kibana, and Beats. Beats ship log and operational data to Elasticsearch. Logstash ingests, transforms, and sends data to Elasticsearch. Elasticsearch stores and indexes the data. Kibana allows users to visualize and interact with data stored in Elasticsearch. The document provides descriptions of each component and their roles. It also includes configuration examples and demonstrates how to access Elasticsearch via REST.
- Odoo 13 includes the biggest ORM refactoring since OpenERP 8, focusing on performance improvements by optimizing the in-memory cache, reducing SQL queries, and delaying computations.
- Key changes include a single unified cache, preferring in-memory updates over SQL, optimizing dependency trees, and avoiding unnecessary format conversions to reduce overhead.
- Onchange methods are being deprecated in favor of computed fields, which provide a cleaner separation of business logic and interface concerns. Computed fields work both in Python and JavaScript and have well-defined dependencies.
Centralized log-management-with-elastic-stackRich Lee
Centralized log management is implemented using the Elastic Stack including Filebeat, Logstash, Elasticsearch, and Kibana. Filebeat ships logs to Logstash which transforms and indexes the data into Elasticsearch. Logs can then be queried and visualized in Kibana. For large volumes of logs, Kafka may be used as a buffer between the shipper and indexer. Backups are performed using Elasticsearch snapshots to a shared file system or cloud storage. Logs are indexed into time-based indices and a cron job deletes old indices to control storage usage.
A follow on to the Encyclopedia Of Windows Privilege Escalation published by InsomniaSec at Ruxcon 2011, this talk is aimed at detailing not just escalation from user to admin and admin to system, but persistence and forced authentication as well as a few other treats.
Elasticsearch Tutorial | Getting Started with Elasticsearch | ELK Stack Train...Edureka!
( ELK Stack Training - https://www.edureka.co/elk-stack-trai... )
This Edureka Elasticsearch Tutorial will help you in understanding the fundamentals of Elasticsearch along with its practical usage and help you in building a strong foundation in ELK Stack. This video helps you to learn following topics:
1. What Is Elasticsearch?
2. Why Elasticsearch?
3. Elasticsearch Advantages
4. Elasticsearch Installation
5. API Conventions
6. Elasticsearch Query DSL
7. Mapping
8. Analysis
9 Modules
Logging with Elasticsearch, Logstash & KibanaAmazee Labs
This document discusses logging with the ELK stack (Elasticsearch, Logstash, Kibana). It provides an overview of each component, how they work together, and demos their use. Elasticsearch is for search and indexing, Logstash centralizes and parses logs, and Kibana provides visualization. Tools like Curator help manage time-series data in Elasticsearch. The speaker demonstrates collecting syslog data with Logstash and viewing it in Kibana. The ELK stack provides centralized logging and makes queries like "check errors from yesterday between times" much easier.
MindMap - Forensics Windows Registry Cheat SheetJuan F. Padilla
This document summarizes information about the Windows Registry including its structure, tools used to access it, locations of hive files, and types of evidence that can be extracted including search history, recent documents, dialog boxes used, commands executed, and software/OS versions. It explains registry hives like HKEY_LOCAL_MACHINE, keys with MRU lists that track recently used items, and how timestamps and MRU lists can help determine the order and time of user activity on a system.
This document discusses how to implement an Active Session History feature in PostgreSQL similar to what is available in Oracle. It describes how the default PostgreSQL monitoring views only show current activity and lack historical blocking diagnostics. The document then explains how to write a PostgreSQL extension to sample the pg_stat_activity view periodically and store the results, similar to the pgsentinel extension. The pgsentinel extension is discussed in detail, including how it uses background workers and hooks to collect activity samples. Finally, potential future enhancements are mentioned like integrating with pg_stat_statements.
Les intents sous Android
I. Types de transmission d'Intent
II. Structure d'un Intent
IV. Intent Filter
V. Les différents types d'Intents
VI. Transfert de données entre activités
VII. Exercice : Utilisation des Intent de passer d'une activité à l'autre envoyer des données via putExtra
MySQL Server Backup, Restoration, And Disaster Recovery Planning PresentationColin Charles
This document discusses MySQL server backup, restoration, and disaster recovery planning. It covers when backups are needed, what to back up, best practices for performing backups, storage locations, and backup tools and methods. Key points include backing up databases, logs, and configurations regularly using tools like mysqldump, the binary log, and file copying with FLUSH TABLES WITH READ LOCK. Restoring requires both backups and binary logs to recover to a point-in-time.
This document provides an overview of software security best practices and common vulnerabilities for Odoo code. It discusses the top 10 risks including injection, broken authentication, sensitive data exposure, XML external entities, broken access control, security misconfiguration, cross-site scripting, insecure deserialization, vulnerable components, and insufficient logging. For each risk, it provides examples of vulnerable code and recommendations for more secure implementations. It emphasizes that the Odoo framework includes mechanisms to prevent many mistakes but knowledge and mindset are also key. The document concludes with recommendations for code reviews to check access control, permissions, templates, evaluations, injections, and cross-site scripting prevention.
This document discusses the ELK stack, which consists of Elasticsearch, Logstash, and Kibana. It provides an overview of each component, including that Elasticsearch is a search and analytics engine, Logstash is a data collection engine, and Kibana is a data visualization platform. The document then discusses setting up an ELK stack to index and visualize application logs.
What I learnt: Elastic search & Kibana : introduction, installtion & configur...Rahul K Chauhan
This document provides an overview of the ELK stack components Elasticsearch, Logstash, and Kibana. It describes what each component is used for at a high level: Elasticsearch is a search and analytics engine, Logstash is used for data collection and normalization, and Kibana is a data visualization platform. It also provides basic instructions for installing and running Elasticsearch and Kibana.
The document discusses various methods for profiling and optimizing Odoo and PostgreSQL performance, including:
- Using built-in and third-party profilers like snakeviz to identify slow Python methods in Odoo.
- Configuring PostgreSQL logging and using tools like pgbadger to analyze logs and find slow SQL queries.
- Optimizing SQL queries by adding indexes, removing functions from indexes, and using EXPLAIN ANALYZE to understand query plans.
- Using SQL constraints instead of Python constraints for performance, but being aware they are harder to update frequently.
Data Warehouse on Kubernetes: lessons from Clickhouse OperatorAltinity Ltd
1) Kubernetes operators can simplify deploying data warehouses like ClickHouse from a single specification and provide portability, fast deployment, and flexible resource management.
2) While the Kubernetes operator model reduces overhead, ensuring data safety remains a challenge as data warehouses are complex and losing data is problematic.
3) Future work includes developing data warehouses as a service on Kubernetes with multi-tenancy, high availability, security, and optimized resource utilization, as well as enhancing ClickHouse to better match Kubernetes' cloud-native execution model.
This document discusses logging best practices and compares different .NET logging frameworks like log4net, NLog, and Serilog. It recommends using Serilog for its simpler API and support for structured logging. Structured logging stores log data in JSON format for easier parsing and querying. Seq is introduced as a log management platform that supports structured logs and has tools for filtering, analyzing, and alerting on logs. The document demonstrates logging an object to Seq using Serilog's structured logging features.
The document introduces the ELK stack, which consists of Elasticsearch, Logstash, Kibana, and Beats. Beats ship log and operational data to Elasticsearch. Logstash ingests, transforms, and sends data to Elasticsearch. Elasticsearch stores and indexes the data. Kibana allows users to visualize and interact with data stored in Elasticsearch. The document provides descriptions of each component and their roles. It also includes configuration examples and demonstrates how to access Elasticsearch via REST.
- Odoo 13 includes the biggest ORM refactoring since OpenERP 8, focusing on performance improvements by optimizing the in-memory cache, reducing SQL queries, and delaying computations.
- Key changes include a single unified cache, preferring in-memory updates over SQL, optimizing dependency trees, and avoiding unnecessary format conversions to reduce overhead.
- Onchange methods are being deprecated in favor of computed fields, which provide a cleaner separation of business logic and interface concerns. Computed fields work both in Python and JavaScript and have well-defined dependencies.
Centralized log-management-with-elastic-stackRich Lee
Centralized log management is implemented using the Elastic Stack including Filebeat, Logstash, Elasticsearch, and Kibana. Filebeat ships logs to Logstash which transforms and indexes the data into Elasticsearch. Logs can then be queried and visualized in Kibana. For large volumes of logs, Kafka may be used as a buffer between the shipper and indexer. Backups are performed using Elasticsearch snapshots to a shared file system or cloud storage. Logs are indexed into time-based indices and a cron job deletes old indices to control storage usage.
A follow on to the Encyclopedia Of Windows Privilege Escalation published by InsomniaSec at Ruxcon 2011, this talk is aimed at detailing not just escalation from user to admin and admin to system, but persistence and forced authentication as well as a few other treats.
Elasticsearch Tutorial | Getting Started with Elasticsearch | ELK Stack Train...Edureka!
( ELK Stack Training - https://www.edureka.co/elk-stack-trai... )
This Edureka Elasticsearch Tutorial will help you in understanding the fundamentals of Elasticsearch along with its practical usage and help you in building a strong foundation in ELK Stack. This video helps you to learn following topics:
1. What Is Elasticsearch?
2. Why Elasticsearch?
3. Elasticsearch Advantages
4. Elasticsearch Installation
5. API Conventions
6. Elasticsearch Query DSL
7. Mapping
8. Analysis
9 Modules
Logging with Elasticsearch, Logstash & KibanaAmazee Labs
This document discusses logging with the ELK stack (Elasticsearch, Logstash, Kibana). It provides an overview of each component, how they work together, and demos their use. Elasticsearch is for search and indexing, Logstash centralizes and parses logs, and Kibana provides visualization. Tools like Curator help manage time-series data in Elasticsearch. The speaker demonstrates collecting syslog data with Logstash and viewing it in Kibana. The ELK stack provides centralized logging and makes queries like "check errors from yesterday between times" much easier.
MindMap - Forensics Windows Registry Cheat SheetJuan F. Padilla
This document summarizes information about the Windows Registry including its structure, tools used to access it, locations of hive files, and types of evidence that can be extracted including search history, recent documents, dialog boxes used, commands executed, and software/OS versions. It explains registry hives like HKEY_LOCAL_MACHINE, keys with MRU lists that track recently used items, and how timestamps and MRU lists can help determine the order and time of user activity on a system.
This document discusses how to implement an Active Session History feature in PostgreSQL similar to what is available in Oracle. It describes how the default PostgreSQL monitoring views only show current activity and lack historical blocking diagnostics. The document then explains how to write a PostgreSQL extension to sample the pg_stat_activity view periodically and store the results, similar to the pgsentinel extension. The pgsentinel extension is discussed in detail, including how it uses background workers and hooks to collect activity samples. Finally, potential future enhancements are mentioned like integrating with pg_stat_statements.
Les intents sous Android
I. Types de transmission d'Intent
II. Structure d'un Intent
IV. Intent Filter
V. Les différents types d'Intents
VI. Transfert de données entre activités
VII. Exercice : Utilisation des Intent de passer d'une activité à l'autre envoyer des données via putExtra
MySQL Server Backup, Restoration, And Disaster Recovery Planning PresentationColin Charles
This document discusses MySQL server backup, restoration, and disaster recovery planning. It covers when backups are needed, what to back up, best practices for performing backups, storage locations, and backup tools and methods. Key points include backing up databases, logs, and configurations regularly using tools like mysqldump, the binary log, and file copying with FLUSH TABLES WITH READ LOCK. Restoring requires both backups and binary logs to recover to a point-in-time.
This document provides an overview of software security best practices and common vulnerabilities for Odoo code. It discusses the top 10 risks including injection, broken authentication, sensitive data exposure, XML external entities, broken access control, security misconfiguration, cross-site scripting, insecure deserialization, vulnerable components, and insufficient logging. For each risk, it provides examples of vulnerable code and recommendations for more secure implementations. It emphasizes that the Odoo framework includes mechanisms to prevent many mistakes but knowledge and mindset are also key. The document concludes with recommendations for code reviews to check access control, permissions, templates, evaluations, injections, and cross-site scripting prevention.
This document discusses the ELK stack, which consists of Elasticsearch, Logstash, and Kibana. It provides an overview of each component, including that Elasticsearch is a search and analytics engine, Logstash is a data collection engine, and Kibana is a data visualization platform. The document then discusses setting up an ELK stack to index and visualize application logs.
What I learnt: Elastic search & Kibana : introduction, installtion & configur...Rahul K Chauhan
This document provides an overview of the ELK stack components Elasticsearch, Logstash, and Kibana. It describes what each component is used for at a high level: Elasticsearch is a search and analytics engine, Logstash is used for data collection and normalization, and Kibana is a data visualization platform. It also provides basic instructions for installing and running Elasticsearch and Kibana.
The document discusses various methods for profiling and optimizing Odoo and PostgreSQL performance, including:
- Using built-in and third-party profilers like snakeviz to identify slow Python methods in Odoo.
- Configuring PostgreSQL logging and using tools like pgbadger to analyze logs and find slow SQL queries.
- Optimizing SQL queries by adding indexes, removing functions from indexes, and using EXPLAIN ANALYZE to understand query plans.
- Using SQL constraints instead of Python constraints for performance, but being aware they are harder to update frequently.
Alphorm.com Formation Splunk : Maitriser les fondamentauxAlphorm
Splunk fait partie des solutions les plus prisés dans le monde de l’analyse de logs. Cette dernière permet de faire parler ses logs et d’en faire sortir des informations décisionnelles quel que soit le domaine d’application.
Mais concrètement c’est quoi des logs ?
Les logs représentent simplement un horodatage et une donnée d’état, entre autre des traces et chacun va pour interpréter ces derniers comme le souhaite selon son expérience, ses compétences et son angle d’analyse.
Il faut savoir que c’est extrêmement difficile d’arriver de manière native à voir l’image en grand, quel que soit le domaine : cybersécurité, troublshooting, Business Intelligence …
Splunk est une solution multi usage pour l'analyse de logs appliqué à la business intelligence, supervision, cybersécurité (proactif)
La nécessité d'une prise de décision intelligente est l'une des exigences les plus importantes pour l'analyse des journaux. C'est pourquoi Splunk est la solution parfaite pour votre entreprise. Avec ce logiciel, vous pourrez analyser vos logs, les comprendre et prendre des décisions en fonction de leurs données.
Cette formation présente deux options
• Option 1 : Vous pouvez effectuer le lab sur votre machine locale via les machines virtuelles transmises par le formateur
• Option 2 : Vous pouvez accéder à notre pour avoir accès à un lab prêt à l’emplois dans le cloud depuis votre navigateur ou via le protocole RDP pour effectuer les manipulations de cette formation mais aussi avoir un accès à des exercices plus poussés afin de vous entrainer et perfectionner vos compétences sur Splunk.
Pour plus d’informations vous pouvez visiter : https://splunk.alphorm.com
Vous êtes étudiant en dernière année d'étude, orienté(e) Informatique ou Finance ? NeoXam Tunisia vous accorde l'opportunité d'effectuer votre stage de Projet de Fin d'Etudes au sein de ses équipes.
Ci dessous le détail des offres !
Le présent document décrit les différentes étapes d’installation et de configuration des différents outils utilisés notamment Eclipse, est suit l’organisation suivante :
• 1ere partie :
Dans cette première partie vous trouverez les différentes étapes d’installation – à suivre - des différents outils nécessaires au bon fonctionnement d’Openbravo.
• 2eme partie :
Dans cette deuxième partie vous trouverez la configuration détaillée de l’IDE Eclipse pour assurer une bonne intégration du code.
Présentation effectuée au Meetup 24 Programmez (5 Avril 2022) par Christophe Villeneuve sur "Infrastructure as code Drupal".
Cette présentation aborde les rappels de l'IaC (infrastructure as code), comment l'utilisé avec le CMS Drupal et déployé automatiquement le contenu et les évolutions dans l'IaC.
OCTO TALKS : 4 Tech Trends du Software Engineering.pdfOCTO Technology
En cette année 2024 qui s’annonce sous le signe de la complexité, avec :
- L’explosion de la Gen AI
-Un contexte socio-économique sous tensions
- De forts enjeux sur le Sustainable et la régulation IT
- Une archipélisation des lieux de travail post-Covid
Découvrez les Tech trends incontournables pour délivrer vos produits stratégiques.
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...OCTO Technology
par Claude Camus (Coach agile d'organisation @OCTO Technology) et Gilles Masy (Organizational Coach @OCTO Technology)
Les équipes infrastructure, sécurité, production, ou cloud, doivent consacrer du temps à la modernisation de leurs outils (automatisation, cloud, etc) et de leurs pratiques (DevOps, SRE, etc). Dans le même temps, elles doivent répondre à une avalanche croissante de demandes, tout en maintenant un niveau de qualité de service optimal.
Habitué des environnements développeurs, les transformations agiles négligent les particularités des équipes OPS. Lors de ce comptoir, nous vous partagerons notre proposition de valeur de l'agilité@OPS, qui embarquera vos équipes OPS en Classe Business (Agility), et leur fera dire : "nous ne reviendrons pas en arrière".
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
5. 5
Introduction
Centralisation des logs
La centralisation des logs est une solution qui consiste à
rassembler tous les logs d’un groupe de machines sur la même
plateforme. Toutes les informations des logs deviennent ainsi
accessibles via une interface unique, simple d’accès et
d’exploitation
6. 6
Introduction
Centralisation des logs
La centralisation des logs est un processus continu qui se décompose
en plusieurs étapes :
o La génération des logs : vous choisissez les logs à produire selon les objectifs
et besoins du projet.
o La collecte : les logs sont ensuite envoyés vers une plateforme commune.
o Le filtrage : vous analysez et filtrez les différentes metrics et variables
pour répondre aux besoins spécifiques du monitoring.
o La présentation des données : cette étape permet de créer des Dashboard
personnalisés regroupant les données synthétisées, pour permettre de lire
et comprendre les données des logs.
7. 7
Introduction
Comparison des outils des logs
installation Très simple
d’installation : creation
d’un compte et
récupération du fichier
d’installation sur le site
officiel de Splunk.
L’installation est plus
complexe que Splunk
mais reste relativement
simple grâce à la
documentation en ligne.
Installation similaire à ELK
configuration Configuration simple qui
se fait depuis l’interface
Web (configuration de
port d’écoute, ajout de
données…)
Configuration plus
complexe car il faut
configurer Logstash (il
faut donc maîtriser un
minimum de langages
de script)
Configuration simple et
similaire à Splunk car ellese
fait là aussi depuis l’interface
web.
Recherche
Simple pour une
utilisation basique. Il
suffit de taper le mot
clérecherché pour qu’il
s’affiche en
surbrillance.
Simple également pour
une basique utilisation.
Similaire à Splunk
Utilisation basique
simple, similaire à Splunk
et ELK
8. 8
Introduction
Comparison des outils des logs
Tableau de bord
(Dashboard
Dashboard non interactif.
Barre de recherche et
temps non disponible par
défaut. Il faut configurer
les dashboards pour les
rendre compatibles avec
les visualisations
Dashboard interactif
par défaut. Barre de
recherche et barre de
temps toujours
disponibles.
Dashboard facile à créer
et à modifier mais ces
deux aspects ne sont pas
interactifs et la barre de
recherche / temps n’est
pas disponible ; Point
faible de Graylog.
alertes Nécessite la version «
Splunk Enterprise ».
Nécessite le « X-Pack » et
donc la souscription à un
abonnement.
Alertes disponibles
gratuitement. Point fort de
Graylog.
Identification
et gestion des
utilisateurs
Nécessite la version «
Splunk Enterprise » pour
créer des utilisateurs et
gérer leurs droits.
Gestion des utilisateurs
disponible gratuitement.
Nécessite « X-Pack » pour
bénéficier de la fonction
d’identification et la
gestion des utilisateurs
9. 9
Graylog
Introduction
C’est une plate-forme de gestion log open source. Il permet de
collecter, d'indexer et d'analyser les logs dans un emplacement
centralisé. Tous les messages sont stockés dans une base de
données MongoDB. Le serveur Graylog a été écrit en Java et accepte
les logs des systèmes via UDP ou TCP.
10. 10
Graylog
Introduction
Graylog a quatre composants principaux:
1.Graylog Server: reçoit et traite les messages et communique avec tous les
autres composants
2.Elasticsearch: gére l'indexation et la recherche de données.
1.MongoDB: stocke les métadonnées et ne subit pas beaucoup de charge.
2.Interface Web: l'interface utilisateur.
12. 12
Installation
Graylog peut être installé de différentes manières:
o Paquets de système d'exploitation
o Installation d'Ubuntu
o Installation de Debian
o Installation de CentOS
o Installation SLES
o Docker
13. 13
Installation
Graylog 4.3 requiert les éléments suivants pour maintenir la compatibilité avec
ses dépendances logicielles :
OpenJDK (17 ou 11 )
Elasticsearch 7.10.2 OU OpenSearch 2.x
MongoDB (5.x ou 6.x)
Déployez un serveur Ubuntu 20.04 entièrement mis à jour avec au moins 4 Go de
RAM .
Conditions préalables
15. 15
Installation
Elasticsearch
$ wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
$ echo "deb https://artifacts.elastic.co/packages/oss-7.x/apt stable main" | sudo
tee -a /etc/apt/sources.list.d/elastic-7.x.list
$ sudo apt -y install elasticsearch-oss
• Importez la clé de signature Elasticsearch PGP.
• Ajoutez le référentiel Elasticsearch.
• Installez Elasticsearch.
16. 16
Configuration
Elasticsearch
$ sudo nano /etc/elasticsearch/elasticsearch.yml
• Ajoutez ces deux lignes à la fin du fichier:
$ sudo nano /etc/elasticsearch/elasticsearch.yml
17. 17
Installation
MongoDB
• Activez le service MongoDB pour qu'il démarre au démarrage du système:
• Installez le serveur MongoDB:
$ sudo apt install mongodb-server -y
$ sudo systemctl enable mongodb
• Démarrez le service MongoDB:
$ sudo systemctl start mongodb
19. 19
Configuration
Graylog
• Choisir un mot de passe fort pour votre compte administrateur et générez un
hachage de 64 caractères. Par exemple:
$ echo -n StrongPassword | sha256sum
• Modifier le fichier de configuration Graylog: nano /etc/graylog/server/server.conf
21. 21
Configuration
Graylog
• Redémarrez le démon système:
$ sudo systemctl daemon-reload
• Redémarrez le service Graylog:
$ sudo systemctl restart graylog-server
• Activez le service Graylog pour qu'il s'exécute au démarrage du système:
$ sudo systemctl enable graylog-server
23. 23
Agent Graylog
C’est un agent autonome qui envoie des données de journal à Graylog Cloud ou
à un cluster Graylog Server sur site.
AGENT LINUX GRAYLOG
• Filebeat
• nxlog
AGENT WINDOWS GRAYLOG
• Filebeat
• Nxlog
• winlogbeat
24. Agent Windows Graylog
24
Agent Graylog
• Téléchargez l'agent NXlog pour Windows à partir
de https://nxlog.co/products/nxlog-community-edition/download
• Installer l'agent Nxlog
• créer un input
System > Input
27. Agent linux Graylog
27
Agent Graylog
Graylog Sidecar est un cadre de gestion de configuration agile pour divers
collecteurs de journaux appelés backends.
28. Agent linux Graylog
28
Agent Graylog
• Installer la configuration du référentiel Graylog Sidecar et Graylog Sidecar
lui-même avec les commandes suivantes :
$ wget https://packages.graylog2.org/repo/packages/graylog-sidecar-repository_1-2_all.deb
$ sudo dpkg -i graylog-sidecar-repository_1-2_all.deb
$ sudo apt-get update && sudo apt-get install graylog-sidecar
• Modifier la configuration (voir Configuration ) et activez le Sidecar en tant
que service système :
$ vi /etc/graylog/sidecar/sidecar.yml
$ sudo graylog-sidecar -service install
$ sudo start graylog-sidecar
$ sudo systemctl enable graylog-sidecar
$ sudo systemctl start graylog-sidecar
• Installer la configuration du référentiel Graylog Sidecar et Graylog Sidecar
lui-même avec les commandes suivantes :
$ wget https://packages.graylog2.org/repo/packages/graylog-sidecar-repository_1-2_all.deb
$ sudo dpkg -i graylog-sidecar-repository_1-2_all.deb
$ sudo apt-get update && sudo apt-get install graylog-sidecar
29. Agent linux Graylog
29
Agent Graylog
• Configurer votre entrée pour recevoir les journaux Windows Sidecar sur le
port 5044
30. Agent linux Graylog
30
Agent Graylog
• Installation des collecteurs sous linux par exemple filebeat
• Configuration du side-car
37. Autre méthode pour collecter les journaux sur linux
37
Rsyslog
Rsyslog est un logiciel libre utilisé sur des systèmes d'exploitation de type Unix
transférant les messages des journaux d'événements sur un réseau IP.
• Modifier fichier de configuration Rsyslog:
39. 39
Les fonctionnalités du graylog
• Search : tous les messages apparaissent ici, il est aussi possible d’en rechercher
spécifiquement
• Streams : Permet de créer des flux, afin de filtrer les messages entrants, et donc
pouvoir ne donner les droits à un utilisateur que sur certains flux et non toute la
base, mais aussi créer des alertes, forwarder les messages entrants etc. C’est la
base pour la gestion des droits sur graylog.
Par exemple stream « create_user» :
• Search : tous les messages apparaissent ici, il est aussi possible d’en rechercher
spécifiquement
• Streams : Permet de créer des flux, afin de filtrer les messages entrants, et donc
pouvoir ne donner les droits à un utilisateur que sur certains flux et non toute la
base, mais aussi créer des alertes, forwarder les messages entrants etc. C’est la
base pour la gestion des droits sur graylog.
Par exemple stream « create_user» :
40. 40
Les fonctionnalités du graylog
• Alerts : Permet de crée des alertes( par exemple envoi des notifications par mail)
41. 41
Les fonctionnalités du graylog
• Dasboard : Pages d’accueils en widget permettant d’afficher des résumés
d’informations sur un Stream, ou une recherche. On peut aussi donner les
droits à un utilisateur que sur certains dashboard.
42. 42
Les fonctionnalités du graylog
Sources : Vue d’ensemble des sources des messages entrants.
•Overview : vue d’ensemble de l’état du système.
•Nodes : affiche l’état du cluster graylog et des nœuds le composant.
•Inputs : permet d’ouvrir des flux en acceptant les messages entrants suivant
certains protocoles/ports.
•Output : Permet de Forwarder(Transférer) des messages (d’un stream, etc.) vers un
autre nœud ou équipement, etc (nous n’y utiliserons pas).
43. 43
Les fonctionnalités du graylog
•Collectors : Les graylog-collector (agent java léger développé par l’équipe graylog à
installer sur des OS utilisé pour transmettre les logs à graylog),
44. 44
Les fonctionnalités du graylog
•Logging : configure la politique de journalisation des activités du système graylog.
•Users : permet de gérer les utilisateurs/droits.
46. 46
Graylog https
Sécuriser l’installation Graylog à l'aide de SSL/TLS pour vous assurer qu'aucune
donnée sensible n'est envoyée sur le réseau en texte brut
Génération du certificat :
#nano openssl-
graylog.cnf
Vérifier que le certificat soit valide pour le nom DNS et pour l’adresse IP
Sécuriser l’installation Graylog à l'aide de SSL/TLS pour vous assurer qu'aucune
donnée sensible n'est envoyée sur le réseau en texte brut
47. 47
Graylog https
$ openssl req -x509 -days 365 -nodes -newkey rsa:2048 -config openssl-graylog.cnf -keyout
pkcs5-privatekey.pem -out graylog-certificate.pem
• Génération du certificat au format x.509 et la clé privé au format
PKSC#5 :
Géneration du certificat
$ openssl pkcs8 -in pkcs5-privatekey.pem -topk8 -nocrypt -out graylog-privatekey.pem (permet de
convertir la clé privée sans protection par mot de passe)
• Graylog ne prend en compte que les clés privées au format PKCS#8.
Nous allons convertir la clé privée en ce format :
48. 48
Graylog https
• Créer un dossier “certificates” dans le répertoire de Graylog afin que
Graylog puisse lire les certificats sans avoir de problèmes :
Génération du certificat
• déplacer les certificats dans le nouveau dossier :
# mkdir /etc/graylog/server/certificates
# mv graylog-* /etc/graylog/server/certificates/
50. 50
Graylog https
Si on s’arrête là notre Graylog fonctionnera bien en HTTPS. Cependant les
composants comme les Inputs, Pipelines (API) etc… eux ne fonctionneront pas.
• Importer notre certificat dans le java keystore :
# keytool -importcert -keystore /usr/lib/jvm/java-17openjdk-17 . 252.b09-
2.el7_8.x86_64/jre/lib/security/cacerts -alias graylog-selfsigned-certificate -file
/etc/graylog/server/certificates/graylog-certificate.pem
# systemctl restart graylog-server
59. 59
Exemples d’attaques
Détection d’un scan de port sur une machine
o Create Event pour détecter le scan de port par exemple:
Détection d’un scan de port sur une machine
o Create Event pour détecter le scan de port par exemple:
Détection d’un scan de port sur une machine
62. Conclusion
• Graylog est donc un outil puissant est modulable , qui permet de s’adapter
à beaucoup d’équipements, et différents infrastructures.
• Son interface est claire et rapide à utiliser , elle permet aussi de mettre en
avant les informations jugées importantes.
Notes de l'éditeur
Open ssl est une implementation open source des
On va créer un stream en cliquant sur l’onglet Steams puis create steam et on donne un titre et une description au steam
Notre steam est alors visible on va accéder sur manager rules afin de le configurer puis on sélectionne notre input pour notre cas ici l’input est windows puis Add steam rules
Dans la partie filed on doit déterminer sur quel champ on veut définir notre régle pour notre cas on veut surveiller la création du compte utilisateur on rentre donc le champs Event Id une fois on sauvgarde on peut demarrer notre steam
Pour vérifier nous allons créér un user sur windows
On retourne sur notre steam on peut voir que le steam parse et affiche que les logs qui ont event ID4720