• Electrical, Electronics and Computer Engineering,
• Information Engineering and Technology,
• Mechanical, Industrial and Manufacturing Engineering,
• Automation and Mechatronics Engineering,
• Material and Chemical Engineering,
• Civil and Architecture Engineering,
• Biotechnology and Bio Engineering,
• Environmental Engineering,
• Petroleum and Mining Engineering,
• Marine and Agriculture engineering,
• Aerospace Engineering.
Internet es una red descentralizada de redes interconectadas que usan protocolos TCP/IP para funcionar como una sola red global. Internet permite el correo electrónico, la World Wide Web para publicar información, buscar datos, comprar productos, y acceder a noticias y entretenimiento de todo el mundo.
Auteur : Rodolphe GIE, Chargé de programme, Etupes, France, Pôle Véhicule du Futur
Réalisé lors du 6ème Atelier Microtechniques & Innovation de Minnovarc, les 29 et 30 mai 2013, La Chaux-de-Fonds, Suisse
Plus d'infos sur www.minnovarc.fr
La calidad de la información en Internet depende de múltiples factores intrínsecos, contextuales, de representación y de accesibilidad. Se evalúa la objetividad, integridad, utilidad y actualidad de los contenidos, así como la facilidad de navegación, diseño y actualización de los recursos. Profesionales, expertos y agencias aplican criterios rigurosos para seleccionar los mejores recursos. La evaluación requiere el uso de plantillas que especifiquen indicadores como autoría, contenido, funcionalidad y accesibil
Este documento describe la evolución de los dispositivos de cálculo y comunicación a través de la historia, desde las primeras herramientas de conteo manuales hasta la invención de la computadora electrónica programable y el desarrollo de Internet. Se destacan inventos clave como el ábaco, la máquina analítica de Babbage, el telégrafo, el teléfono, el transistor y el microprocesador, con sus respectivos inventores. También se mencionan avances en el almacenamiento de datos a través de cintas magnéticas,
Este documento presenta información sobre la elaboración de planes de negocios y el funcionamiento de incubadoras de empresas. Explica que un plan de negocios ayuda a reducir riesgos al planificar objetivos, estrategias y acciones. Detalla las áreas clave de un plan: marketing, recursos humanos, aspectos legales y finanzas. También define una incubadora de empresas como una herramienta que brinda apoyo a nuevos emprendimientos, especialmente innovadores, para facilitar su consolidación.
The document discusses the benefits of exercise for mental health. Regular physical activity can help reduce anxiety and depression and improve mood and cognitive functioning. Exercise causes chemical changes in the brain that may help protect against mental illness and improve symptoms.
Internet es una red descentralizada de redes interconectadas que usan protocolos TCP/IP para funcionar como una sola red global. Internet permite el correo electrónico, la World Wide Web para publicar información, buscar datos, comprar productos, y acceder a noticias y entretenimiento de todo el mundo.
Auteur : Rodolphe GIE, Chargé de programme, Etupes, France, Pôle Véhicule du Futur
Réalisé lors du 6ème Atelier Microtechniques & Innovation de Minnovarc, les 29 et 30 mai 2013, La Chaux-de-Fonds, Suisse
Plus d'infos sur www.minnovarc.fr
La calidad de la información en Internet depende de múltiples factores intrínsecos, contextuales, de representación y de accesibilidad. Se evalúa la objetividad, integridad, utilidad y actualidad de los contenidos, así como la facilidad de navegación, diseño y actualización de los recursos. Profesionales, expertos y agencias aplican criterios rigurosos para seleccionar los mejores recursos. La evaluación requiere el uso de plantillas que especifiquen indicadores como autoría, contenido, funcionalidad y accesibil
Este documento describe la evolución de los dispositivos de cálculo y comunicación a través de la historia, desde las primeras herramientas de conteo manuales hasta la invención de la computadora electrónica programable y el desarrollo de Internet. Se destacan inventos clave como el ábaco, la máquina analítica de Babbage, el telégrafo, el teléfono, el transistor y el microprocesador, con sus respectivos inventores. También se mencionan avances en el almacenamiento de datos a través de cintas magnéticas,
Este documento presenta información sobre la elaboración de planes de negocios y el funcionamiento de incubadoras de empresas. Explica que un plan de negocios ayuda a reducir riesgos al planificar objetivos, estrategias y acciones. Detalla las áreas clave de un plan: marketing, recursos humanos, aspectos legales y finanzas. También define una incubadora de empresas como una herramienta que brinda apoyo a nuevos emprendimientos, especialmente innovadores, para facilitar su consolidación.
The document discusses the benefits of exercise for mental health. Regular physical activity can help reduce anxiety and depression and improve mood and cognitive functioning. Exercise causes chemical changes in the brain that may help protect against mental illness and improve symptoms.
El documento describe los principales contaminantes del aire como microorganismos, polvos, gases y humos que dañan la salud y el medio ambiente. El dióxido de carbono es el principal gas de efecto invernadero que causa el calentamiento global debido a las emisiones de combustibles fósiles. Otros contaminantes como el metano, CFCs y dióxido de azufre contribuyen al cambio climático y la destrucción de la capa de ozono. Se necesitan medidas a nivel individual y de los gobiernos para reducir las emision
Open Institute: une expérience concrète d’ouverture pour l’innovationMinnovarc
Auteur : Salvatore Gora, Président, Courlaoux, France, Tech Power Electronics
Réalisé lors du 4ème Atelier Microtechniques & Innovation de Minnovarc, les 11 et 12 octobre 2012, Ste-Croix, Suisse
Plus d'infos sur www.minnovarc.fr
www.rangement-easybox.com/12-boutique
La easyBox, c'est 5 formes de tiroirs différentes pour TOUT RANGER, 6 couleurs " classiques, pop ou tendances " pour que chacun puisse se l'approprier.
Avec lui,RIEN NE SE PERD… TOUT SE RANGE !
Présentation du Groupe Diogo Fernandes, constructeur de maisons individuelles...Groupe Diogo Fernandes
Le Groupe Diogo Fernandes est un groupe de construction créé en 1974 et regroupant plusieurs marques (Maisons Bell, Maisons Atlantis, Maisons Victor, Maisons Hervé), toutes spécialisées dans la construction de maisons individuelles basse consommation conjuguant modernité et tradition. Le groupe possède plusieurs agences commerciales situées dans les départements de l'Ile-de-France, de l'Eure et de l'Eure-et-Loir
Les pépinières grenobloises ouvrent leurs portes du 5 au 13 juin 2015 : 6 escales pour découvrir les pépinières de l'agglomération, les atouts de ce dispositif d'aide à la création d'entreprise, et leurs nombreuses pépites !
El documento describe los principales contaminantes del aire como microorganismos, polvos, gases y humos que dañan la salud y el medio ambiente. El dióxido de carbono es el principal gas de efecto invernadero que causa el calentamiento global debido a las emisiones de combustibles fósiles. Otros contaminantes como el metano, CFCs y dióxido de azufre contribuyen al cambio climático y la destrucción de la capa de ozono. Se necesitan medidas a nivel individual y de los gobiernos para reducir las emision
Open Institute: une expérience concrète d’ouverture pour l’innovationMinnovarc
Auteur : Salvatore Gora, Président, Courlaoux, France, Tech Power Electronics
Réalisé lors du 4ème Atelier Microtechniques & Innovation de Minnovarc, les 11 et 12 octobre 2012, Ste-Croix, Suisse
Plus d'infos sur www.minnovarc.fr
www.rangement-easybox.com/12-boutique
La easyBox, c'est 5 formes de tiroirs différentes pour TOUT RANGER, 6 couleurs " classiques, pop ou tendances " pour que chacun puisse se l'approprier.
Avec lui,RIEN NE SE PERD… TOUT SE RANGE !
Présentation du Groupe Diogo Fernandes, constructeur de maisons individuelles...Groupe Diogo Fernandes
Le Groupe Diogo Fernandes est un groupe de construction créé en 1974 et regroupant plusieurs marques (Maisons Bell, Maisons Atlantis, Maisons Victor, Maisons Hervé), toutes spécialisées dans la construction de maisons individuelles basse consommation conjuguant modernité et tradition. Le groupe possède plusieurs agences commerciales situées dans les départements de l'Ile-de-France, de l'Eure et de l'Eure-et-Loir
Les pépinières grenobloises ouvrent leurs portes du 5 au 13 juin 2015 : 6 escales pour découvrir les pépinières de l'agglomération, les atouts de ce dispositif d'aide à la création d'entreprise, et leurs nombreuses pépites !
Dans cette section, il est question de fleurer et d’identifier les capacités et
compétences moyennes de la promotion d’étudiants (Par défaut, chaque année
n’est typique qu’à elle-même, on peut avoir des surprises).
Dans la réalité des choses, nous sommes tout le temps confrontés à des situations
nouvelles où il est judicieusement nécessaire de prendre une décision. Les
mauvaises prises en considération engendrent toujours et inévitablement des
conséquences désastreuses dans le système provoquant ainsi des pertes en énergie,
en temps et en ressources et vice-versa. Mais ... où réside le problème ?
Les méthodes éducatives jugées valables au moment de la prise du système universitaire sont nettement
soupçonnées pour une éventuelle qualification des fondements de manoeuvres et travaux à entreprendre
et des buts à atteindre.
La pédagogie c'est l'art d'enseigner ou les méthodes d'enseignement propres à une discipline, à une
matière, à un ordre d'enseignement, à un établissement d'enseignement ou à une philosophie de
l'éducation.
Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)Mohammed TAMALI
Les méthodologies utilisées par les humains, en rapport, avec les tentatives de compréhension des phénomènes physiques qui nous entourent, donnent un contrecoup général de la complexité de ces même systèmes que nous manipulons et prenons comme sujets dans nos études.
Le niveau de complexité des systèmes est élevé, à un niveau où toutes les tentatives ou essais de lancement de procédés expérimentaux laissent et obligent à considérer des erreurs. Encore plus, les effets tangents. Selon la théorie de l’évaluation des performances, l’exigence ‘comprendre’ le système n’a de réponse que si :
- Nous avons tellement d’informations que les recommandations des études ultérieures seront satisfaites,
- Nous avons des références, avec quoi on peut comparer,
- Nous avons un historique susceptible d’être retracé,
- Il y a une possibilité pour faire de l’expérimentation.
Les trois premiers cas satisfont à eux-mêmes. Si telle est la situation, ils nous clarifient l’image. Le quatrième critère exige que l’expérience se fasse effectivement pour que toutes les questions, relatives à un problème donné, soient élucidées. Le domaine de définition du modèle régissant le système étudié est plus ou moins profond que ses variables se meuvent d’une manière continue ou discrète dans les espaces position/temps.
Ces variables sont les facteurs du systèmes et peuvent évoluer selon des modalités changeantes.
Informatique pour école de Médecine Cours : Concepts de basesMohammed TAMALI
Les sciences médicales sont, par défaut, les contextes les plus touchés par une sur-génération de concepts suite à leur relation avec la complexité profonde du vivant.
Le caractère prédominant de ce dernier, sociabilité, est inévitablement le paramètre qui rend, encore plus complexe les relations entre les éléments de la nature et les sociétés qui s’en découlent. Les fragilités des êtres vivants, en interaction, et les pratiques de guérisseurs ont induit une multiplication du volume de l’information.
L’information résultante n’est pas toujours rationnelle ni même formelle, d’où la nécessité d’une classification. Le but majeur est de RATIONALISER et de FORMALISER, rendre l’information médicale ACCESSIBLE et UTILISABLE.
Les sciences médicales sont des domaines où concourent plusieurs autre activités humaines. On identifie, La science, le scientifique, le client, le lieu et la pratique (Concepts et Matériel). Le scientifique et derrière lui ses connaissances, sont appelé à rendre un jugement convainquant au client suite à une pratique donnée.
Le jugement (Le DIAGNOSTIC) doit avoir un effet immédiat pour une pratique médicale justifiée. Il est à faire remarquer qu’une fausse investigation, peut engendrer un faux jugement dire une fausse pratique et des résultats non-attendus.
Méthodologie : Dans ce document, les concepts et notions seront explicités et mises en exergue afin de permettre aux apprenants de mieux comprendre le principe et par suite de pouvoir l’utiliser dans des cas similaires.
Pour cela, les travaux dirigés et pratiques insisteront sur la bonne assimilation des notions, en traitant des cas qui évoluent en complexité faisant ainsi, réagir les aptitudes et appétences cognitives.
Un mémoire de fin d’étude est le document qui atteste et attestera,
dans l’avenir, que l’étudiant a mener à bien une étude introduction à la recherche scientifique à l’université.
Les lecteurs, de ce document, auront à découvrir que le prétendu candidat, a suivi un plan d’études tracer sous la direction d’un encadreur habilité à encadrer de telle expériences.
L’image de marque des deux parties, encadreur et étudiant(s) est trop influencée par la qualité dans laquelle ce document a été rédigé.
En gros, un mémoire traite une PROBLEMATIQUE, bien défini, déterministe, observable, quantifiable, entre autre, réalisable. Ces exigences sont celle du côté encadrement alors que la qualité finale dépend du travail de l’étudiant.
Présentation de l'institut FEMTO-ST (Franche-Comté Electronique Mécanique The...Minnovarc
Auteur : Gregory Haye, Responsable Recherche Partenariale, FEMTO-ST
Réalisé lors du 3ème Atelier Microtechniques & Innovation de Minnovarc les 4-5 avril 2012 à Malbuisson, France
Plus d'infos sur www.minnovarc.fr
Informatique pour école de Médecine Cours : TD & TPMohammed TAMALI
Les sciences médicales sont, par défaut, les contextes les plus touchés par une sur-génération de concepts suite à leur relation avec la complexité profonde du vivant.
Le caractère prédominant de ce dernier, sociabilité, est inévitablement le paramètre qui rend, encore plus complexe les relations entre les éléments de la nature et les sociétés qui s’en découlent. Les fragilités des êtres vivants, en interaction, et les pratiques de guérisseurs ont induit une multiplication du volume de l’information.
L’information résultante n’est pas toujours rationnelle ni même formelle, d’où la nécessité d’une classification. Le but majeur est de RATIONALISER et de FORMALISER, rendre l’information médicale ACCESSIBLE et UTILISABLE.
Les sciences médicales sont des domaines où concourent plusieurs autre activités humaines. On identifie, La science, le scientifique, le client, le lieu et la pratique (Concepts et Matériel). Le scientifique et derrière lui ses connaissances, sont appelé à rendre un jugement convainquant au client suite à une pratique donnée.
Le jugement (Le DIAGNOSTIC) doit avoir un effet immédiat pour une pratique médicale justifiée. Il est à faire remarquer qu’une fausse investigation, peut engendrer un faux jugement dire une fausse pratique et des résultats non-attendus.
Méthodologie : Dans ce document, les concepts et notions seront explicités et mises en exergue afin de permettre aux apprenants de mieux comprendre le principe et par suite de pouvoir l’utiliser dans des cas similaires.
Pour cela, les travaux dirigés et pratiques insisteront sur la bonne assimilation des notions, en traitant des cas qui évoluent en complexité faisant ainsi, réagir les aptitudes et appétences cognitives.
ÉTUDE ET DIMENTIONNEMENT D’UN SUIVEUR SOLAIRE POUR LA GÉNÉRATION D’ÉNERGIE PVMohammed TAMALI
L’intérêt porté à l'énergie solaire, et à son
utilisation dans divers domaines, soit énergétiques, chimiques ou
même médicales, n'est pas nouveau, mais à cause de son
importance qui devenait plus évident chaque jour que son
précédent.
Dans ce contexte, on a essayé de trouver dans ce travail des
solutions pour bien optimiser l'utilisation de cette énergie en
contrôlant le panneau solaire et on le dirigeant vers le soleil,
perpendiculairement à ses rayons le long de sa durée de luminosité,
pour s’adapter à sa vitesse micro-régulière, cet ordre cosmique est
caractérisé par sa rigueur infinie, si on peut trouver des voies et des
lois physiques proches de point de vue précision et exactitude de ce
système, nous pourrons bien exploiter ses ressources et c'est ce qui
s'applique à la coordination du panneau solaire à la vitesse du soleil
et à la verticalité de ses rayons. Cela conduirait à la production
d’une grande capacité électrique qui augmente le rendement du
panneau solaire et donc, dispenser ou abaisser l’utilisation des
sources énergétiques traditionnelles (combustibles), cela conduit à
son tour à une diminution des émissions de gaz responsables de
l’effet de serre et à une maintenance de la stabilité du système
naturel.
A Novel Method for Prevention of Bandwidth Distributed Denial of Service AttacksIJERD Editor
Distributed Denial of Service (DDoS) Attacks became a massive threat to the Internet. Traditional
Architecture of internet is vulnerable to the attacks like DDoS. Attacker primarily acquire his army of Zombies,
then that army will be instructed by the Attacker that when to start an attack and on whom the attack should be
done. In this paper, different techniques which are used to perform DDoS Attacks, Tools that were used to
perform Attacks and Countermeasures in order to detect the attackers and eliminate the Bandwidth Distributed
Denial of Service attacks (B-DDoS) are reviewed. DDoS Attacks were done by using various Flooding
techniques which are used in DDoS attack.
The main purpose of this paper is to design an architecture which can reduce the Bandwidth
Distributed Denial of service Attack and make the victim site or server available for the normal users by
eliminating the zombie machines. Our Primary focus of this paper is to dispute how normal machines are
turning into zombies (Bots), how attack is been initiated, DDoS attack procedure and how an organization can
save their server from being a DDoS victim. In order to present this we implemented a simulated environment
with Cisco switches, Routers, Firewall, some virtual machines and some Attack tools to display a real DDoS
attack. By using Time scheduling, Resource Limiting, System log, Access Control List and some Modular
policy Framework we stopped the attack and identified the Attacker (Bot) machines
Hearing loss is one of the most common human impairments. It is estimated that by year 2015 more
than 700 million people will suffer mild deafness. Most can be helped by hearing aid devices depending on the
severity of their hearing loss. This paper describes the implementation and characterization details of a dual
channel transmitter front end (TFE) for digital hearing aid (DHA) applications that use novel micro
electromechanical- systems (MEMS) audio transducers and ultra-low power-scalable analog-to-digital
converters (ADCs), which enable a very-low form factor, energy-efficient implementation for next-generation
DHA. The contribution of the design is the implementation of the dual channel MEMS microphones and powerscalable
ADC system.
Influence of tensile behaviour of slab on the structural Behaviour of shear c...IJERD Editor
-A composite beam is composed of a steel beam and a slab connected by means of shear connectors
like studs installed on the top flange of the steel beam to form a structure behaving monolithically. This study
analyzes the effects of the tensile behavior of the slab on the structural behavior of the shear connection like slip
stiffness and maximum shear force in composite beams subjected to hogging moment. The results show that the
shear studs located in the crack-concentration zones due to large hogging moments sustain significantly smaller
shear force and slip stiffness than the other zones. Moreover, the reduction of the slip stiffness in the shear
connection appears also to be closely related to the change in the tensile strain of rebar according to the increase
of the load. Further experimental and analytical studies shall be conducted considering variables such as the
reinforcement ratio and the arrangement of shear connectors to achieve efficient design of the shear connection
in composite beams subjected to hogging moment.
Gold prospecting using Remote Sensing ‘A case study of Sudan’IJERD Editor
Gold has been extracted from northeast Africa for more than 5000 years, and this may be the first
place where the metal was extracted. The Arabian-Nubian Shield (ANS) is an exposure of Precambrian
crystalline rocks on the flanks of the Red Sea. The crystalline rocks are mostly Neoproterozoic in age. ANS
includes the nations of Israel, Jordan. Egypt, Saudi Arabia, Sudan, Eritrea, Ethiopia, Yemen, and Somalia.
Arabian Nubian Shield Consists of juvenile continental crest that formed between 900 550 Ma, when intra
oceanic arc welded together along ophiolite decorated arc. Primary Au mineralization probably developed in
association with the growth of intra oceanic arc and evolution of back arc. Multiple episodes of deformation
have obscured the primary metallogenic setting, but at least some of the deposits preserve evidence that they
originate as sea floor massive sulphide deposits.
The Red Sea Hills Region is a vast span of rugged, harsh and inhospitable sector of the Earth with
inimical moon-like terrain, nevertheless since ancient times it is famed to be an abode of gold and was a major
source of wealth for the Pharaohs of ancient Egypt. The Pharaohs old workings have been periodically
rediscovered through time. Recent endeavours by the Geological Research Authority of Sudan led to the
discovery of a score of occurrences with gold and massive sulphide mineralizations. In the nineties of the
previous century the Geological Research Authority of Sudan (GRAS) in cooperation with BRGM utilized
satellite data of Landsat TM using spectral ratio technique to map possible mineralized zones in the Red Sea
Hills of Sudan. The outcome of the study mapped a gossan type gold mineralization. Band ratio technique was
applied to Arbaat area and a signature of alteration zone was detected. The alteration zones are commonly
associated with mineralization. The alteration zones are commonly associated with mineralization. A filed check
confirmed the existence of stock work of gold bearing quartz in the alteration zone. Another type of gold
mineralization that was discovered using remote sensing is the gold associated with metachert in the Atmur
Desert.
Reducing Corrosion Rate by Welding DesignIJERD Editor
This document summarizes a study on reducing corrosion rates in steel through welding design. The researchers tested different welding groove designs (X, V, 1/2X, 1/2V) and preheating temperatures (400°C, 500°C, 600°C) on ferritic malleable iron samples. Testing found that X and V groove designs with 500°C and 600°C preheating had corrosion rates of 0.5-0.69% weight loss after 14 days, compared to 0.57-0.76% for 400°C preheating. Higher preheating reduced residual stresses which decreased corrosion. Residual stresses were 1.7 MPa for optimal X groove and 600°C
Router 1X3 – RTL Design and VerificationIJERD Editor
Routing is the process of moving a packet of data from source to destination and enables messages
to pass from one computer to another and eventually reach the target machine. A router is a networking device
that forwards data packets between computer networks. It is connected to two or more data lines from different
networks (as opposed to a network switch, which connects data lines from one single network). This paper,
mainly emphasizes upon the study of router device, it‟s top level architecture, and how various sub-modules of
router i.e. Register, FIFO, FSM and Synchronizer are synthesized, and simulated and finally connected to its top
module.
Active Power Exchange in Distributed Power-Flow Controller (DPFC) At Third Ha...IJERD Editor
This paper presents a component within the flexible ac-transmission system (FACTS) family, called
distributed power-flow controller (DPFC). The DPFC is derived from the unified power-flow controller (UPFC)
with an eliminated common dc link. The DPFC has the same control capabilities as the UPFC, which comprise
the adjustment of the line impedance, the transmission angle, and the bus voltage. The active power exchange
between the shunt and series converters, which is through the common dc link in the UPFC, is now through the
transmission lines at the third-harmonic frequency. DPFC multiple small-size single-phase converters which
reduces the cost of equipment, no voltage isolation between phases, increases redundancy and there by
reliability increases. The principle and analysis of the DPFC are presented in this paper and the corresponding
simulation results that are carried out on a scaled prototype are also shown.
Mitigation of Voltage Sag/Swell with Fuzzy Control Reduced Rating DVRIJERD Editor
Power quality has been an issue that is becoming increasingly pivotal in industrial electricity
consumers point of view in recent times. Modern industries employ Sensitive power electronic equipments,
control devices and non-linear loads as part of automated processes to increase energy efficiency and
productivity. Voltage disturbances are the most common power quality problem due to this the use of a large
numbers of sophisticated and sensitive electronic equipment in industrial systems is increased. This paper
discusses the design and simulation of dynamic voltage restorer for improvement of power quality and
reduce the harmonics distortion of sensitive loads. Power quality problem is occurring at non-standard
voltage, current and frequency. Electronic devices are very sensitive loads. In power system voltage sag,
swell, flicker and harmonics are some of the problem to the sensitive load. The compensation capability
of a DVR depends primarily on the maximum voltage injection ability and the amount of stored
energy available within the restorer. This device is connected in series with the distribution feeder at
medium voltage. A fuzzy logic control is used to produce the gate pulses for control circuit of DVR and the
circuit is simulated by using MATLAB/SIMULINK software.
Study on the Fused Deposition Modelling In Additive ManufacturingIJERD Editor
Additive manufacturing process, also popularly known as 3-D printing, is a process where a product
is created in a succession of layers. It is based on a novel materials incremental manufacturing philosophy.
Unlike conventional manufacturing processes where material is removed from a given work price to derive the
final shape of a product, 3-D printing develops the product from scratch thus obviating the necessity to cut away
materials. This prevents wastage of raw materials. Commonly used raw materials for the process are ABS
plastic, PLA and nylon. Recently the use of gold, bronze and wood has also been implemented. The complexity
factor of this process is 0% as in any object of any shape and size can be manufactured.
Spyware triggering system by particular string valueIJERD Editor
This computer programme can be used for good and bad purpose in hacking or in any general
purpose. We can say it is next step for hacking techniques such as keylogger and spyware. Once in this system if
user or hacker store particular string as a input after that software continually compare typing activity of user
with that stored string and if it is match then launch spyware programme.
A Blind Steganalysis on JPEG Gray Level Image Based on Statistical Features a...IJERD Editor
This paper presents a blind steganalysis technique to effectively attack the JPEG steganographic
schemes i.e. Jsteg, F5, Outguess and DWT Based. The proposed method exploits the correlations between
block-DCTcoefficients from intra-block and inter-block relation and the statistical moments of characteristic
functions of the test image is selected as features. The features are extracted from the BDCT JPEG 2-array.
Support Vector Machine with cross-validation is implemented for the classification.The proposed scheme gives
improved outcome in attacking.
Secure Image Transmission for Cloud Storage System Using Hybrid SchemeIJERD Editor
- Data over the cloud is transferred or transmitted between servers and users. Privacy of that
data is very important as it belongs to personal information. If data get hacked by the hacker, can be
used to defame a person’s social data. Sometimes delay are held during data transmission. i.e. Mobile
communication, bandwidth is low. Hence compression algorithms are proposed for fast and efficient
transmission, encryption is used for security purposes and blurring is used by providing additional
layers of security. These algorithms are hybridized for having a robust and efficient security and
transmission over cloud storage system.
Application of Buckley-Leverett Equation in Modeling the Radius of Invasion i...IJERD Editor
A thorough review of existing literature indicates that the Buckley-Leverett equation only analyzes
waterflood practices directly without any adjustments on real reservoir scenarios. By doing so, quite a number
of errors are introduced into these analyses. Also, for most waterflood scenarios, a radial investigation is more
appropriate than a simplified linear system. This study investigates the adoption of the Buckley-Leverett
equation to estimate the radius invasion of the displacing fluid during waterflooding. The model is also adopted
for a Microbial flood and a comparative analysis is conducted for both waterflooding and microbial flooding.
Results shown from the analysis doesn’t only records a success in determining the radial distance of the leading
edge of water during the flooding process, but also gives a clearer understanding of the applicability of
microbes to enhance oil production through in-situ production of bio-products like bio surfactans, biogenic
gases, bio acids etc.
Gesture Gaming on the World Wide Web Using an Ordinary Web CameraIJERD Editor
- Gesture gaming is a method by which users having a laptop/pc/x-box play games using natural or
bodily gestures. This paper presents a way of playing free flash games on the internet using an ordinary webcam
with the help of open source technologies. Emphasis in human activity recognition is given on the pose
estimation and the consistency in the pose of the player. These are estimated with the help of an ordinary web
camera having different resolutions from VGA to 20mps. Our work involved giving a 10 second documentary to
the user on how to play a particular game using gestures and what are the various kinds of gestures that can be
performed in front of the system. The initial inputs of the RGB values for the gesture component is obtained by
instructing the user to place his component in a red box in about 10 seconds after the short documentary before
the game is finished. Later the system opens the concerned game on the internet on popular flash game sites like
miniclip, games arcade, GameStop etc and loads the game clicking at various places and brings the state to a
place where the user is to perform only gestures to start playing the game. At any point of time the user can call
off the game by hitting the esc key and the program will release all of the controls and return to the desktop. It
was noted that the results obtained using an ordinary webcam matched that of the Kinect and the users could
relive the gaming experience of the free flash games on the net. Therefore effective in game advertising could
also be achieved thus resulting in a disruptive growth to the advertising firms.
Hardware Analysis of Resonant Frequency Converter Using Isolated Circuits And...IJERD Editor
-LLC resonant frequency converter is basically a combo of series as well as parallel resonant ckt. For
LCC resonant converter it is associated with a disadvantage that, though it has two resonant frequencies, the
lower resonant frequency is in ZCS region[5]. For this application, we are not able to design the converter
working at this resonant frequency. LLC resonant converter existed for a very long time but because of
unknown characteristic of this converter it was used as a series resonant converter with basically a passive
(resistive) load. . Here, it was designed to operate in switching frequency higher than resonant frequency of the
series resonant tank of Lr and Cr converter acts very similar to Series Resonant Converter. The benefit of LLC
resonant converter is narrow switching frequency range with light load[6] . Basically, the control ckt plays a
very imp. role and hence 555 Timer used here provides a perfect square wave as the control ckt provides no
slew rate which makes the square wave really strong and impenetrable. The dead band circuit provides the
exclusive dead band in micro seconds so as to avoid the simultaneous firing of two pairs of IGBT’s where one
pair switches off and the other on for a slightest period of time. Hence, the isolator ckt here is associated with
each and every ckt used because it acts as a driver and an isolation to each of the IGBT is provided with one
exclusive transformer supply[3]. The IGBT’s are fired using the appropriate signal using the previous boards
and hence at last a high frequency rectifier ckt with a filtering capacitor is used to get an exact dc
waveform .The basic goal of this particular analysis is to observe the wave forms and characteristics of
converters with differently positioned passive elements in the form of tank circuits.
Simulated Analysis of Resonant Frequency Converter Using Different Tank Circu...IJERD Editor
LLC resonant frequency converter is basically a combo of series as well as parallel resonant ckt. For
LCC resonant converter it is associated with a disadvantage that, though it has two resonant frequencies, the
lower resonant frequency is in ZCS region [5]. For this application, we are not able to design the converter
working at this resonant frequency. LLC resonant converter existed for a very long time but because of
unknown characteristic of this converter it was used as a series resonant converter with basically a passive
(resistive) load. . Here, it was designed to operate in switching frequency higher than resonant frequency of the
series resonant tank of Lr and Cr converter acts very similar to Series Resonant Converter. The benefit of LLC
resonant converter is narrow switching frequency range with light load[6] . Basically, the control ckt plays a
very imp. role and hence 555 Timer used here provides a perfect square wave as the control ckt provides no
slew rate which makes the square wave really strong and impenetrable. The dead band circuit provides the
exclusive dead band in micro seconds so as to avoid the simultaneous firing of two pairs of IGBT’s where one
pair switches off and the other on for a slightest period of time. Hence, the isolator ckt here is associated with
each and every ckt used because it acts as a driver and an isolation to each of the IGBT is provided with one
exclusive transformer supply[3]. The IGBT’s are fired using the appropriate signal using the previous boards
and hence at last a high frequency rectifier ckt with a filtering capacitor is used to get an exact dc
waveform .The basic goal of this particular analysis is to observe the wave forms and characteristics of
converters with differently positioned passive elements in the form of tank circuits. The supported simulation
is done through PSIM 6.0 software tool
Amateurs Radio operator, also known as HAM communicates with other HAMs through Radio
waves. Wireless communication in which Moon is used as natural satellite is called Moon-bounce or EME
(Earth -Moon-Earth) technique. Long distance communication (DXing) using Very High Frequency (VHF)
operated amateur HAM radio was difficult. Even with the modest setup having good transceiver, power
amplifier and high gain antenna with high directivity, VHF DXing is possible. Generally 2X11 YAGI antenna
along with rotor to set horizontal and vertical angle is used. Moon tracking software gives exact location,
visibility of Moon at both the stations and other vital data to acquire real time position of moon.
“MS-Extractor: An Innovative Approach to Extract Microsatellites on „Y‟ Chrom...IJERD Editor
Simple Sequence Repeats (SSR), also known as Microsatellites, have been extensively used as
molecular markers due to their abundance and high degree of polymorphism. The nucleotide sequences of
polymorphic forms of the same gene should be 99.9% identical. So, Microsatellites extraction from the Gene is
crucial. However, Microsatellites repeat count is compared, if they differ largely, he has some disorder. The Y
chromosome likely contains 50 to 60 genes that provide instructions for making proteins. Because only males
have the Y chromosome, the genes on this chromosome tend to be involved in male sex determination and
development. Several Microsatellite Extractors exist and they fail to extract microsatellites on large data sets of
giga bytes and tera bytes in size. The proposed tool “MS-Extractor: An Innovative Approach to extract
Microsatellites on „Y‟ Chromosome” can extract both Perfect as well as Imperfect Microsatellites from large
data sets of human genome „Y‟. The proposed system uses string matching with sliding window approach to
locate Microsatellites and extracts them.
Importance of Measurements in Smart GridIJERD Editor
- The need to get reliable supply, independence from fossil fuels, and capability to provide clean
energy at a fixed and lower cost, the existing power grid structure is transforming into Smart Grid. The
development of a smart energy distribution grid is a current goal of many nations. A Smart Grid should have
new capabilities such as self-healing, high reliability, energy management, and real-time pricing. This new era
of smart future grid will lead to major changes in existing technologies at generation, transmission and
distribution levels. The incorporation of renewable energy resources and distribution generators in the existing
grid will increase the complexity, optimization problems and instability of the system. This will lead to a
paradigm shift in the instrumentation and control requirements for Smart Grids for high quality, stable and
reliable electricity supply of power. The monitoring of the grid system state and stability relies on the
availability of reliable measurement of data. In this paper the measurement areas that highlight new
measurement challenges, development of the Smart Meters and the critical parameters of electric energy to be
monitored for improving the reliability of power systems has been discussed.
Study of Macro level Properties of SCC using GGBS and Lime stone powderIJERD Editor
The document summarizes a study on the use of ground granulated blast furnace slag (GGBS) and limestone powder to replace cement in self-compacting concrete (SCC). Tests were conducted on SCC mixes with 0-50% replacement of cement with GGBS and 0-20% replacement with limestone powder. The results showed that replacing 30% of cement with GGBS and 15% with limestone powder produced SCC with the highest compressive strength of 46MPa, meeting fresh property requirements. The study concluded that this ternary blend of cement, GGBS and limestone powder can improve SCC properties while reducing costs.
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
International Journal of Engineering Research and Development
1. International Journal of Engineering Research and Development
e-ISSN: 2278-067X, p-ISSN: 2278-800X, www.ijerd.com
Volume 9, Issue 6 (December 2013), PP. 15-26
Etude des effets des algorithmes d’apprentissage et des fonctions
de transfert sur la performance des modèles statistiques
neuronaux : Application dans le domaine météorologique
Hicham El Badaoui1, Abdelaziz Abdallaoui2, Samira Chabaa3
1,2
Université Moulay Ismail, Faculté des Sciences, Laboratoire de Chimie-Biologie Appliquées à
l’Environnement, Equipe Chimie Analytique et Environnement,
B.P. 11201, Zitoune, Meknès. Maroc.
3
Université Ibn Zohr, Ecole Nationale des Sciences Appliquées, Département Génie industriel
BP. 1136, Agadir. Maroc.
Résumé:- Ce travail présente le développement d'un modèle de réseau de neurones artificiel (RNA) de type
Perceptron Multicouche (PMC) pour la prédiction du taux d‟humidité de la zone de Chefchaouen. Notre objectif
c‟est traiter une série chronologique des données mesurées entre les années 2008 et 2013 pour évaluer la
réponse du réseau. Cette série est constituée d‟un certain nombre de paramètres météorologiques telles que le
taux d‟humidité, la température de l‟air, la température de rosée, la pression atmosphérique, la visibilité, la
nébulosité, la vitesse du vent et la précipitation. Pour déterminer l‟architecture du réseau à utiliser, nous avons
varié le nombre des couches cachées, le nombre de neurones dans la couche cachée, les fonctions de transfert et
les couples de fonctions de transfert ainsi que les algorithmes d‟apprentissage. Plusieurs critères statistiques
comme l‟erreur quadratique moyenne (MSE) et le coefficient de corrélation (R), ont été étudiés pour
l‟évaluation des modèles développés. Les meilleurs résultats ont été obtenus avec un réseau d‟architecture
[7-5-1], les fonctions d‟activations (Tansig-Purelin) et un algorithme d‟apprentissage de Levenberg-Marquardt.
Mots clés:- Réseau de neurones artificiel, Perceptron Multicouche, Prédiction, Algorithme d‟Apprentissage,
Humidité.
I.
INTRODUCTION
La météorologie accumule des quantités énormes de données. Ces données proviennent d‟observations
effectuées au sol, en altitude, en mer et dans l‟espace. Elles sont hétérogènes et fortement bruitées. Pour extraire
des informations précises de ces données, les météorologues utilisent différents types de modèles qui dépendent
des domaines comme la physique ou la statistique. La physique a pour objet la représentation de la réalité à
l‟aide de modèles qualifiés de „‟boite blanche‟‟. Tandis que la statistique essaie de construire ces modèles
mathématiques de type „‟boite noire‟‟ à partir des données empiriques. L‟information extraite va dépendre de
l‟ensemble des modèles physiques ou statistiques utilisés pour décrire le problème et les différentes hypothèses
qui seront choisies au départ. Dans le domaine météorologique, les lois des paramètres climatiques sont non
linéaires et afin de modéliser ce type de problèmes, nous nous sommes intéressés particulièrement à un modèle
typique de réseau neuronal connu sous le nom Perceptron Multicouche. Les réseaux de neurones artificiels sont
extrêmement appliqués pour résoudre des phénomènes fortement complexes et non linéaires. Dans la littérature,
les réseaux de neurones artificiels ont présenté un grand succès dans l‟analyse statistique, les traitements de
données et la prévision des paramètres environnementaux, et différents travaux de recherches ont été proposés
dans le cadre de la prédiction en utilisant les réseaux de neurones de type PMC.
Abdelli S. et al., en 2012, [1] ont présenté la méthode des réseaux de neurones de type perceptron
multicouche, pour prédire des polluants d‟air. Leur objectif est de prévoir les concentrations de NO 2- et de
trouver ses relations avec les autres variables météorologiques.
Fock E. et al., en 2000, [2] ont traité un modèle statistique neuronal pour la modélisation thermique des
bâtiments. Cette démarche basée sur la prédiction de la température de surface intérieure d‟une paroi montre la
faisabilité et la possible implémentation du réseau dans un code.
Abdallaoui A. et al., 2013, [3] ont utilisé aussi les réseaux de neurones multicouche pour la prédiction
des concentrations des métaux lourds dans les sédiments fluviaux marocains, à partir d‟un certain nombre de
paramètres physico-chimiques.
L‟humidité relative est l‟un des paramètres météorologiques importants vue son influence sur la santé
de l‟homme, les matières de construction, l‟agriculture et l‟environnement, etc. Ainsi nous avons jugé utile de
développer des modèles mathématiques statistiques neuronaux pour la prédiction de l‟humidité relative dans la
zone de Chefchaouen à partir d‟un certain nombre de paramètres météorologiques.
15
2. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
II.
MATÉRIEL ET MÉTHODES
Présentation de la zone d’étude
Notre zone d‟étude est la province de Chefchaouen qui est localisée dans une région importante
caractérisée par une grande diversité des sols et des formations géologiques. Elle se trouve dans la zone de
transition entre le domaine des nappes de flyschs et le domaine interne.
A.
Fig.1 : Situation géographique de la zone de Chefchaouen (Maroc).
La Province de Chefchaouen, située au Nord-Ouest du Maroc (Latitude: 35°10‟17 nord; Longitude: 5°
16 ‟11 Ouest; Altitude: 564 mètres) sur la chaîne rifaine, est limitée au Nord par la méditerranée sur une
longueur de 120 Km, au Sud par les provinces de Taounate et Sidi Kacem, à l'Est par la province d'Al Hoceima
et à l'Ouest par les provinces de Tétouan et Larache. C‟est une province qui relève de la région administrative
de Tanger-Tétouan (Fig. 1).
Base de données
La base de données utilisée dans le cadre de cette étude est constituée par les valeurs de huit variables
météorologiques relatives à la zone de Chefchaouen:
Sept variables indépendantes (explicatives) : Température de l‟air, température de rosée, pression
atmosphérique, visibilité, nébulosité, vitesse du vent et la précipitation.
Une variable dépendante (à prédire) : le taux d‟humidité (l‟humidité relative).
Ces valeurs ont été relevées toutes les quatre heures pendant 1856 jours entre les années 2008 et 2013. Elles ont
été converties en moyennes journalières pour toutes les variables, sauf la quantité de précipitations qui a été
transformée en une valeur cumulative de la journée [4].
B.
Mise en forme des données
Les données d‟entrée (variables indépendantes) sont des valeurs brutes non transformées qui ont des
ordres de grandeurs très différents selon les variables. Afin d‟uniformiser les échelles de mesures, ces données
sont converties en variables standardisées. En effet, les valeurs Ii de chaque variable indépendante (i) ont été
standardisées par rapport à sa moyenne et son écart-type suivant la relation :
C.
Ii =
Ii − μ i
σi
Ii : Valeur standardisée relative à la variable i ;
Ii : Valeur brute relative à la variable i ;
μi : Valeur moyenne relative à la variable i ;
σi : écart-type relative à la variable i.
Les valeurs correspondantes aux variables dépendantes ont été également normalisées dans l‟intervalle
[-1,1] à partir de la relation suivante [5]:
16
3. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
Ii =
III.
2(Ii − Min(Ii ))
−1
(Max(Ii ) − Min(Ii ))
RESEAUX DE NEURONES ARTIFICIELS (RNA)
Un réseau de neurones artificiels est un modèle de calcul dont l'inspiration originelle était un modèle
biologique, c'est-à-dire le modèle du cerveau nerveux humain. Les réseaux de neurones artificiels sont
optimisés par des calculs d‟apprentissage de type statistique. Ils sont placés d‟une part, dans la famille
des applications statistiques, permettant de générer de vastes espaces fonctionnels, souples et
partiellement structurés, et d‟autre part dans la famille des méthodes de l‟intelligence artificielle,
permettant de prendre des décisions s‟appuyant davantage sur la perception que sur le raisonnement
logique formel [6].
Modèle mathématique d’un neurone formel
Le modèle mathématique d'un neurone artificiel est illustré par la figure 2. Un neurone est
essentiellement constitué d'un intégrateur qui effectue la somme pondérée de ses entrées. Le résultat de cette
somme ensuite transformée par une fonction de transfert f qui produit la sortie O n du neurone. Les n entrées du
neurone correspondent au vecteur noté: I = I1 , I2, , I3 , … , In et le vecteur de poids est représenté par :
W = (W1 , W2, ; W3 , … , Wn ).
A.
Fig.2 : Structure d'un neurone artificiel
La sortie On de l'intégrateur est définie par l'équation suivante :
O = WT I − b
Le résultat de la somme pondérée s'appelle le niveau d'activation du neurone. Le biais b s'appelle aussi
le seuil d'activation du neurone [7].
B. Choix d’un réseau de neurones
Il existe un grand nombre de types de réseaux de neurones, dont chacun a des avantages et des
inconvénients. Le réseau choisit dans notre étude est un réseau perceptron multicouche (PMC). Ce choix est fait
pour la facilité et la rapidité de sa construction et encore par le fait que notre problème ne présente qu‟un
nombre considéré limité de variables d‟entrées [8]. La figure 3 illustre le perceptron multicouche dans le cas
d‟une seule couche d‟entrée, une seule couche cachée et une seule sortie.
Fig.3 : Exemple d‟architecture d‟un PMC à n variables d‟entrée, n neurones dans la couche cachée et une seule
sortie
Le perceptron multicouche est composé d‟un assemblage de neurones répartis sur plusieurs couches.
La première couche correspondant au vecteur composé des données d‟entrée et la dernière couche au vecteur de
17
4. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
sortie composé des valeurs désirées entre les deux couches. Entre ces couches il existe un certain nombre de
couches cachées. La complexité du réseau est en fonction du nombre de ces couches cachées et du nombre des
neurones élémentaires composant chaque couche.
C. Indicateurs statistiques
Pour évaluer les performances des différents modèles développés, nous avons utilisé deux indicateurs
statistiques :
Le coefficient de corrélation R donné par la relation [9]:
− O)2
=
Oi − O 2
i (Oi
R=
i
1−
i
i
Oi − Oi
Oi − O 2
2
− O)2 : Somme des carrées expliquée par le modèle ;
Oi − O 2 : Somme des carrés totale.
i (Oi
i
L‟erreur quadratique moyenne MSE : elle représente la moyenne arithmétique des carrés des écarts
entre les prévisions et les observations [10].
1
MSE =
N
IV.
N
(Oi − Oi )2
1
RESULTAT ET DISCUSSION
A. Régression linéaire multiple (RLM)
La régression linéaire multiple est utilisée pour prévoir les valeurs d'une variable dépendante (le taux
d‟humidité) à partir de variables explicatives (paramètres météorologiques). L‟équation du modèle est la
suivante :
H % = 71,187 − 1,995 × Ta + 1,719 × Tr + 1,915 × Pa − 0,564 × Vis + 0,927 × Néb + 0,023 × Pr
− 0,04 × V
N=1856 Jours ; R= 0,865 ; MSE = 0,0260
Avec :
Tr : Température rosée ;
Pa : Pression atmosphérique ;
Vis : Visibilité ;
Néb : Nébulosité ;
Pr : Précipitations ;
V : Vitesse du vent ;
Tair : Température de l’air ;
H : Humidité relative.
Le coefficient de corrélation obtenu par le modèle (RLM) est R=0,865 et l‟erreur quadratique moyenne
est MSE = 0,026, ceci montre que l‟humidité relative n‟est pas corrélé linéairement avec les autres paramètres
météorologiques.
Avec ce modèle, il est difficile d'imaginer que l'on puisse établir un modèle entièrement déterministe
qui fournirait une prédiction vraiment exacte. Pour dépasser ces difficultés, nous avons développé des modèles
mathématiques de type « boite noire » à savoir : les réseaux de neurones artificiels (RNA).
B.
Réseaux de neurones artificiels (RNA)
Dans le cadre de ce travail, nous avons utilisé les réseaux de neurones non récurrents de type PMC. Le
choix d‟exploiter un type de réseaux de neurones et écarter un autre n‟est pas arbitraire, mais repose sur les
fondements qu‟exigent le problème en question, sachant que chaque type de réseaux, en termes d‟apprentissage,
est conseillé pour une application donnée. Nous avons opté donc pour le perceptron multicouche puisqu‟il
répond aux spécificités du problème de prédiction. Ce type de réseau apporte des résultats très significatifs et le
taux de précision de la prédiction étant meilleur. Les algorithmes d‟apprentissage présentés par la suite font
partie de la boîte à outils du logiciel MATLAB des réseaux de neurones. Pour déterminer l‟architecture du
réseau à utiliser, nous avons varié le nombre de couches cachées, le nombre de neurones dans une couche
18
5. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
cachée, les fonctions de transfert, le nombre d‟itération, le pas d‟apprentissage et les algorithmes
d‟apprentissage [11]. Dans le cadre de cette étude, nous a avons divisé, aléatoirement notre base de données en
trois parties : 60% pour l‟apprentissage, 20% pour le test et 20% pour la validation.
Le nombre de couches cachées :
Selon l‟architecture choisie, tous les neurones ou une partie des neurones dans une couche sont
connectés avec tous ou une partie des neurones des couches adjacentes. Le nombre de couches cachées et le
nombre de neurones par couche dépend du modèle spécifique, de la vitesse de convergence, des capacités de
généralisation, du processus physique et des données d‟apprentissage [12]. Dans tout notre travail, nous nous
sommes contentés d‟une seule couche cachée, car nous avons remarqué que l‟augmentation du nombre de
couches cachées augmente la charge des calculs sans aucun gain de performance.
Les algorithmes d’apprentissage :
Dans cette étude nous avons utilisé quatre algorithmes d‟apprentissage, qui sont qualifiés de haute
performance :
Resilient Back Propagation (RBP);
Gradient Descent Back Propagation (GD) ;
Gradient Conjugué Scalaire (GCS);
Levenberg-Marquardt (LM).
Pour chaque algorithme d‟apprentissage, nous avons changé le nombre de neurones dans la couche
cachée ainsi que les couples de fonctions de transfert. Les performances ont été évaluées grâce à l‟erreur
quadratique moyenne (MSE) et le coefficient de corrélation (R).
Les tableaux I, II, III et IV représentent les meilleures performances trouvées pour les différentes
combinaisons de couples de transfert pour chacun des 4 algorithmes, les figures 4, 5, 6, 7 représentent la
variation de l‟erreur quadratique moyenne (MSE) en fonction des couples de fonctions de transfert pour les 4
algorithmes.
D‟après ces tableaux nous notons que:
Avec le couple de fonctions de transfert (Logsig - Purelin) et une architecture [7-7-1] nous arrivons
aux meilleurs performances pour l‟algorithme (Resilient Back Propagation).
Pour l‟algorithme (Gradient Descent Back Propagation), la meilleure performance est obtenue avec un
réseau de neurones d‟architecture [7-4-1], avec la fonction Purelin comme fonctions de transfert pour la couche
cachée et la fonction Logsig pour la couche de sortie.
Nous avons obtenu les meilleurs résultats pour l‟algorithme (Gradient Conjugué Scalaire) avec un
réseau de neurones d‟architecture [7-8-1] et qui a comme couple de fonctions d‟activations (Logsig-Tansig).
L‟architecture [7-5-1] avec une fonction Tansig pour la couche d‟entrée et une fonction Purelin pour la
couche de sortie, a donné les meilleures performances pour l‟algorithme Levenberg-Marquardt.
Comme la combinaison (Purelin-Purelin) n‟a pas abouti aux meilleures performances, cela signifie que
la relation entre l‟humidité relative et les autres paramètres météorologiques est non linéaire.
Au niveau du nombre d’itérations :
L‟algorithme RBP est l‟algorithme présentant le plus grand nombre d‟itérations pour toutes les
combinaisons de fonctions de transfert ; cet algorithme est réputé très performant dans la reconnaissance des
formes que dans l‟approximation des fonctions.
L‟algorithme LM converge avec le minium du nombre d‟itérations pour toutes les combinaisons de
fonctions de transfert ; cet algorithme est réputé très performant dans l‟approximation des fonctions surtout
quand le réseau contient moins d'une centaine de poids à mettre à jour, qui est le cas ici [13, 14].
Le nombre d‟itérations des différentes variantes de l‟algorithme gradient conjugué scalaire est
généralement inférieur ou égal à cent à l‟opposé de l‟algorithme RBP. Cependant, tous ces algorithmes
convergent généralement avec un nombre d‟itérations plus grand que celui de l‟algorithme LM. Ces algorithmes
sont connus dans la littérature par leur convergence rapide sur des variétés des problèmes (approximation des
fonctions, classification), surtout quand la taille du réseau est assez grande.
Malgré ces différences, tous ces algorithmes sont de hautes performances, ils convergent rapidement,
et aboutissent à des faibles valeurs de l‟erreur quadratique moyenne MSE et de grandes valeurs du coefficient
de corrélation R et cela dans un temps qui ne dépasse pas quelques secondes.
19
7. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
GD
[7-7-1]
99,8
[7-5-1]
99,3
[7-5-1]
85,3
[7-5-1]
-5
MSE ( 10 )
80,5
69,4
68,6
[7-5-1]
[7-7-1]
42,0
[7-6-1]
[7-6-1]
31,2
06,1
[7-4-1]
TT
TL
TP
LL
LT
LP
PP
PL
PT
Couples de fonctions de transfert
Fig.5: Variation du MSE en fonction des couples de transfert pour l‟algorithme GD
Couche
cachée
Tableau III : Etude de l‟algorithme Gradient conjugué scalaire (GCS)
Couche
MSE
Nombre
Désignations
R
Architecture
de sortie
(10-5)
d’itérations
Tansig
Tansig
TT
0,956
13,6
[7-5-1]
90
Tansig
Logsig
TL
0,918
28,0
[7-4-1]
80
Tansig
Purelin
TP
0,958
11,5
[7-6-1]
70
Logsig
Logsig
LL
0,921
27,8
[7-7-1]
100
Logsig
Logsig
Tansig
Purelin
LT
LP
0,960
0,955
11,0
12,6
[7-8-1]
[7-5-1]
100
80
Purelin
Purelin
PP
0,937
17,3
[7-4-1]
40
Purelin
Logsig
PL
0,917
28,0
[7-5-1]
50
Purelin
Tansig
PT
0,939
17,0
[7-6-1]
70
GCS
[7-4-1]
[7-5-1]
28,0
[7-7-1]
27,8
[7-4-1]
-5
MSE (10 )
17,3
17,0
[7-6-1]
13,6
[7-5-1]
12,6
[7-5-1]
11,5
[7-6-1]
11,0
[7-8-1]
TT
TL
TP
LL
LT
LP
PP
Couples de fonctions de transfert
PL
PT
Fig.6 : Variation du MSE en fonction des couples de transfert pour l‟algorithme GCS
21
8. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
Tableau IV: Etude de l‟algorithme Levenberg-Marquardt (LM)
Couche
cachée
Couche
de sortie
Désignations
R
MSE
(10-5)
Architecture
Tansig
Tansig
TT
0,960
8,50
[7-8-1]
50
Tansig
Tansig
Logsig
Logsig
Logsig
Purelin
Purelin
Purelin
Logsig
Purelin
Logsig
Tansig
Purelin
Purelin
Logsig
Tansig
TL
TP
LL
LT
LP
PP
PL
PT
0,922
0,970
0,927
0,965
0,963
0,930
0,918
0,939
27,0
1,50
25,80
7,50
7,80
17,20
27,90
17,00
[7-9-1]
[7-5-1]
[7-10-1]
[7-9-1]
[7-11-1]
[7-10-1]
[7-4-1]
[7-6-1]
30
27
60
30
30
30
60
90
LM
Nombre
d’itérations
[7-4-1]
27,9
[7-9-1]
27,0
[7-10-1]
25,8
-5
MSE ( 10 )
17,2
[7-10-1]
17,0
[7-6-1]
08,5
[7-8-1]
07,8
[7-11-1]
07,5
[7-9-1]
01,5
[7-5-1]
TT
TL
TP
LL
LT
LP
PP
PL
PT
Couples de fonctions de transfert
Fig.7 : Variation du MSE en fonction des couples de transfert pour l‟algorithme LM
Le tableau V donne les couples de fonctions de transfert selon leurs performances pour les différents
algorithmes d‟apprentissage.
D‟après ce tableau, on peut diviser les couples de fonctions de transfert en trois groupes :
Le premier groupe donne des résultats plus performants que ceux relatifs aux autres couples de
fonction de transfert.
Le deuxième groupe donne des performances situées entre le premier groupe et le troisième, mais qui
sont plus proches de celles de premier groupe.
Le troisième groupe est constitué des couples avec des couples de fonctions qui présentent de faibles
performances que celles relatives aux autres couples de fonctions de transfert.
Tableau V : Couples de fonctions de transfert selon leurs performances.
Groupe 1
Groupe 2
Groupe 3
Meilleures
performances
Moyennes
performances
Faibles
performances
RBP
TP, TL
LT, PP, PL, LL, PT
TT, LP
GD
LT, TP
TL, LL, LP, TP, TT
LP, PT
GCS
TL, LL, PL
LL, LP, PP, PT
LT, TP
LM
TL, LL, PL
PT, LL, LP, PP, PT
TP
22
9. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
C. Choix du modèle RNA
Par la suite, nous allons comparer ces différents algorithmes afin de choisir le meilleur modèle.
Le tableau VI, représente les meilleures performances obtenues pour chaque algorithme. Parmi tous ces
algorithmes, l‟algorithme de Levenberg–Marquardt est l‟algorithme le plus performant au niveau des
indicateurs statistiques (R et MSE), ainsi qu‟au niveau de la rapidité de convergence, car il mélange les
algorithmes de Gradient Descent et de Gauss-Newton. Pour des petites valeurs du pas, la méthode de
Levenberg–Marquardt s‟approche de celle de Newton. Inversement, pour de grandes valeurs du pas. Ceci est en
accord avec les résultats de quelques travaux récentes qui ont démontré les capacités de l‟algorithme
d‟apprentissage de Levenberg Marquardt pour la prédiction en terme d‟erreur de prédiction ainsi le temps
d‟apprentissage d‟une part et d‟autre part cet algorithme d‟apprentissage est un standard pour l‟optimisation de
l‟erreur quadratique due à ses propriétés de convergence rapide et à sa test de robustesse [15, 16, 17].
De plus, après plusieurs tests, il est aisé de conclure que c‟est celle qui allie le mieux, pour notre
travail, rapidité et qualité. Son principe est basé sur une descente de gradient itérative de la famille quasiNewton. Elle s‟appuie sur les techniques des moindres carrés non-linéaires et de l‟algorithme de Gauss-Newton
à voisinage restreint, conférant une garantie rapide de la convergence vers la valeur minimal de l‟erreur
quadratique moyenne. Le pas de taux d‟apprentissage η est initialisé avec une certaine valeur qui est modifiée
durant l‟optimisation. A chaque itération, la fonction de cout est calculée avec la valeur de η précédente, si la
fonction de cout diminue, on effectue la modification des paramètres et on diminue η, si la fonction de cout
croit, nous cherchons à se rapprocher du gradient et nous augmentons η jusqu‟au ce que la fonction de cout
diminue. Dans le cadre de ce travail, l‟algorithme LM a été initialisé avec les valeurs des paramètres
d‟apprentissage suivantes :
η = 1 ; Gradient = 0,1 ; Nombre maximale d‟itérations = 200
L‟algorithme LM a convergé après 7 itérations dans un temps de 2s et ses paramètres sont devenus :
η = 0,001
Gradient = 0,0026
Tableau VI : Meilleures performances obtenues pour chaque algorithme d‟apprentissage.
Algorithmes
d’apprentissage
Couche
cachée
Couche
de sortie
Désignations
R
MSE
(10-5)
Architecture
Nombre
d’itérations
RBP
Logsig
Purelin
TT
0,969
06,4
[7-7-1]
100
GD
Purelin
Tansig
TP
0,924
31,2
[7-6-1]
60
GCS
Logsig
Tansig
LP
0,960
11,0
[7-8-1]
140
LM
Tansig
purelin
TP
0,970
1,5
[7-5-1]
27
Nous pouvons conclure d‟après tous ces résultats, que le meilleur modèle RNA est un réseau de
neurones de type PMC qui utilise l‟algorithme de Levenberg Marquardt comme algorithme d‟apprentissage, les
fonctions (Tansig et Purelin) comme fonctions de transfert et qui a l‟architecture [7-5-1]. Ce réseau est constitué
de trois couches:
Une couche d‟entrée : formée par 7 neurones représentant les variables explicatives: la température de
l‟air, la température de rosée, la pression atmosphérique, la visibilité, la nébulosité, la vitesse du vent et la pluie.
Dans cette couche aucun calcul ne se fait.
Une couche cachée, ou se font tous les calculs d‟optimisation des paramètres des réseaux de neurones.
Une couche de sortie du réseau qui représente l‟humidité relative.
La figure 8 représente l‟architecture du modèle des réseaux de neurones développé :
23
10. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
Fig.8: Architecture du réseau de neurones à trois couches de configuration [7, 5,1].
Humidité estimée (%)
100
Apprentissage
R= 0,97
Test
R= 0,97
80
60
40
20
20
40
60
80
100
20
40
60
80
100
60
80
100
Humidité estimée (%)
100
80
Validation
R= 0,97
Données totales
R= 0,97
60
40
20
20
40
60
80
100
Humidité observée (%)
20
40
Humidité observée (%)
Fig.9: Relation entre les valeurs observées et celles estimées par le modèle RNA pendant les différentes phases
(Apprentissage, validation, test ainsi que pour l‟ensemble de la base de données)
Le coefficient de corrélation obtenu par ce modèle est R= 0,97 et l‟erreur quadratique moyenne est
MSE= 1,5.10-5
Le modèle développé a donné le même coefficient de corrélation (0,97) durant les trois phases
d‟apprentissage, de test et de validation (fig.9).
D‟après ces résultats numériques, nous pouvons conclure que les modèles neuronaux ont des coefficients de
corrélation presque égal à l‟unité (R ~ 1). Ceci montre qu‟il y a un grand rapprochement entre les valeurs
mesurées et celles estimées par le modèle neuronal développé dans cette étude. Ce modèle et peut donc être
considéré comme un outil d‟une grande efficacité dans le cadre de la prévision météorologiques. Nous citons a
24
11. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
titre d‟exemples quelques travaux de recherche pertinents qui montrent l‟efficacité de ce modèle dans la
prévision météorologiques :
Bouaoune et al., 2010, [18] ont présenté l‟application d‟une méthode d‟interpolation des réseaux
neuronaux. Ils ont montré des relations non linéaires entre les variables météorologiques.
Perez et al., 2001, [19] ont proposé de prévoir la concentration de NO2- et de l‟oxyde nitrique NO- à
Santiago en se basant sur les variables météorologiques. Leurs résultats ont montré que le réseau de neurones
est la méthode qui réalise l‟erreur de prévision la moins élevée par rapport aux autres méthodes classiques.
Cheggaga et al. 2010, [20] ont montré la possibilité ainsi l‟efficacité de l‟utilisation des réseaux de
neurones à couches non-récurrentes pour la prédiction de la vitesse de vent à partir des données
météorologiques.
Comparaison entre les deux modèles
Cette comparaison sera effectuée au niveau des indicateurs statistiques R et MSE. D‟après le tableau
VI, les meilleures estimations sont obtenues à l‟aide du modèle RNA, car elle présente les plus faibles des
critères statistiques [21].
Le modèle RNA garde les mêmes performances pendant les trois phases d‟apprentissage, de validation
et de test à l‟opposé du modèle RLM qui montre une dégradation de performances en passant de la phase
d‟apprentissage au deux autres phases. Les deux modèle présentent une performance similaire durant la période
d‟apprentissage avec un coefficient de corrélation R =0,97 pour le modèle RNA et R=0,86 pour le modèle RLM.
Le modèle RNA permet des améliorations jusqu‟à 13% de l‟explication de la variance pour la phase de
validation et la phase de test par rapport au modèle RLM.
D.
Tableau VII: Comparaison des performances de deux modèles (RNA et RLM) au niveau des indicateurs
statistiques.
Phase
Apprentissage
Validation
Test
Indicateur
statistique
R
MSE
R
MSE
R
MSE
RLM
0,86
0,150
0
0,84
0,7700
0,84
0,7700
RNA
0,97
0,001
5
0,97
0,0015
0,97
0,0015
V.
CONCLUSIONS
Les réseaux de neurones artificiels sont des outils très puissants au niveau de la prédiction. Ils peuvent
traiter des problèmes non linéaires. Mais ils présentent un inconvénient majeur du choix de l‟architecture du
réseau, car ce choix appartient souvent à l‟utilisateur. Dans notre étude, nous avons développé plusieurs
modèles basés sur des algorithmes d‟apprentissage qualifiés de haute performance. Les résultats obtenus
démontrent que l‟algorithme de Levenberg-Marquardt présenté les meilleures performances aussi bien qu‟au
niveau des indicateurs statistiques qu‟au niveau de la rapidité de convergence, ainsi qu‟un réseau d‟architecture
[7-5-1] avec une fonction d‟activation non linéaire de type Tansig pour la couche cachée et une fonction
d‟activation linéaire de type Purelin dans la couche de sortie. Ce réseau neuronal élaboré a permis une très
bonne prédiction du taux d‟humidité dans la région de Chefchaouen pendant les cinq années de la période
d‟étude. L‟étude comparative entre les deux modèles RNA et RLM a montré que le modèle développé à base
des réseaux de neurones artificiels est plus performant que celui établi par la méthode de régression linéaire
multiple. Cela montre que la relation reliant l‟humidité relative aux autres paramètres météorologiques dans la
zone de Chefchaouen est non linéaire.
REFERENCES
[1].
[2].
[3].
S. Abdelli, K. Nouira, A. Trabelsi, « Prévision du NO2 en utilisant la méthode du réseau de neurones »,
Business and Economic Statistics Modeling Laboratory Institut Supérieur de Gestion de Tunis, 129140p, 2012.
E. Fock, P. Lauret, T. Mara et H. Boyer, « Modélisation hybride pour la simulation thermique du bâtiment », Congrès français de Thermique, SFT 2000, Lyon, 15-17 mai, 2000.
A. Abdallaoui, « Le phosphore et les métaux lourds contenus dans les sédiments. Leur influence sur les
phénomènes d‟eutrophisation et de pollution», Editions Universitaires Européennes, 348 p. 2013.
25
12. Etude des effets des algorithmes d’apprentissage et des fonctions de transfert…
[4].
[5].
[6].
[7].
[8].
[9].
[10].
[11].
[12].
[13].
[14].
[15].
[16].
[17].
[18].
[19].
[20].
[21].
H. El Badaoui, A. Abdallaoui, I. Manssouri et H. Ousmana, “The prediction of moisture through the
use of neural networks MLP type , ”IOSR Journal of Computer Engineering Vol. 11, 66-74p, 2013.
H. Vassiliki Mantzari, H. Dimitrios Mantzaris, “Solar radiation: Cloudiness forecasting using a soft
computing approach, “ Journal Artificial Intelligence Research, Vol 2 n° 1, p. 69-80, 2013.
M. A. Ammar, “ Mise en oeuvre de réseaux de neurones pour la modélisation de cinétiques réactionnelles en vue de la transposition batch/continu, ” Thèse de doctorat de l‟I.N.P. – Toulouse –194 p,
2007.
S. Chabaa, “ Identification des systèmes non linéairement utilisant les techniques d'intelligence artificielles et les bases de fonctions de la guerre pour la modélisation des données du trafic dans les réseaux internet, ” Thèse de Doctorat, Univérsité Cadi Ayyad, Faculté des Sciences Semlalia-Marrakech,
187 p, 2011.
I. Manssouri, M. Manssouri, B. El Kihel, “Fault Detection by K-NN algorithm and MLP neuronal
networks in distillation column,” Journal of information, Intelligence and knowledge, Vol.3, pp.57-72
2011.
M. Bélanger, N. El-Jabi, D. Caissie, F. Ashkar, J. M. Ribi, “ Estimation de la température de l‟eau en
rivière en utilisant les réseaux de neurones et la régression linéaire multiple, ” Revue des sciences de
l‟eau, 18,3: 403-421, 2005.
G. Mustafaraja, “Prediction of room temperature and relative humidity by autoregressive linear and
nonlinear neural network models for an open office,” Energy and Buildings, p. 1452–1460, 2011.
A. Zouidi, A. Chaari, M. Stambouli et Fnaiech F., “ Nonlinear continuous time modeling of a high
pressure mercury vapor discharge lamp using feed forward back-propagation neural networks, ” IEEE
2004, Yasmine Hammamet, Tunisie, 2004.
K. Dahmani, G. Notton, R. Dizène et C. Paoli, “Etat de l‟art sur les réseaux de neurones artificiels appliqués à l‟estimation du rayonnement solaire, ”Revue des Energies Renouvelables, Vol. 15 N°4 687 –
702, 2012.
O. Kisi, E. Uncuoglu, “Multi-layer perceptrons with Levenberg-Marquardt training algorithm for suspended sediment concentration prediction and estimation, ” Journal des Sciences Hydrologiques, 16p,
2004.
O. Kisi, E. Uncuoglu, “Comparison of three back-propagation training algorithms for two cases studies,” Indian Journal of Engineering and Materials Sciences, Vol.12, October, p.434-442, 2005.
L. Hontoria, J. Aguilera, Riesco, J. Zufiria, “Recurrent neural supervised models for generating solar
radiation,” Journal of Intelligent and Robotic Systems, Vol. 31, 201–221p, 2001.
A. Mellit, S.A. Kalogirou, L. Hontoria, S. Shaari, “Artificial intelligence techniques for sizing photovoltaic systems, ”A review, Renewable and Sustainable Energy Reviews, Vol 13, 406-419 p, 2009.
C. Voyant, ”Prédiction de séries temporelles de rayonnement solaire global et de production d‟énergie
photovoltaïque à partir de réseaux de neurones artificiels, ” Thèse de doctorat, Université de CorsePascal Paoli, Ecole Doctorale Environnement et Société / UMR CNRS 6134 (SPE), 257p, 2011.
D. Bouaoune, M. Dahmani, ”Reconstitution de données climatiques pour l‟Algérie du Nord : application des réseaux neuronaux, ”Comptes Rendus Géoscience 342, 815–822, 2010.
P. Perez, A. Trier,”Prediction of NO and NO2 concentrations near a street with heavy traffic in Santiago », Atmospheric Environment,”Vol° 35, 1783-1789p, 2001.
N. Cheggaga, F. Youcef Ettoumi, ”Estimation du potentiel éolien, ”Revue des Energies Renouvelables,
99 – 105p, 2010.
N. Sarani, J. Soltani, S. Sarani, A. Moasheri, ”Comparison of Artificial Neural Network and Multivariate Linear Regression Model to Predict Sodium adsorption ratio (SAR) (Case Study: Sistan River,
Iran) , ” International Journal of Biological, Ecological and Environmental Sciences, Vol°1, 130-134p,
2012.
26