This file contains all the laboratory work realized in the
University of Brussels. 

The average grade obtained is 17.6/20 ...
LABORATOIRE DE PHYSIQUE


Le compteur Geiger.



Introduction


Le but de ce laboratoire est de découvrir et étudier le co...


Rayonnements ondulatoires:

Les rayonnements les plus populaires de cette catégorie sont ceux propres aux ondes
électrom...
d’électrons en cascade. La gaz devient alors conducteur pendant un bref délai (phénomène dit
« décharge ») et des ionisati...








Constatations/explications:


Sur ce graphe malheureusement, nous ne pouvons pas avoir une représentation visuelle...
Geiger. Si on calcule la pente du graphe pour des proportions propres à nos mesures, on obtient
une pente d’environ 0,0696...
Constatations/explications:
On a, pour la première photo, sur la partie gauche de l’écran, le signal du premier déclenchem...


Matériel:


- un compteur Geiger Gamma-Scout. Celui-ci sera utilisé sans filtre pendant tout la durée de
l’expérience.


...
Etant donné le niveau très faible d’activité du bruit de fond, il est normal que sur des mesures
d’une seconde, nous obten...


2) Source radioactive


Matériel:


-Le même compteur qu’avant, sans filtre aussi.

-Source radioactive faible, Césium 12...
notre source. On remarque alors que cette constante ne l’est pas, puisqu’elle dépend aussi de la
distance à la source, on ...
contiennent sont aléatoires.



Ici aussi, nous avons séparés nos résultats en 2 parties, 250 puis 250 autres mesures.
250...


Annexe:


Source :


-https://fr.wikipedia.org/wiki/Rayonnement_ionisant#Rayonnements_X_et_gamma
-http://e2phy.in2p3.fr/...
FRANCK HERTZ



Introduction 



La dualité onde-corpuscule



Au cours des siècles, la lumière fut un réel sujet de disco...
Celle-ci se note: 







où h est une nouvelle constante naturelle introduite par Planck. Elle représente en quelque sort...
nouvelles équations. Ce sujet mériterait une tonne de pages d’explication, mais, afin de ne pas
trop digresser, seul un rés...
pas de fonctions d’onde pour les photons car leur masse est nulle. Cependant, il existe un moyen
d’obtenir quelque chose d...
Vu le caractère totalement fixé des orbites stables, il est évident que les électrons d’une couche
d’un atome ont tous un s...


Explications



En appliquant une différence de potentiel aux électrodes, on observe une accélération des
électrons, due...






CONDUCTANCE QUANTIQUE



Introduction




Principe d’exclusion de Pauli



L’état quantique d’une particule est défin...
Ce concept de mécanique quantique est un peu un complément du modèle de Bohr. Il découle du
principe d’exclusion de Pauli....
L’oscilloscope possède une résistance interne Ri. Nous possédons également un multimètre. 



Explications



La partie pr...


https://fr.wikipedia.org/wiki/Amplitude_de_probabilité

https://fr.wikipedia.org/wiki/État_quantique

https://fr.wikiped...
LABO FLUIDES


Partie 1 : Ecoulement visqueux



Introduction


Cette partie du laboratoire ne comprendra qu’une expérienc...
2) Viscosité


Le terme viscosité est dans notre language bien défini. Lorsque l’on parle de viscosité, on
s’imagine du mie...


Dans ces paramètres, on trouve forcément la surface du fluide qui est mise en contact avec le
matériau responsable des fo...
et une autre plaque qui l’entraine un peu dans son mouvement, est immobile, ou presque. Si on
rajoute une plaque entre les...
sortie est plus élevée que la pression à l’entrée, il y’a peu de chance d’observer un écoulement.. 

On peut donc, en fais...


•Régime turbulent
Comme expliqué au point 1, un fluide dans un tel régime évolue selon un mouvement tout à fait
désordonn...
notamment de nous parfumer ou encore de voyager en avion. 

Experience 



Tout ce qui nécessite un calcul a été développé...




Résultats, analyses et calculs d’erreur:
Ce tableau donne les différentes valeurs de la perte de charge et du débit po...
Graphique
Sur ce graphique, on peut facilement différencier les 2 types de régime. L’écoulement laminaire
correspond aux 4...








La viscosité de l’eau à 19,75°C trouvée est donc de (1,15421±0,19243)x10^-3 Pa.s

La valeur théorique, que l’on pe...


On remarque que le graphe est, forcément, exactement le même que celui du débit. 



Voici les valeurs utilisées :


Cal...
PARTIE 1: L’optique géométrique


Introduction


1°) Quelques définitions :


-Lentille: Les lentilles sont des objets géné...
Ce schéma représente un système optique classique. Le point A est l’objet, A’ l’image, F le foyer
objet et F’ le foyer ima...
ses variables, chacune des dérivées étant multipliée par l’erreur possible sur la variable. 

Prenons un exemple pour expl...


-Calcul d’incertitude :


Lors de la mesure, nous avions sur notre latte une précision au mm. Cependant, nous ne pouvion...
-Schéma:







-Résultats:




( Calcul d’incertitude en annexe ) 



La valeur trouvée concorde plutôt bien avec celle t...
d’=f et d=∞ . On a un objet à l’infini et une image à la distance focale. Les rayons repassent dans
la lentille et converge...


L’erreur sur lo est 0,1 cm et celle sur li est estimée à 1cm.


Nous avions antérieurement mesuré la distance focale f1....
-Mesures:







-Calcul d’erreur

(Voir annexe pour un developpement)

On estime l’erreur sur d2 et d1 à 1mm et sur d1’ e...




Lorsque D=f2, l’image est sur la lentille. C’est pourquoi à partir de 19 cm nous ne pouvions plus
mesurer.



Calculs ...
C’est évidemment pareil pour f:



Annexe


Calculs d’incertitude:

Rapport de laboratoire
: Son et coax
a) Quelques notions d’acoustique
Le son est une onde mécanique progressive. Cela sign...
des variations de pressions par rapport à la pression d’équilibre. On peut
lui donner le nom d’onde longitudinale de press...
Ainsi, l’onde acoustique, bien qu’évoluant par propagation de
perturbation, répond à une équation d’onde. C’est cette prop...
a)Analyse Préliminaire : émetteur et micro
Demandons-nous tout d'abord si le micro détecte le déplacement
longitudinal de ...
c) Analyse de la propagation du son dans le tuyau ouvert à
son extrémité
Dans le cas où le tuyau est ouvert à son extrémit...
d) Mesure de la vitesse du son dans l'air : cs
Nous allons ici mesurer expérimentalement la vitesse du son dans l'air afin...
J/mol.K), T est la température ambiante en kelvin (T= 22,8°C=295,8 K ;
avec une incertitude de 0,5°C à la mesure) et Mm es...
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Physics lab
Prochain SlideShare
Chargement dans…5
×

Physics lab

7 vues

Publié le

0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
7
Sur SlideShare
0
Issues des intégrations
0
Intégrations
1
Actions
Partages
0
Téléchargements
1
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Physics lab

  1. 1. This file contains all the laboratory work realized in the University of Brussels. 
 The average grade obtained is 17.6/20 (highest grade in BA2).
 
 Ce fichier reprend l’ensemble des rapports de laboratoire réalisés à l’Université de Bruxelles. 
 La moyenne obtenue est de 17.6/20 (plus haute note des BA2).
  2. 2. LABORATOIRE DE PHYSIQUE 
 Le compteur Geiger.
 
 Introduction 
 Le but de ce laboratoire est de découvrir et étudier le concept de rayonnement ( ou radiation, un synonyme). Pour ce faire, nous allons dans un premier temps travailler sur un compteur Geiger, puis étudier les propriétés d’une source radioactive, dans un second temps. 
 
 Il serait regrettable de parler de radiation sans au préalable introduire quelques notions importantes: 
 1) Une définition:
 « Un rayonnement, synonyme de radiation, désigne le processus d'émission ou de transmission d'énergie impliquant une onde, une particule. » 
 Il faut savoir que la radioactivité est due au désir de stabilité du matériau (nucléon) instable qui la provoque.
 Ce changement d’état provoque une libération d’énergie, différant selon les rayonnements émis, et donc les désintégrations subies par les nucléons d’une source donnée. 
 
 
 2) La définition implique qu’il existe plusieurs types de rayonnement. On distingue 2 catégories : 
 - Les rayonnements ondulatoires : Dans ce cas, l’énergie est propagée sous forme d’une onde
 Ex: Lumière émise par le soleil, radiation indispensable à la vie telle que nous la connaissons. 
 - Les rayonnements particulaires: Dans ce cas, l’énergie est propagée via des particules.
 Certains de ces rayonnements sont dits « ionisants », c’est à dire possédant une énergie suffisante pour ioniser un atome (typiquement supérieur à 13.6 eV ), ceux-ci sont aussi « pénétrants », c’est à dire capable de traverser la matière, parfois tout en l’ionisant, et donc possèdent un caractère potentiellement dangereux pour les êtres vivants. 
 Ex: Rayonnement de protons, d’ions lourds d’autres sont dits « non-ionisants », c’est à dire qu’ils ne possèdent pas l’énergie suffisante pour ioniser un atome ( typiquement inférieur à 13.6 eV sauf exception ), ceux-là ne pénètrent pas la matière.
 Ex: Ondes radioélectriques 
 
 Certains rayonnements peuvent appartenir aux 2 catégories, c’est cependant un sujet délicat et hors-contexte pour notre travail. 
 Ex: Rayonnement électromagnétique ( lumière ) ; peut être vu comme un flux de photons ou comme la propagation d’une onde électromagnétique. 
 
 3) Au sein de ces groupes de radiations existent des sous-groupes, dépendant du type d’ondes émises pour le premier cas et du type de particules envoyées pour le second cas. En voici une liste non-exhaustive : 

  3. 3. 
 Rayonnements ondulatoires:
 Les rayonnements les plus populaires de cette catégorie sont ceux propres aux ondes électromagnétiques, c’est pourquoi les exemples cités ci-dessous correspondront à ces ondes sous différentes formes, correspondants à leurs différentes fréquences. 
 - Fréquences élevées : Micro-ondes, ondes radios,..
 
 - Fréquences moyennes : On a , pour de plus fortes fréquences, des infrarouges, et pour de plus faibles fréquences, des ultra-violets ( UV ). Entre ces 2 stades se situe la lumière et la palette de couleurs qu’elle adopte telle que nous la connaissons. 
 
 
 -Fréquences faibles : Rayon X, rayon gamma, ..
 Rayonnements particulaires :
 
 -Ionisants : Rayon alpha, rayon beta, rayon gamma, rayon X, flux d’ions lourds,..
 -Non-ionisants : Champ libre de neutrons, micro-ondes,.. 
 4) Les 3 types de radiation mis en évidence dans les paragraphes précédents ( alpha, beta, gamma) sont ceux qui nous intéressent dans le cadre de ce laboratoire. Ils nécessitent donc une brève définition : 
 - Alpha : Le rayonnement alpha se caractérise par l’éjection d’une particule alpha, soit d’un noyau d’Hélium, constitué de 2 protons et de 2 électrons.
 -Beta: Le rayonnement beta se caractérise par l’éjection d’un électron ou d’un positron, accompagné d’un neutrino et d’un anti-neutrino.
 -Gamma: Le rayonnement gamma se caractérise par l’éjection d’un photon de haute énergie tout en mettant en jeu un rayonnement électromagnétique. Ce type de rayonnement est repris dans les 2 catégories citées au point 2.
 
 
 
 
 
 
 
 
 PARTIE 1: Compteur Geiger
 
 Quelques explications:
 
 -Tube Geiger : 
 Le principe est simple, c’est une structure tridimensionnelle ( cylindrique, rectangulaire..) traversée par un fil métallique et remplie d’un gaz sous faible pression. La structure fait office de cathode, le fil d’anode. Le tube, bien que maintenu sous haute-tension, ne provoque pas l’ionisation du gaz sans le passage d’un rayonnement ( alpha, beta ou gamma ), déclenchant des arrachements
  4. 4. d’électrons en cascade. La gaz devient alors conducteur pendant un bref délai (phénomène dit « décharge ») et des ionisations en chaîne peuvent suivre. L’intensité du signal rendue dépend de la tension appliquée au tube : 
 •Tensions faibles>Chambre d’ionisation: les électrons et ions se dirigent vers les électrodes. 
 •Tensions intermédiaires>Mode proportionnel: les électrons entrainent la libération de charges secondaires. On peut observer une proportion entre l’ionisation initiale (tension d’entrée) et le signal de sortie. 
 •Tensions fortes>Mode Geiger: les électrons provoquent des interactions secondaires, tertiaires, et il y’a saturation. Il n’y a plus de proportion entre l’ionisation initiale et le signal observé. 
 
 -Temps mort : 
 Quand un rayonnement ionisant pénètre à l’intérieur du tube Geiger, il ionise le gaz qu’il contient, provoquant des réactions en chaîne. Le détecteur saturant au bout de quelques centaines de coups par seconde, il existe une période, appelée « temps mort », pendant laquelle il ne détecte plus rien. Aucune décharge ne peut être observée par le signal de sortie.
 
 -Temps de récupération:
 
 Pendant et après le temps mort se situe une autre période avant laquelle le signal obtenu ne peut atteindre la même amplitude que celle atteinte avant le temps mort. Cette période est le temps de récupération. [Question 1]
 
 Matériel: 
 -Tube Geiger « fait maison », avec un curseur pour la tension appliquée,qu’on lit sur un Voltmètre.
 -Oscilloscope digital
 -Source radioactive faible, Césium 127. 
 But de l’expérience: Détermination de la région Geiger et étude de ses propriétés.
 
 
 Procédure: 
 -Région Geiger: 
 Nous avons fait varier la tension appliquée aux bornes du tube jusqu’à déterminer à partir de quelle tension le régime Geiger est obtenu. Une fois celui-ci déterminé, nous avons augmenté, par incrémentation de +10V, la tension appliquée au tube. On peut tracer un graphe, supportant comme axe horizontal la tension appliquée, et comme axe vertical la tension reçue, tension d’entrée de l’oscilloscope. 
 
 Photo du graphe: 
 
 
 
 
 

  5. 5. 
 
 
 
 Constatations/explications: 
 Sur ce graphe malheureusement, nous ne pouvons pas avoir une représentation visuelle de la région Geiger.On s’attend à ce qu’après une certaine valeur (303 Volts) et une forte croissance de tension résultante (Ue), on obtienne une région ±stable. Le mode proportionnel correspondant à la croissance citée dépend de la tension appliquée . La région stable l’est car elle ne dépend justement pas de la tension appliquée. C’est le régime Geiger. En effet, une fois le cap des 303 volts dépassé, la tension à la sortie n’augmente presque plus lorsqu’on augmente la tension d’entrée. Sur notre graphe, on remarque que l’échelle des 2 axes n’est pas la même, pour cause de manque de place. C’est ce qui nous empêche d’obtenir un effet visuel des résultats de l’expérience. C’est pourquoi nous en avons fait un deuxième:
 
 Sur celui-ci, à échelle logarithmique en base néperienne, on peut clairement observé la région
  6. 6. Geiger. Si on calcule la pente du graphe pour des proportions propres à nos mesures, on obtient une pente d’environ 0,0696. En théorie, elle est supposée rester totalement stable, et donc posséder une pente nulle sur le graphe, mais il existe pourtant une certaine croissance. C’est donc que même en mode Geiger, une certaine proportion est conservée entre tension d’entrée et de sortie. Bien que s’opposant à la théorie, ce résultat est tout à fait logique: au fur et à mesure que la tension d’entrée augmente, il se produit de plus en plus d’arrachement d’électrons initialement suite au déclenchement. La tension résultante n’en est que plus forte. C’est pourquoi, bien que la tension appliquée ne joue un rôle qu’avant l’atteinte de ce régime Geiger, on peut déceler une certaine pente sur notre graphe.
 En portant en graphique Ue/U en fonction de U, on obtient presque une droite , de coefficient angulaire typiquement proche de 0.0002. Cela prouve donc la très faible dépendance entre tension d’entrée et de sortie en régime Geiger. Recherche du temps mort: 
 
 Notre moyen de recherche du temps mort fut purement visuel. Nous avons configuré l’oscilloscope de manière à ce qu’il affiche le signal d’une première réaction complète, ainsi que le signal des n réactions suivantes pour la même tension d’entrée que la première. Nous avons « laissé tourner » l’oscilloscope le plus longtemps possible, afin d’obtenir la trace d’un énorme nombre de déclenchement, et donc la plus exacte des périodes pour le temps mort. Une fois ces opérations effectuées, le travail est simple: Compter le nombre de cases entre le moment où le signal est perdu et celui où il est retrouvé, faire un simple calcul de proportion et ainsi obtenir la valeur en seconde du temps mort. Ce travail peut être effectué d’une manière similaire pour obtenir le temps de récupération entre chaque déclenchement.
 Voici ce que nous avons obtenu:
 
 

  7. 7. Constatations/explications: On a, pour la première photo, sur la partie gauche de l’écran, le signal du premier déclenchement, et sur la partie droite, les signaux des n suivants. On remarque alors cette région plate, qui nous montre l’effet de saturation du compteur. On peut aussi maintenant facilement trouver une valeur fiable du temps mort. Celui ci approche les 117 micro-secondes. La 2 ème photo, elle, nous fait constater une partie du caractère aléatoire des désintégrations. En effet, on remarque que les temps morts et temps de récupération entre 2 déclenchements ne sont jamais égaux.
 
 PARTIE 2: Désintégrations aléatoires
 
 Quelques explications: 
 Comme l’indique le titre de cette partie, le but des expériences qui vont suivre est d’étudier le caractère aléatoire des désintégrations nucléaires. Pour traiter les mesures que nous allons prendre, nous utiliserons 2 outils mathématiques, appelés fonction de densité de probabilité. Le premier est la distribution discrète de Poisson, qui, dans notre cas, nous donnera la probabilité d’obtenir un nombre donné de désintégrations en un certain temps. Le seul paramètre dont elle dépend est la moyenne des désintégrations. Le second est la distribution Gaussienne, loi très adaptée pour étudier des phénomènes aléatoires. Elle prend en compte une moyenne, mais aussi une variance, qui représente le taux de dispersion de la distribution.
 
 1) Bruit de fond
 
 Le bruit de fond symbolise le niveau de radiation ambiante.

  8. 8. 
 Matériel: 
 - un compteur Geiger Gamma-Scout. Celui-ci sera utilisé sans filtre pendant tout la durée de l’expérience.
 
 But de l’expérience: Mesurer le niveau de radiation ambiante.
 
 Procédure:
 
 -Mesure sur un temps long: 
 
 On pose le compteur en activant son minuteur. Celui-ci compte le nombre de désintégrations dans l’air ambiant sur le temps donné. On effectue plusieurs mesures de temps différents. Plus la période de mesure choisie sera longue, plus la donnée déduite pour le taux de radiation ambiante sera précis.
 On a compté :
 1 min : 17 désintégrations 
 2 min : 40 désintégrations
 10 min : 120 désintégrations
 50 min : 1106 désintégrations
 On obtient dont une moyenne de 0.347 désintégrations par seconde.
 
 
 Mesure sur un temps court: 
 On effectue un maximum de mesure d’un temps très bref; ici, 150 mesure d’une seconde. Les colonnes bleues représentent le nombre de coups comptés et les colonnes oranges le nombre de coups attendus selon la formule de Poisson, pour une valeur donnée. Le graphique parle de lui- même.

  9. 9. Etant donné le niveau très faible d’activité du bruit de fond, il est normal que sur des mesures d’une seconde, nous obtenions un nombre très faible de désintégrations, typiquement 0, et que ce nombre ne dépasse pas les 3. Cependant, il arrive que ce nombre soit 1 ou 2. Les désintégrations ne se font donc pas de manière constante.
 
 
 Une fois les données récoltées, on a séparé les résultats obtenus en 2 colonnes , la première comprenant les 75 premières valeurs et la 2ème les 75 suivantes.
 En bleu les 75 premières mesures, en orange les suivantes.
 
 
 - On remarque que les résultats sont cohérents. En effet, pour les 150 mesures, on a une moyenne de 0.35 désintégrations par seconde, 0.354 pour les 75 premières et 0.346 pour les suivantes.
 Par contre, en comparant 2 à 2 les résultats, on voit que le nombre de coups reçus diffère d’une place de résultat à l’autre.
 En conclusion, on peut dire qu’il est impossible de prédire le taux de radiation que l’on recevra.
 
 [Question 2 : Il y’a une cohérence entre nos mesures sur des temps courts et nos mesures sur des temps longs. La moyenne ne diffère que de 0.053 coups par seconde.] 
 
 

  10. 10. 
 2) Source radioactive 
 Matériel: 
 -Le même compteur qu’avant, sans filtre aussi.
 -Source radioactive faible, Césium 127 
 But de l’expérience: 
 Connaître la dépendance à la distance du taux de radiation et étudier son caractère aléatoire.
 
 Procédure:
 
 
 -Intensité du rayonnement en fonction de la distance: 
 [Question 3: Le nombre de coups doit décroitre avec la distance. Si N est le nombre de coup, T la période d’exposition , d la distance et K une variable qui dépend du nombre de coup par seconde et par m^2, la loi devrait s’écrire : N=K.T/(R^x), avec R la distance entre le capteur et la source. En cogitant sur les unités des grandeurs impliquées, on peut déjà émettre l’hypothèse que x=2.]
 
 
 On place la source face au capteur mais à diverses distances de lui.
 On compte le nombre de coup reçu par période d’une minute. On peut ainsi calculer le nombre de coup par seconde de manière précise.
 La graphe représente l’inverse du nombre de coups reçus en fonction de la distance R entre la source et le capteur, sur une seconde. On remarque que c’est une droite, reflétant la dépendance quadratique entre le nombre de coup et l’inverse de la distance. Nous avions écrit précédemment que N=K.T/(R^x) , on peut maintenant écrire K=N.R^2/T et déterminer cette constante, propre à
  11. 11. notre source. On remarque alors que cette constante ne l’est pas, puisqu’elle dépend aussi de la distance à la source, on trouve au final que N=(0,375R^2-0,1175R + 0,1269).T/R^2.
 Ce graphique et ces formules tiennent dans le cas où la distance entre le capteur et la source ne varie que suivant un axe passant par les centres de ces 2 ci. De plus elles ne tiennent que pour notre capteur. Si on veut généraliser, on obtient : N=(1913,265R^2-599,489R+647,44).Sr.T/R^2
 Avec Sr la surface du capteur; le tout dans les unités SI.
 On peut cependant étendre cette formule à un cas tridimensionnel et définir l’intensité totale de la source. En effet, on considère le rayonnement émis par la source comme isotrope et réparti également sur une sphère dont le diamètre est la distance au détecteur. On a I=((Ns).∏.(R^2)/S avec R la distance entre le capteur et la source, S la surface du récepteur et Ns le nombre de coups par seconde pour la distance R choisie. Avec la formule trouvée précédemment pour le nombre de coups, on peut maintenant définir l’intensité reçue uniquement sur base de la distance à la source : I=(1913,265R^2-599,485R + 647,44).∏) 
 ainsi qu’un nombre de coups en fonction de l’intensité de la source, la surface du récepteur, le temps d’exposition et la distance à la source : N= I.S.T/∏R^2 .
 Pour notre source, il suffit de considérer R=0 et que le récepteur de surface S=1,96 cm^2 est situé à une distance nulle lui aussi de l’origine des processus de désintégrations. On trouve alors I=2034,02 Bq 
 
 
 -Statistique de Poisson pour la source: 
 La procédure est la même que celle du bruit de fond, sauf que l’on place la source radioactive près du compteur, à une distance suffisamment proche que pour pouvoir négliger le bruit de fond. Nous avons ici mesuré 500 périodes d’une seconde.
 
 On constate que la valeur la plus probable est 19 désintégrations par seconde selon Poisson, 20 selon Gauss. et que les probabilités croissent avant cette valeur et décroissent après. Nos résultats épousent à peu de choses près ceux attendus théoriquement. On remarque cette que la probabilités d’avoir 7 à 13 et 26 à 35 désintégrations est très faible, ou nul donc qu’il y’a plus de chance d’obtenir une valeur entre 14 et 26 désintégrations par seconde. Cependant, en prenant chacun des 3 écarts cités séparément, on voit que les probabilités pour les nombres qu’ils
  12. 12. contiennent sont aléatoires.
 
 Ici aussi, nous avons séparés nos résultats en 2 parties, 250 puis 250 autres mesures. 250 premières valeurs: 250 suivantes: [La légende est la même que celle utilisée pour le premier graphique ] On remarque que selon les moyennes et les probabilités, on obtient des résultats similaires. C’est logique puisque la source possède une intensité fixée. Cependant, en regardant chaque valeur séparément, on observe que les nombres diffèrent totalement, ajoutant la dernière pierre à l’édifice de la preuve caractère aléatoire des désintégrations.
 

  13. 13. 
 Annexe: 
 Source : 
 -https://fr.wikipedia.org/wiki/Rayonnement_ionisant#Rayonnements_X_et_gamma -http://e2phy.in2p3.fr/2002/presentations/champion.pdf -https://fr.wikipedia.org/wiki/Rayonnement_%C3%A9lectromagn%C3%A9tique 
 Questions :
 - Question 1 : Compte-tenu de votre observation, quelle est la période après déclenchement pendant laquelle la tension au bord du tube tombe en-dessous de la valeur Geiger? 
 -Question 2 : Y’a t’il une cohérence entre vos mesures pour des temps longs et des temps courts ?
 -Question 3 : Quelle loi attendez-vous pour le graphique du nombre de coups en fonction de la distance ?
  14. 14. FRANCK HERTZ
 
 Introduction 
 
 La dualité onde-corpuscule
 
 Au cours des siècles, la lumière fut un réel sujet de discorde. Sa nature était définie différemment suivant l’époque et les scientifiques notables qui vont avec. Ainsi, on était surs en certains temps qu’elle était une onde, et en d’autres un corpuscule. Après de nombreuses années de recherches et de nombreux travaux scientifiques, parmi lesquels se trouvent ceux de Newton, Maxwell, Huygens, Einstein, Planck,.. une théorie aussi simple qu’étonnante vit le jour : La dualité onde- particule. 
 Cette théorie née au 20 ème siècle spécifie que la lumière n’est ni une onde , ni une particule. Elle peut simplement agir avec les propriétés de l’un ou l’autre. Par exemple, la nature ondulatoire explique la plupart des phénomènes optiques, notamment la réfraction, et la nature corpusculaire résout bon nombre de problèmes de collisions. Certains phénomènes sont même compris indépendamment d’un choix particulier de cette nature. 
 D'un point de vue énergétique, on sait depuis longtemps comment une onde se comporte. Cependant, quelques surprises subsistaient. Certains faits ne pouvaient être expliqués par la nature ondulatoire de la lumière. L’exemple le plus connu est l’effet photoélectrique. Pour donner une raison à de tels effets, des recherches sont lancées et les tentatives de conclusion se suivaient. Finalement, l’idée la plus explicative et intéressante fut donnée par 2 grandes personnes. Planck et Einstein émirent l’hypothèse d’un «  corpuscule lumineux ». Planck, en étudiant le rayonnement du corps noir, compris que la distribution énergétique lumineuse n’était pas continue. Ses travaux, suivis de ceux d’Einstein, permirent d’affirmer que cette distribution était en fait discrète. L’énergie lumineuse est quantifiée. L’hypothèse d’un quantum de lumière était née. Ce quantum représente en fait la plus petite portion d’énergie lumineuse possible. Tout autre part énergétique n’est alors qu’un multiple du quantum. 
 
 Pour décrire cette relation énergétique, cette idée de quanta, Planck avait mis au point une relation, qui porte aujourd’hui le nom de relation de Planck-Einstein.
  15. 15. Celle-ci se note: 
 
 
 
 où h est une nouvelle constante naturelle introduite par Planck. Elle représente en quelque sorte la « taille » d’un quantum. Cette équation, bien que trouvée sans l’aide d’Einstein, porte tout de même son nom. Cela est du au fait qu’il fit une découverte majeure basée sur l’équation. 
 Il se servit de cette formule pour interpréter l’effet photoélectrique, ce qui lui permit de déduire que la lumière et ses quantas possédaient une impulsion. En d’autres termes, il fit évoluer l’idée de quanta lumineux vers l’idée de particules lumineuses: Les photons. 
 Ce qu’il faut comprendre en conclusion de ces travaux est que l’énergie électromagnétique ne peut être absorbée ou émise que par valeurs discrètes, que par multiple entier d’une quantité minimale d’énergie: celle portée par un photon. 
 
 Cependant, cette théorie de dualité ne s’arrête pas là. En 1924, Louis de Broglie étend les hypothèses faites sur la lumière à tout objet matériel. Il déclara : « Mon idée essentielle était d’étendre à toutes les particules la coexistence des ondes et des corpuscules découverte par Einstein en 1905 dans le cas de la lumière et des photons. » . Cette idée fut majoritairement soutenue et donna lieu à une pléthore de travaux. L’énorme avancée qu’apporte L. de Broglie fut l’équation qu’il associe à son idée. Celle-ci relie la quantité de mouvement d’une matière à une longueur d’onde. Elle relie donc ainsi une grandeur mécanique à une grandeur ondulatoire. 
 
 Plus précisément, on peut écrire de manière générale : 
 
 où p est définie comme la quantité de mouvement de l’objet, pouvant prendre en compte des effets relativistes. De plus, lorsque l’on s’intéresse à des particules de masse nulle, la quantité de mouvement est donnée par E/c, comme définit par les travaux d’Einstein sur la lumière. 
 Cette formule montre qu’à n’importe quel objet peut être associée une onde, dont la fréquence dépend de l’impulsion ou de l’énergie de l’objet. Elle n’exclut aucun objet, mais n’est en réalité adaptée qu’aux objets microscopiques. En effet, lorsque l’on traite de masses trop importantes, la constante de Planck devient négligeable et la longueur d’onde associée à l’objet est infime et inobservable. 
 
 On peut, sur base de cette formule, exprimer l’énergie cinétique d’un corps. On sait que : E=p^2/2m, et on trouve donc que E= ( FORMULE ). La fréquence de l’onde associer à l’électron donc augmente donc avec son énergie cinétique. Sur base d’une hypothèse de Planck relative aux molécules, L. De Broglie propose un nouveau concept en citant : « Cette hypothèse de cohérence nous oblige à reprendre entièrement la démonstration de la loi de Maxwell. Comme nous ne pouvons plus prendre chaque atome comme « objet » de la théorie générale, ce sont les ondes de phase stationnaires élémentaires qui doivent jouer ce rôle ». L’onde associée aux électrons est donc stationnaire. 
 La quantification de l’énergie et l’extension de la dualité onde-particule furent les premiers pas vers ce que l’on nomme aujourd’hui la physique quantique. 
 
 Fonction d’onde et équation de Schrödinger
 
 Avec la naissance d’une nouvelle théorie sont nées de nouveaux opérateurs et forcément de
  16. 16. nouvelles équations. Ce sujet mériterait une tonne de pages d’explication, mais, afin de ne pas trop digresser, seul un résumé serait fait ici.
 
 Lorsque l’on parle de mécanique quantique, on parle souvent de corps microscopiques ou subatomiques. La plupart des calculs théoriques se basent alors sur des probabilités. On peut se servir de densités de probabilité comme pour beaucoup de phénomène, mais il existe aussi d’autres fonctions propres à cette nouvelle théorie. Par exemple, il existe des « amplitudes de probabilités ». Ces fonctions sont particulières et, comme beaucoup d’autres en physique quantique, sont à valeurs complexes. Elles sont liées à la probabilité d’observer un objet dans un état particulier.
 
 En mécanique quantique, le mot « état » n’a pas le même sens qu’en mécanique classique. Un état est définit comme l’ensemble de toute l’information relative au système. Cependant, une grande nuance existe avec la mécanique classique. L’état quantique est défini indépendamment des grandeurs physiques observables. En effet, on ne pourrait connaître les propriétés d’un système en l’observant, peu importe l’instrument. Toute observation entrainerait perturbation. C’est pourquoi il faut requérir à des artéfacts de statistiques pour étudier le système. L’état quantique peut décrire la position, la vitesses, l’énergie,.. d’un système.
 
 Pour appliquer ces amplitudes de probabilités, il existe un outil fondamental en mécanique quantique: La fonction d’onde. Cette fonction représente l’état quantique d’un système. Elle prend en compte un vecteur d’état, qui décrit l’état d’un système selon une variable temporelle et l’associe à une amplitude de probabilité. Pour l’utiliser, il faut se munir d’une base ( dimension infinie ). Cette base n’a pas du tout le même sens qu’une base dans un espace euclidien. Elle correspond plutôt à différents états propres du système et permet d’ y exprimer un vecteur d’état ainsi que différents opérateurs. Par exemple, une telle base peut représenter un spectre de position possible pour un système donné. 
 
 Pour établir une telle fonction, il faut faire appel à de précis calculs. Il existe pour ce faire une équation célèbre et fondamentale, qui porte le nom de son inventeur : L’équation de Schrödinger. 
 Celle-ci décrit l’évolution temporelle d’une fonction d’onde. Il faut savoir qu’une fonction d’onde élevée au carré donne les densités de probabilité des résultats possible pour un système donné. Une telle équation est donc précieuse en mécanique quantique. Elle prend la forme suivante:
 
 
 où • i est l’unité imaginaire, •h la constante de Planck réduite (h/2π), l’hamiltonien, opérateur permettant de définir l’énergie d’un système,
 
 la position observable
 
 l’impulsion observable
 
 
 
 C’est en quelque sorte l’équivalent de la loi du mouvement de Newton en mécanique classique. Cette équation décrit l’évolution dans le temps d’une particule massive non-relativiste. Il n’existe
  17. 17. pas de fonctions d’onde pour les photons car leur masse est nulle. Cependant, il existe un moyen d’obtenir quelque chose de similaire en travaillant les équations de Maxwell et celles de Dirac. Bien qu’on appelle l’équation ci-dessus «  l’équation de Schrödinger », son nom devrait être « les équations de Schrödinger » car il en existe autant qu’il existe de problèmes physiques. 
 
 Pour terminer, il est intéressant d’expliquer d’où vient la dénomination «  fonction d’onde ». 
 Ce nom vient du fait qu’une telle fonction donne des propriétés d’onde à n’importe quelle particule, plus précisément des propriétés d’interférence. C’est donc un pont entre la nature corpusculaire et ondulatoire d’un corps, une véritable représentation de la dualité onde-particule. 
 
 Le modèle de Bohr 
 
 Le modèle de Bohr est une théorie visant à expliquer d’un atome. Bien qu’importante pour le monde de la physique, sa théorie est incomplète, voire erronée dans certains cas. Cependant, une part de celle-ci est tout à fait intéressante pour notre expérience. En effet, le modèle de Bohr s’avère explicite et utile lorsque l’on parle de quantification (sub)atomique d’énergie. 
 
 Aux environs des années 1900, l’atome est toujours un mystère pour la communauté scientifiques. Par exemple, Max Planck, n’était même pas convaincu de son existence, ce qui le poussa à croire que ses résultats sur la quantification était absurde. L’électron n’a été identifié que depuis peu ( 1897 ) par Thomson. Il le considère comme une charge élémentaire électriquement négative. Pour lui, l’atome est une soupe de charges positives dans laquelle barbotent des électrons de telle sorte qu’il soit neutre.
 
 Bien sûr, cette hypothèse fut vite abandonnée, suite à la découverte d’une charge positive et par la suite la mise en évidence du fameux proton par Rutherford en 1911. Il proposa donc son propre modèle atomique. Celui-ci est tout à fait similaire à la représentation d’une planète et de ses satellites, où la planète est un noyau dense positif et les satellites des électrons sur des orbitales circulaires. Cependant, les lois de Maxwell, presque axiomes de la physique, assurent qu’une charge en accélération émet un rayonnement électromagnétique. S’en suit une perte d’énergie, qui ne pourrait permettre à un électron d’orbiter sans limite autour du noyau. Celui-ci devrait forcément s’approcher progressivement de la charge positive et s’y écraser. Les orbites décrites par Rutherford sont totalement instables. 
 
 C’est alors qu’arrive Niels Bohr en 1913. Il écrit un article introduisant 3 postulats, aussi pertinents les uns que les autres. Ses postulats sont initialement basés sur l’atome d’hydrogène, mais restent valables pour tout atome. 
 
 Le premier postulat réfute légèrement l’hypothèse de Maxwell. Il dit qu’un électron n’émet pas toujours de rayonnement. Il existerait des orbites stables et les électrons s’y trouvant ne perdent aucune énergie électromagnétique. Ils peuvent y rester indéfiniment. Chacune de ces couches stables, dites stationnaires, correspond à un niveau particulier d’énergie. Plus l’orbite est éloignée du noyau, plus le niveau énergétique de ses électrons est important. En d’autres termes, plus il faudra d'énergie pour arracher cet électron de sa couche. Cela se comprend par l’augmentation de vitesse que provoque un éloignement du noyau, bien qu’un autre effet soit une chute de potentiel électrique. Tout les électrons d’une même couche sont à un même stade énergétique. Les orbites ne sont pas purement aléatoires, seules certaines sont physiquement possibles. 
 Le deuxième postulat est celui qui motive notre expérience. Bohr affirme qu’un électron peut passer d’une orbite stable à une autre. Ce passage est dû à l’absorption d’un quantum d’énergie, conformément à la relation de Planck-Einstein. On peut associer à un électron une fréquence particulière, comme expliqué précédemment, et on peut donc remplacer le terme « E » par « ∆E » et ainsi plutôt parler de différence d’énergie, liée à la différence de niveau énergétique des orbites.
  18. 18. Vu le caractère totalement fixé des orbites stables, il est évident que les électrons d’une couche d’un atome ont tous un seuil d’énergie propre. Seul une excitation suffisante permet donc une transition électronique d’une couche d’énergie inférieure vers une couche supérieure. Le phénomène inverse peut se produire. Un électron peut passer à une couche de niveau inférieur en émettant le surplus énergétique sous forme de photon, toujours conformément à Planck-Einstein. Le troisième postulat explique comment sont quantifiés ces couches électroniques. Il indique que pour l’atome d’hydrogène, la quantification de l’énergie repose sur la quantification du moment cinétique des électrons. Les orbites permises sont telles que le moment cinétique d’un électron placé dessus soit un multiple entier de la constante réduite de Planck: mrv=nh . Le moment cinétique des électrons orbitants autour du noyau est donc complètement quantifié. On peut alors prédire quel sera le rayon des différentes couches, lui aussi forcément quantifié. De plus, comme le moment cinétique découle d’une énergie, on déduit que cette énergie est elle aussi quantifiée. Elle s’exprime sous la forme : En=(π.h.n)^2/(2.m.L^2) où n est l’entier qui correspond à une couche électronique, m la masse de l’électron et L son moment cinétique par rapport au noyau. 
 Le niveau d’énergie propre à une couche est notée E0 ,E1 ,E2 , … tel que la croissance de l’indice correspond à la croissance du niveau énergétique. Cependant, le modele de Bohr est un peu simplifié. Son successeur, le modèle quantique, supprime les concepts de vitesses et de positions précises d'un électron. Il rend impossible l'orbite purement circulaire comme l’imaginais Bohr. 
 Bien que les postulats de Bohr parlent d’excitation photonique, une transition électronique peut avoir lieu suite à d’autres formes de transfert d’énergie, en accord avec la notion de dualité. Dans notre cas, ce transfert se fera par collisions inélastiques. 
 
 
 
 Experience But 
 Voir et comprendre l’énergie quantifiée. Montrer que cette quantification de vient pas seulement de celle de la lumière, mais bien des atomes, et plus précisément de leurs couches électroniques. 
 Matériel
 
 L’outil principal de cette expérience est un tube à Mercure, similaire au tube Geiger. 
 Celui-ci est équipé d’une cathode et d’une anode à différence de potentiel variable. Face à chacune de ces électrodes se trouvent des grilles possédant elles aussi un potentiel électrique. 
 Nous pouvons ajustez le potentiel de chaque électrodes grâce au programme LabVIEW, qui permet également d’augmenter par pas constants la différence de potentiel entre les électrodes. Nous possédons un panneau sur lequel nous créerons le circuit adapté à l’expérience voulue. 
 
 L’anode est reliée à un ampèremètre et les données sont récupérées par le programme. Ce dernier crée une courbe reflétant l’intensité du courant transmis par l’anode en fonction de l’augmentation de la différence de potentiel. L’intensité correspond alors au nombre d’électrons reçus à chaque instant ( I=dQ/dt ). 
 
 Ce tube est relié au circuit et posé dans un four. Ainsi, nous pouvons faire varier la température du four et donc décider du niveau de vaporisation du Mercure dans le tube.

  19. 19. 
 Explications
 
 En appliquant une différence de potentiel aux électrodes, on observe une accélération des électrons, due également à la proximité de la grille chargée électriquement. Un flux d’électrons est donc créé de la cathode vers l’anode. Ce flux traverse un « nuage » de Mercure. Il est alors possible d’obtenir des collisions entres les électrons du courant et ceux des orbitales d’atomes de Mercure. Si l’énergie des électrons du courant est inférieure au seuil énergétique requis pour obtenir une transition électronique les chocs seront élastiques et il n’y aura pas d’excitation atomique. L’énergie fournie par les électrons n’est tout simplement pas suffisante. Par contre, si l’énergie cinétique des électrons est supérieure ou égale au seuil, le choc est inélastique. Un transfert d’énergie est alors effectué et l’électron libre perd son énergie. L’électron du Mercure gagne cette énergie et en possède donc assez pour passer sur une orbitale d’un niveau énergétique supérieur. 
 
 
 Ce qui est intéressant avec cette expérience, c’est qu’elle permet de mettre en évidence la quantification de l’énergie des particules. En effet, comme nous traitons d’espèces subatomiques, le nombre de collisions à chaque instant est énorme. Les statistiques sont donc d’une grande qualité. C’est pourquoi, pour des conditions équivalentes, les données récupérées pour la même expériences seront tout à fait semblables. Quand des électrons perdent leurs énergies, ils n’atteignent pas l’anode et le courant résultant en est réduit. En observant l’évolution du courant, on peut remarquer que le phénomène de transfert d’énergie n’arrive que pour certaines tensions, et donc pour certaines valeurs d’énergie cinétique des électrons. Ce résultat colle aux hypothèses de Bohr des niveaux d’énergie. 
 
 Nous avons réalisé plusieurs types d’expériences avec ce dispositifs. 
 
 Premièrement, nous avons fait l’expérience classique de Franck-Hertz. 
 Le circuit est élaboré de telle sorte que les électrons suivent le schéma suivant:
 Ils accélèrent légèrement jusque qu’à la première grille, puis accélèrent constamment entre les 2 grilles où leur potentiel chutera jusqu’à ce qu’ils atteignent l’anode. 
 Avec cette expérience, le transfert d’énergie se passe toujours avec les électrons du niveau le plus faible. Ils ne possèdent pas une vitesse suffisante pour atteindre d’autres niveaux d’excitation.
 De plus, plus la tension augmente, plus les électrons possèdent d’énergie cinétique. Ils peuvent donc, après un certain délai, faire plusieurs collision inélastiques par passage. Il faut pour cela que l’accélération électrique soit suffisamment forte que pour passer plusieurs fois d’une énergie cinétique presque nulle à l’énergie nécessaire à un choc inélastique. On ne peut observer de transition d’un ordre supérieur car la majeure partie de l’accélération des électrons se fait en plein « nuage de mercure ». La distance est trop longue que pour espérer atteindre une vitesse suffisante avant de perdre de l’énergie suite à une collision de premier ordre. 
 
 Deuxièmement, nous avons modifié notre circuit pour étudier l’ionisation du Mercure. La différence entre les 2 circuits est l’absence d’un potentiel dans la grille proche de l’anode et l’élévation de la tension d’accélération entre la première grille et la cathode. Dans ce cas, les électrons accélèrent fortement avant d’arriver à la grille. Ils possèdent donc une énergie cinétique supérieure, permettant d’obtenir une ionisation des atomes de Mercure. De plus, la 2ème grille étant hors du circuit, les électrons n’atteignent pas l’anode. Le courant, après ionisation, est donc constitué d’ions Hg+. 
 
 Finalement, nous avons formé un circuit permettant d’atteindre d’autres niveaux d’excitation. On peut ainsi observer des sauts d’énergie de niveaux supérieurs. 
 
 Grâce à LabVIEW, nous pouvons analyser ces phénomènes et en tirer des conclusions. 
 

  20. 20. 
 
 
 CONDUCTANCE QUANTIQUE
 
 Introduction 
 
 Principe d’exclusion de Pauli
 
 L’état quantique d’une particule est définit par des nombres quantiques. On peut voir ses nombres comme les coordonnées du vecteur d’état décrit précédemment. Chaque nombre quantique définit la valeur d’une quantité conservée dans la dynamique d’un système quantique. 
 Le principe d’exclusion de Pauli stipule qu’il est interdit pour un fermion appartenant à un système basé sur un ensemble de fermions d’avoir exactement les mêmes nombres quantiques qu’un autre fermion du système. 
 Les fermions sont une des 2 catégories de particules élémentaires ( bosons et fermions ). Ces 2 clans se différencient par la méthode statistique d’analyse à laquelle ils obéissent: Statistique de Fermi-Dirac pour les fermions, statistique de Bose-Einstein pour les bosons. 
 
 Ce principe est très intéressant, cependant, dans le cadre de ce laboratoire, nous nous intéressons à un fermion en particulier: l’électron. Ce dernier peut-être entièrement définit par 4 nombres quantiques, qui, comme leur nom l’indique, prennent des valeurs quantifiées. On retrouve alors:
 
 n: nombre quantique principal : Définit la majeure partie de l’énergie de l’électron ainsi que son orbitale (taille). Les valeurs qu’il peut prendre sont celles de l’ensemble des naturels non-nuls
 l: nombre quantique secondaire : Définit principalement la forme de l’orbitale. Varie de 0 à n-1
 ml : nombre quantique magnétique : Définit les orientations des orbitales possibles d’un électron. Il peut prendre toute valeur entière comprise en -l et +l. Il dépend donc directement du nombre précédent.
 ms : nombre quantique de spin : Définit le spin de l’électron : +1/2 ou -1/2. Ce nombre est totalement indépendant des autres. 
 
 Une conclusion importante pour notre travail est que, d’après le principe de Pauli, chaque niveau d’énergie E n’a le droit d’accommoder que 2 électrons de spins opposés. 
 
 Energie de Fermi 
 

  21. 21. Ce concept de mécanique quantique est un peu un complément du modèle de Bohr. Il découle du principe d’exclusion de Pauli. Dans un système, des fermions ne peuvent occuper un même état quantique. Ce principe fonctionne donc aussi pour l’énergie. Dès lors, pour un système contenant plusieurs fermions, chaque fermion occupe un état quantique différent. Ces différents états sont comblés suivant une croissance de l’énergie. Ainsi, les premiers états seront occupés par des fermions de plus basses énergie, et plus le système contiendra de fermions, plus des états de niveau supérieurs pourront être atteints. C’est ce qu’il se passe avec les électrons et le noyau de l’atome. 
 
 On appelle alors énergie de Fermi l’énergie du fermion qui occupe le plus haut état quantique à 0 Kelvin. En théorie, la matière possède donc toujours des électrons animés au zéro absolu. Leur vitesse est appelée vitesse de Pauli. Elle donne lieu à une énergie cinétique égale à celle de l’énergie de Pauli. 
 
 Le filament conducteur
 
 Un interrupteur repose sur le contact qu’il y’a entre 2 conducteurs électriques. Lorsque l’on ferme l’interrupteur, on rompt ce contact. Bien que l’effet arrive subitement, on estime en fait que la rupture du contact n’est pas instantanée. On suppose qu’il existe de fin filaments conducteurs qui relie toujours les 2 parties. Le nombre de filaments diminue jusqu’à la rupture définitive. Plus le nombre de filaments décroit, plus la conduction en cette partie du circuit est faible. 
 
 Lorsque l’on considère le dernier filament présent avant une rupture totale du contact, la conduction est purement liée aux atomes. On parle alors d’ « électron de conduction » . 
 En se servant de l’énergie de Fermi, du principe de Pauli, des travaux de De Broglie, d’équations d’ondes et d’hypothèses sur le filament, on peut dans un premier temps lui donner une taille qui permettra d’estimer l’intensité du courant qui y passe. 
 On trouve finalement que I=2.e^2.N.V/h , où N désigne le nombre de canaux ouverts. 
 Une comparaison simple avec la Loi d’Ohm V=RI permet d’obtenir une forme générale de la résistance et donc de la conductance électrique G, définie comme 1/R. 
 
 On trouve G= 2.(e^2)/h
 
 Si il ne reste qu’un filament, la conductance vaut juste : 2.e^2/h et est nommée « conductance quantique fondamentale et universelle ». A cette conductance est forcément associée une résistance portant le même titre. Ces grandeurs ne dépendent pas du tout de la matière du conducteur en question. Le dernier filament à peu près la grandeur de 1 ou 2 atomes. C’est en quelque sorte la conductance à l’état pur. 
 
 
 
 Expérience
 
 But 
 Observer la quantification de la conductance électrique.
 Mesurer la conductance quantique fondamentale. 
 
 Matériel
 
 Nous sommes munis d’un circuit électrique on ne peut plus classique: 2 résistances ( R1 et R2 ), un oscilloscope (O), un interrupteur (K) et un générateur de courant continu (E). 

  22. 22. L’oscilloscope possède une résistance interne Ri. Nous possédons également un multimètre. 
 
 Explications
 
 La partie pratique de l’expérience, à l’inverse de ce qu’elle cache, n’est pas très haletante. Nous avons commencé par mesurer la valeur des différentes résistances. Ensuite, nous avons régler la tension aux bornes du générateur ( ~10V ). Pour finir, nous avons configurer l’oscilloscope pour l’adapter à notre expérience ( 5mV/division ). Cet oscilloscope est dit « à mémoire de grande précision » et permet donc une visualisation précise du comportement du courant. Tout ce que nous avions à faire était alors d’ouvrir l’interrupteur et d’analyser le signal reçu. Une prise de données efficaces nous permet alors d’observer des paliers à l’ouverture du générateur. 
 
 Ces paliers correspondent à différentes valeurs de conductance. En effet, le nombre de canaux ouverts décroit avec l’ouverture de l’interrupteur. Comme la conductance liée à ce nombre de canaux, elle décroit de manière discrète. Il en est de même pour l’intensité du courant par simple application de la loi d’Ohm :V=R.I ou V=I/G. Il nous est donc possible d’obtenir une valeur expérimentale de la conductance quantique. 
 
 
 

  23. 23. 
 https://fr.wikipedia.org/wiki/Amplitude_de_probabilité
 https://fr.wikipedia.org/wiki/État_quantique
 https://fr.wikipedia.org/wiki/Densité_de_probabilité
 https://fr.wikipedia.org/wiki/Albert_Einstein
 http://forums.futura-sciences.com/physique/419603-equation-de-schroedinger-photon.html
 https://fr.wikipedia.org/wiki/Équation_de_Schrödinger
 https://fr.wikipedia.org/wiki/Erwin_Schrödinger
 https://fr.wikipedia.org/wiki/Louis_de_Broglie
 https://www.youtube.com/watch?v=9BR1p0kZBIE
 https://fr.wikipedia.org/wiki/Hypothèse_de_De_Broglie https://fr.wikipedia.org/wiki/Couche_électronique
 https://fr.wikipedia.org/wiki/Niveau_d%27énergie
 https://fr.wikipedia.org/wiki/Expérience_de_Franck_et_Hertz
 https://fr.wikipedia.org/wiki/Modèle_de_Bohr
 https://fr.wikipedia.org/wiki/Représentation_de_Heisenberg
 https://fr.wikipedia.org/wiki/Orbitale_atomique
 https://fr.wikipedia.org/wiki/Transition_électronique
 https://fr.wikipedia.org/wiki/Hypothèse_de_De_Broglie
 https://fr.wikipedia.org/wiki/Case_quantique
 https://fr.wikipedia.org/wiki/Spin
 https://fr.wikipedia.org/wiki/Nombre_quantique
 https://fr.wikipedia.org/wiki/Principe_d%27exclusion_de_Pauli
 https://fr.wikipedia.org/wiki/Fermion
 https://fr.wikipedia.org/wiki/Statistique_de_Fermi-Dirac
 https://fr.wikipedia.org/wiki/Énergie_de_Fermi

  24. 24. LABO FLUIDES 
 Partie 1 : Ecoulement visqueux
 
 Introduction 
 Cette partie du laboratoire ne comprendra qu’une expérience. Cependant, avant de parler techniquement de celle-ci et de ce qui l’entoure, il y’a quelques notions qui se doivent d’être introduites. 
 1) Ecoulements 
 Stationnaire: Se dit d’un écoulement qui ne dépend pas du temps. 
 
 Laminaire: Ce type d’écoulement est caractérisé par la stabilité. 2 points distincts d’un fluide en écoulement laminaire se trouvant à une distance d l’un de l’autre se trouveront toujours à cette distance dans le cas d’un écoulement utopique ( pas de perte d’eau, pas d’obstacle sur le chemin,.. ). Il correspond à un ordre de vitesses assez faible ( typiquement <20cm/s pour un tube de 1 cm de diamètre). On peut donc estimé facilement quelques grandeurs liés au mouvement d’un fluide en tel écoulement par des outils mathématiques.
 
 Turbulent: Ce cas correspond aux autres circonstances d’écoulement. Il n’y a plus vraiment d’organisation du mouvement. On peut souvent assister à la formation de tourbillons dans un tel régime. Il correspond à des vitesses plus importante, mais peut aussi être atteint à cause d’obstacle sur la trajectoire d’écoulement. Il existe un cap de vitesse à passer pour qu’un fluide passe d’un type d’écoulement à l’autre. 
 Ex: Bougie 
 

  25. 25. 2) Viscosité 
 Le terme viscosité est dans notre language bien défini. Lorsque l’on parle de viscosité, on s’imagine du miel couler, puis de l’eau couler, par exemple, et l’on sait très bien que les 2 liquides ne se comporteront pas de la même manière. On se dira que le miel est plus visqueux par rapport à l’eau qui, elle, est plus fluide. Cette description de la viscosité est évidemment très basique, mais soulève un point intéressant. En effet, lorsqu’on imagine ce terme, on fait souvent un rapport direct avec l’écoulement. 
 
 Alors, que se passe-t-il lorsqu’un fluide s’écoule ? Et bien, sans surprise, celui-ci subit l’action de forces de frottements, appelée forces de viscosité. Celles-ci s’opposent au mouvement du fluide. 
 Il est alors naturel de penser que lorsqu’un fluide gagne en viscosité, les forces de frottements gagnent en énergie. Cela est facile à conclure car ça explique directement pourquoi du miel reste collé à une surface sur laquelle de l’eau ruisselle sans problème. On introduit donc un premier élément: Le coefficient de viscosité ( « éta » , ici noté N ). Celui-ci est propre à chaque fluide et directement proportionnel à la force de frottement subie. En voici quelques exemples : 
 On constate d’une part que la viscosité n’est pas proportionnelle à la masse volumique du fluide, et d’autre part, pour en revenir à l’exemple précédent, que la viscosité du miel est 1 000 000 supérieure à celle de l’eau. Ce nombre est énorme. Une question émerge alors, est-ce que ce nombre est constant ? Il est facile de se convaincre que non. Un exemple assez parlant est celui de la bougie (une assez large, pour l’exemple). Lorsque l’ont éteint la flamme, il reste autour de la mèche une ”mare” de cire. Si on penche directement la bougie, celle-ci s’écoule à vitesse raisonnable. Lorsque la bougie est éteinte depuis un certain intervalle de temps, on sait que la température de la mare diminue et que la cire fondue tend peu à peu vers un état solide. Si on penche la bougie, disons au milieu de ce processus, la cire s’écoulera beaucoup plus lentement, et cette différence de vitesse croitra tant que la cire est toujours amenée à évoluer vers son état solide, donc à chuter dans les températures. On peut en déduire que la viscosité diminue (augmente) lorsque la température du fluide augmente (diminue). Aussi, on sait que la vitesse d’écoulement du miel dans les mêmes conditions que l’eau n’est pas 1 million de fois plus faible. Les forces de viscosités doivent donc prendre en compte d’autres paramètres. 

  26. 26. 
 Dans ces paramètres, on trouve forcément la surface du fluide qui est mise en contact avec le matériau responsable des forces. Il est logique que plus il y’a de surface pour frotter, plus les forces de frottements prennent de l’ampleur. Un exemple bien concret est celui de la peinture. Si on place exactement la quantité que porte un pinceau dans un pot, la peinture s’est écoulée du sceau au pot, normal. On prend ensuite la peinture avec le pinceau et on l’étale contre un mur. Elle ne coule plus, et fort heureusement.
 
 Enfin si, parfois elle coule, et cela nous embête. Quand obtient-on des coulées lorsque l’on peint ?
 Cela arrive quand on met trop de peinture sur le pinceau et que la surface est trop faible que pour tout étalé. On a donc des endroits où il y’a plus de peinture qu’à d’autres. D’accord, mais la surface en contact reste la même. Il y’a donc un paramètre à rajouter pour raccorder les chiffres à la réalité. Si il y’a plus de peinture d’un coté que de l’autre pour une surface donnée, c’est que le paramètre qui les différencie est le volume de peinture. Comme la surface est constante, c’est la hauteur (L) de la peinture qui varie, hauteur qui prend comme origine le point de contact entre le fluide et une surface. Pour une surface constante; plus il y’a de peinture, plus il y’a de volume, plus la hauteur est grande. Mais plus il y’a de peinture plus l’écoulement est fort. On en conclut que plus la hauteur est grande, plus l’action des forces de frottement sera faible. 
 
 Mais les coulées, atteignent-elles toujours le sol ? L’expérience prouve que non. Mais qu’es qui les empêchent? Notamment 2 choses: 
 
 D’abord, il est aisé de penser que les forces de frottements compensent la (somme des) force(s) qui est à l’origine du mouvement. C’est bel et bien le cas. On peut donc définir une vitesse limite constante: vmax (Par soucis de facilité, ici parfois notée v). En connaissant les paramètres énoncés précédemment pour un certain fluide, on peut trouver facilement cette vitesse limite, notamment en prenant comme moteur du mouvement l’action de la gravité. On a que v est proportionnel à la force exercée sur le fluide et à la hauteur de celui-ci, et inversement proportionnel à la surface en contact, car on sait que les forces de frottement aident à une diminution de la vitesse. On a v~F.L/ S . Comme on sait que la vitesse maximale correspond à l’égalisation des forces provoquant une vitesse et de la force de viscosité, on peut écrire F~v.S/L . La constante de proportionnalité entre les 2 membres n’est autre que le coefficient de viscosité. On a donc, proprement : 
 
 Fvisc = vmax.N.S/L 
 
 Maintenant, considérons une goutte en écoulement laminaire sur une surface solide. Celle-ci laisse une trainée derrière elle. Pour expliquer ceci, il ne faut plus voir le fluide comme une matière homogène, mais comme une superposition de plaques. Force est de constater que ces plaques ne se meuvent pas à la même vitesse. Il doit y avoir des forces de frottements entre ces plaques. SI on a 2 plaques, la plaque du dessus, n’étant en contact qu’avec l’air et la plaque en dessous, possède une vitesse maximale. La plaque du dessous, étant en contact avec la surface immobile
  27. 27. et une autre plaque qui l’entraine un peu dans son mouvement, est immobile, ou presque. Si on rajoute une plaque entre les 2, celle-ci sera d’une part freinée par la plaque immobile, et d’autre part accélérée par la plaque mobile. Elle possèdera donc une vitesse intermédiaire comprise entre 0 et le maximum. La logique reste la même en ajoutant une infinité de plaques. On en déduit donc que la vitesse décroit avec la profondeur ( z ). Si l’écoulement est stationnaire, la vitesse de chaque plaque est constante. Ainsi, la somme des forces exercées doit être nulle. On a donc que Fup=Fdown = force exercée sur la plaque. Prenons une plaque située à une profondeur z séparée d’une autre plaque par une distance ∆z. Soit v la vitesse de la plaque en z, et u la vitesse de la plaque en z+∆z. On trouve alors que :
 
 F=N.(u-v).S/∆z , valable pour tout ∆z tel que z+∆z ≤ L. 
 On peut transformer cette relation en équation différentielle en prenant ∆z—>0 . On introduit alors une grandeur, appelée constante visqueuse, notée « sigma » , et telle que :
 « sigma »= F/S=N.dv/dt . C’est une force par unité de surface. 
 
 La solution de cette équation est v(z)=vmax.z/L avec vmax= « sigma ».L/N. 
 
 On comprend maintenant pourquoi une goute qui coule sur un mur n’atteint pas toujours le sol: En voyant la modèle avec le fluide dessiné comme une superposition de plaques, on remarque que la plaque de vitesse nulle n’avancera pas. La plaque qui est au dessus d’elle, étant animée, chutera en amenant les plaques haut-dessus d’elle pour venir s’accoler à la première plaque, et ainsi de suite. Il reste donc à la fin une lignée de plaques de vitesse nulle ( la dîte trainée derrière la goutte ), et parfois même plus du tout de goutte. Cette diminution d’hauteur tend à faire augmenter les forces de frottements puisque L—>0 . 
 
 
 L’équation de la contrainte visqueuse, ou «  loi de viscosité de Newton » fonctionne pour une grande classe de fluides, appelés fluides newtoniens. De tels fluides sont caractérisés par l’indépendance de leur coefficient de viscosité et du gradient de vitesse. Celui-ci reste donc constant. Un fluide pour lequel ce coefficient augmente (diminue) avec le gradient de vitesse est appelé «  rhéo-fluidifiant » ( « rhéo-épaississant ») . 
 3) Débit 
 Un débit est, par définition, le rapport de la quantité de fluide qui traverse une certaine surface pendant un certain temps . Si on prend par exemple comme surface de référence le trou d’un robinet, le débit sera le volume de fluide passant par ce trou chaque seconde. Il a donc comme unité des m^3/s. On peut facilement trouver une relation entre la vitesse moyenne d’écoulement et le débit. En effet, on peut aussi définir celui-ci comme le produit d’une aire et d’une vitesse. On a D=A.v 
 Dans le cas d’un tube cylindre, on sait que A=π.r^2 , en posant d le diamètre du tube, on a :
 D=π.d^2.v/4 <=> vmoyen=4.D/π.d^2 . 
 
 4) Perte de charge
 
 Comme vu précédemment, il existe des forces de viscosité lors de l’écoulement d’un fluide.
 Si on considère un tube cylindre et qu’on reprend le modèle précédent avec les plaques, on peut deviner que la vitesse d’écoulement est maximale au centre et que celle-ci décroit lorsqu’on se rapproche perpendiculairement des parois du tube. Il parait donc tout à fait logique de s’attendre à avoir une perte d’énergie conséquente pendant l’écoulement, d’une part du aux contraintes visqueuses qu’entrainent les différences de vitesse, d’autre part par le contact qu’à le fluide avec toute la surface intérieure du tube. Dans le cas d’un écoulement dans un tuyau horizontal, on obtient un écoulement stationnaire que si il existe une différence de pression entre l’entrée et la sortie du tube. Cette différence de pression équivalente à la dissipation d’énergie est appelée « perte de charge » et permet de compenser la contrainte visqueuse du mouvement. Notons cette grandeur ∆P. On a ∆P=Pe-Ps>0. La positivité est logique et obligatoire. En effet, si la pression à la
  28. 28. sortie est plus élevée que la pression à l’entrée, il y’a peu de chance d’observer un écoulement.. 
 On peut donc, en faisant variant cette différence de pression, faire varier la compensation que l’écoulement subit, et par conséquent la vitesse de celui-ci, donc le débit. 
 
 5) Nombre de Reynolds
 
 Vu l’explication précédente, on se dit que plus le tuyau dans lequel un fluide s’écoule est long, plus chaque « tranche » de celui-ci sera exposée à une surface importante, plus les frottements seront importants. On peut donc envisager une proportion entre ∆P et L, la longueur du tuyau. Mais alors, on aurait besoin d’un tel ∆P pour un certain L peu importe quel fluide s’écoule dans quel diamètre de tuyau ? Cela n’est pas intuitif. Il existe donc un coefficient de proportionnalité entre ∆P et L qui doit dépendre des caractéristiques de l’écoulement. Les grandeurs utilisées ne doivent pas être choisies au hasard. En effet, il faut trouver quelles grandeurs influencent l’écoulement. Le tâche est assez simple car on sait que la masse volumique du fluide, sa viscosité et sa vitesse influent sur les forces de frottement qu’il subit. On sait également que si le diamètre du tube augmente, la surface d’exposition au fluide augmente, les forces de frottement avec. On cherche donc une fonction de ces 4 paramètres paramètres qui possèderait les mêmes unités que le rapport ∆P/L soit des Pa/m ou N/m^3 ou kg/m^2.s^2 . C’est dans la recherche d’une telle fonction qu’émerge le nombre de Reynolds. Ce nombre a la particularité d’être une combinaison adimensionnelle des 4 grandeurs évoquées. Notons le Re. On a 
 (1) Re=MV.vm.d/N Avec MV la masse volumique du fluide. 
 
 On peut alors continuer l’analyse dimensionnelle mais cette fois ci en exprimant un des arguments de la fonction cherchée selon les autres, grâce à la relation trouvée. On cherche donc une nouvelle fonction qui dépend du nombre de Reynolds et des 3 paramètres avec lesquels on a exprimé, comme expliqué, le 4ème. Au final, cette fonction ne dépend plus que de 3 paramètres dimensionnés. On trouve alors que 
 ∆P/L=N^2 . f(Re)/MV.d^3 . 
 f(Re) étant une fonction sans dimension qui dépend des 4 paramètres de départ de manière non- arbitraire ( elle respecte la disposition de l’égalité 1 ), l’équation trouvée est la seule combinaison possible pour obtenir une équivalence dimensionnelle entre les 2 membres. 
 
 
 6) Détermination de la fonction f(Re) 
 
 Il est difficile de trouver théoriquement une expression de cette fonction. Cependant, il est possible de traiter 2 cas particuliers classiques : 
 
 •Régime laminaire
 
 Par l’expérience, on sait que dans un tel type de régime, le débit est proportionnel à la perte de charges. On a D~∆P. Or D~vm et vm ~Re . Donc ∆P~Re. Vu l’équation établie précédemment , on a forcément que Re~f(Re). Finalement on a, grâce aux équations précédentes : ∆P/L ~ (N.vm)/d^2 On trouve après quelques proportions et relations une formule, appelée formule de Poiseuille pour le débit en régime laminaire: 
 
 D=(π.d^4.∆P)/(128.N.L )
 
 Cette formule reste valable tant que le nombre de Reynolds ne dépasse pas une certaine valeur, appelée valeur critique du nombre de Reynolds. Ce nombre correspond forcément à une vitesse critique, puisque c’est le seul terme dans la description de Re qui varie pour un système donné.
  29. 29. 
 •Régime turbulent Comme expliqué au point 1, un fluide dans un tel régime évolue selon un mouvement tout à fait désordonné, chaotique. Il en résulte de conséquentes pertes d’énergie lors d’un écoulement. En effet, la formation de tourbillons crée des différences de direction d’écoulement au sein du fluides. Utilisons le terme «  filet d’eau » comme désignant une partie de volume dV d’un jet de fluide. En régime laminaire, tous ces filets se dirigent vers une même destination, typiquement la sortie d’un tube. Cependant, lorsqu’il y’a des tourbillons, on comprend que certains de ces filets gardent le même sens qu’avant, mais que d’autres changent de sens et de direction et viennent donc s’opposer au mouvement des autres filets. C’est pourquoi le débit d’eau en régime turbulent augmente moins significativement qu’en régime laminaire avec l’augmentation de ∆P. 
 On arrive dans un tel type de régime pour des nombres de Reynolds dépassant théoriquement 2400. Cependant, pour des Re>100 000, on constate que f(Re)%Re^2. En jouant avec les formules comme précédemment, on obtient : 
 ∆P/L ~ (MV.vm^2)/d et
 
 D=π.d^2.vm/4 
 
 Il est donc possible de se servir du nombre de Reynolds pour caractériser un écoulement.
 En suivant la croissance de celui-ci, on distingue, dans l’ordre, 4 régimes : L’écoulement de Stokes ( les effets visqueux dominent sur l’inertie du mouvement ), l’écoulement laminaire, l’écoulement transitoire ( le titre est explicite ) et l’écoulement turbulent.
 
 7) Quelques lois intéressantes
 
 a) Bernoulli : 
 L’équation de Bernoulli est un pilier de la dynamique des fluides. Celle-ci donne en fait un bilan d’énergie propre à un écoulement. Celle-ci ne nous dit pas que l’énergie est conservée d’un point à un autre, mais nous indique que la somme des termes 0,5.MV.v^2 ( énergie cinétique par unité de volume) , MV.g.h ( énergie potentielle de gravité par unité de volume ) et p ( pression ) est constante lors d’un type bien précis d’écoulement. Pour que l’équation fonctionne, le fluide se doit d’être incompressible et parfait ( i.e masse volumique constante et pas de perte d’énergie ) mais l’écoulement doit aussi être irrotationnel, c’est à dire qu’il ne peut se former de tourbillons. Il est à remarque que l’équation ci-dessus à la dimension d’une pression. On peut corriger cette expression en ajoutant un ou plusieurs termes pour pouvoir traiter de fluides ne rentrant pas dans les hypothèses d’écoulement, notamment pour prendre en compte une perte de charge. 
 b) Loi de conservation du débit: 
 Comme son nom l’indique, cette loi indique que le débit est conservé lors de l’écoulement d’un fluide incompressible. Intuitivement, cela parait logique, car on se dit simplement que tout ce qui rentre dans le tube doit en ressortir. On peut formuler cette loi sous la forme: Ae.ve=As.vs . Si la section d’entrée est plus grande que la section de sortie du tube, le fluide s’écoulera plus rapidement à sa sortie, et vice-versa. 
 c) Venturi : 
 L’effet Venturi est en fait directement lié à l’équation de Bernoulli. Il faut supposer les mêmes hypothèses sur l’écoulement que pour Bernoulli, en ajoutant que la hauteur ne varie jamais. Si on diminue la section du tube, la loi de conservation du débit nous indique que la vitesse de l’écoulement va augmenter. Un des termes de l’équation de Bernoulli augmente donc, un autre doit diminuer pour obtenir un bilan constant. Le seul qui le peut, vu les hypothèses, est la pression. Ce petit mécanisme est à l’origine de bien utile accessoire de notre quotidien, nous permettant
  30. 30. notamment de nous parfumer ou encore de voyager en avion. 
 Experience 
 
 Tout ce qui nécessite un calcul a été développé au dernier point. 
 Matériel: 
 
 Le système est composé d’un tube de 3,01±0,06 mm de diamètre et de 1,005 ±0,005 m de longueur relié à une entrée d’eau. Ce tube est relié à sa sortie à un tuyau par lequel l’eau s’écoule dans un gros bac. Sur ce tuyau est inséré une valve, permettant de jouer avec la sortie d’eau et la pression vers le sortie. Entre l’entrée et la sortie se trouve 2 tubes intermédiaires, placés au dessus du premier et reliés à celui-ci par 2 colonnes verticales. Ces 2 nouveaux tubes sont parallèles au premier. Au bout d’une certaine longueur ( qui ne nous importe pas ), ces 2 tubes font un angle de 90° pour former 2 colonnes. Pour avoir une expérience correcte, il faut que chacun des tubes possèdent le même diamètre, ce qui est notre cas. Dans les 2 colonnes s’élève de l’eau. On remarque que l’eau dans la colonne 2 ( C2 ) est plus basse que dans la colonne 1 ( C1 ), ce qui est en accord avec la définition de la perte de charge donnée. Ces 2 tubes forment en fait un système pouvant servir de manomètre: La colonne C1 reliée à l’entrée du tube subit une certaine pression, et la colonne C2 reliée à la sortie, subit une différente pression. La différence de niveau entre les 2 colonnes marque donc la différence de pression entre les 2 extrémités du tube. Cette différence de pression nous indique qu’elle est la perte de charge pendant l’écoulement. Sachant que chacune des pressions se calculent par MV.g.h, avec, pour notre système, comme unique variable “h”, il nous suffit de mesurer ∆h pour avoir ∆P. 
 
 But de l’experience: 
 Détermination du coefficient de viscosité de l’eau
 Evaluation du nombre de Reynolds critique ( tube cylindrique ). 
 
 Procédure: 
 Dans un premier temps, on a relevé des valeurs du débit pour différentes valeurs de pertes de charges. On mesure à chaque fois la différence de hauteur entre les 2 niveaux d’eau dans les 2 colonnes. Ensuite, pour une différence choisie, on laisse l’eau s’écouler pendant un temps suffisamment long que pour obtenir une moyenne convenable et on en récolte chaque goutte dans un récipient. On pèse ensuite ce récipient, et, en connaissant sa masse lorsqu’il est vide, en déduisons le débit d’eau. Il est important, avant de commencer à prendre une mesure, de vérifier qu’il n’y aucune bulle d’air dans nos tubes comme il est important de vérifier qu’il n’y a aucune goutte d’eau dans le récipient. 
 Dans un second temps, on porte en graphique les valeurs trouvées afin de localiser les 2 types de régime. On en déduit ensuite le coefficient de viscosité de l’eau. On termine par comparer notre Re max à notre Re critique. 
 Données brutes: Ce tableau reprend les valeurs telles qu’on les a mesurée. Les masses sont donc celles qu’on a relevé, sans déduction de la masse du récipient.

  31. 31. 
 
 Résultats, analyses et calculs d’erreur: Ce tableau donne les différentes valeurs de la perte de charge et du débit pour une différence d’hauteur donnée. Il comprend aussi les incertitudes respectives à ces mesures. 
 Si on sépare ces données en une plage de 4 et une de 5, on constate que pour la première plage que le débit augmente en tout de 0,00262 L/s quand ∆P augmente de 1510,68 Pa et pour la seconde que D augmente en tout de 0,00362 L/s quand ∆P augmente de 5542,85 Pa. On a donc une augmentation moyenne de débit de 0,001734 mL/s par augmentation d’1 Pa pour les 4 premières valeurs de ∆h et une augmentation moyenne de 0,00065309 mL/s par augmentation d’1 Pa pour les 5 suivantes. Le débit augmente donc moins incisivement dans la 2ème zone. Cela est cohérent face à l’explication donnée sur les types d’écoulement, la première plage de données correspondant à un régime laminaire et la seconde à un régime turbulent. 
 Nous avons estimé faire une erreur de 1 cm sur la hauteur, car il était difficile de stabiliser les colonnes d’eau. L’incertitude sur la masse volumique doit tourner autour de 10 kg/m^3 car non seulement celle-ci change avec la température, mais elle change aussi avec la composition de l’eau, son niveau de pureté. Celle sur la masse est de 0,1g , et de 0,2 s sur le temps. 
 
 ∆h (cm) m (g) 9,2 327 13,9 430 19,9 557 24,6 641 34,9 732 47,2 795 59,5 876 77,1 996 91,4 1124 ∆h (m) ∆P (Pa) ∆(∆P) ( Pa) Dx10^-6 (m^3/s) ∆D x10^-8 ( m^3/s) 0,092 902,52 ±98,51 1,875 ±1,902 0,139 1363,59 ±99,04 2,733 ±2,772 0,199 1952,19 ±100,023 3,791 ±3,844 0,246 2413,2 ±101,02 4,491 ±4,554 0,349 3423,69 ±103,902 5,25 ±5,323 0,472 4630,2 ±108,47 5,775 ±5,855 0,595 5836,95 ±114,15 6,45 ±6,539
  32. 32. Graphique Sur ce graphique, on peut facilement différencier les 2 types de régime. L’écoulement laminaire correspond aux 4 premières valeurs et on en déduit une proportion linéaire entre D et ∆P, reflétée par la courbe reliant les points: Une droite. Une fois passé la 4ème valeur, on constate que la croissance est moins forte et qu’on ne peut directement lié l’augmentation de débit à l’augmentation de taux de charge. C’est caractéristique du régime turbulent.
 Veuillez excuser la qualité des barres d’erreur horizontales, celles-ci ont été tracée le plus précisément possible à la main, l’auteur n’ayant d’autre outil plus adapté.
 
 •Viscosité:
 
 On se sert du graphique de D en fonction de ∆P pour calculer N. Comme nous nous servons de la loi de Poiseuille, les seules valeurs qui nous intéressent sont celles du régime laminaire. Grâce aux barres d’erreur, on peut tracer 2 droites de régression prenant en compte les cas extrêmes d’erreur sur nos mesures. On prend ensuite le coefficient angulaire de chaque droite pour calculer N. La moyenne des 2 valeurs nous donnera une approximation correcte de la viscosité de l’eau. La température moyenne de l’eau était de 19,75°C. L’erreur sur le diamètre du tube est de 0,06 mm et celle sur sa longueur de 0,005 m. 
 0,771 7563,51 ±123,87 7,45 ±7,553 0,914 8966,54 ±132,902 8,516 ±8,634
  33. 33. 
 
 
 
 La viscosité de l’eau à 19,75°C trouvée est donc de (1,15421±0,19243)x10^-3 Pa.s
 La valeur théorique, que l’on peut trouver facilement sur internet, pour de l’eau pure est 1,002x10^-3 Pa.s. Celle ci se trouve entre les 2 valeurs extrêmes de nos résultats sur la viscosité. Nous avons donc trouvé une viscosité cohérente. 
 •Nombre de Reynolds
 
 -Critique: La frontière entre le régime laminaire et le turbulent est très mince. Notre valeur du nombre de Reynolds tendra donc plus de l’approximation que du résultat. 
 Pour calculer celui-ci, nous nous sommes servi des valeurs 4 et 5 de débit. En effet, le graphique nous indique que la valeur de débit ( donc vitesse ) critique se situe entre ces 2 ci. On calcule d’abord la moyenne de ces 2 valeurs, pour ensuite la diviser par l’aire d’un disque formé par le cylindre. On obtient ainsi la vitesse d’écoulement pour un tel débit. Il nous suffit alors de nous servir de la formule évoquée précédemment pour calculer le nombre de Reynolds critique. 
 La valeur que nous avons trouvée est de 1784,97 ± 324,22. Celle-ci est plus faible que la valeur théorique attendue, et c’est tout à fait justifié. En effet, étant donné les perturbations propres au milieu expérimental, il est normal que des perturbations au sein de l’écoulement naissent à des vitesses plus faibles que celles estimées théoriquement. 
 
 -Maximal: La méthode utilisée est la même, sauf qu’il n’est pas nécessaire de calculer une moyenne. La valeur trouvée est 3121 ± 525,92 . Cette valeur est plus faible que le double de la précédente, bien que la perte de charge aie plus que triplé entre ces 2 étapes. Le nombre de Reynolds nous décrit donc correctement l’écoulement et dresser un graphique de son évolution nous donnerait tout autant d’information sur les types de régime que le fait le premier graphique. 
 La preuve en image : 
 
 
 
 
 
 
 
 
 
 Pente max. Pente min Moyenne Erreur 1,9383289x10^-9 1,573232x10^-9 1,15421x10^-3 Pa.s ±0,19243x10^-3 Pa.s Viscosité min. Viscosité max 1,03421x10^-3 Pa.s 1,274227x10^-3 Pa.s
  34. 34. 
 On remarque que le graphe est, forcément, exactement le même que celui du débit. 
 
 Voici les valeurs utilisées : 
 Calculs Perte de charge ( Pa ) Nombre de Reynolds 902,52 687,16 1363,59 1001,60 1952,19 1389,35 2413,2 1645,89 3423,69 1924,05 4630,2 2116,46 5836,95 2363,84 7563,51 2730,32 8966,54 3121,00
  35. 35. PARTIE 1: L’optique géométrique 
 Introduction 
 1°) Quelques définitions : 
 -Lentille: Les lentilles sont des objets généralement fait d’un matériel isotrope et transparent, typiquement du verre ( optique ). Elles sont composées de 2 dioptres, qui dévient chacune les rayons lumineux. La lumière qui passe par une lentille subit donc 2 réfractions, sauf pour les rayons qui passent par le centre optique. Ce centre est compris sur un axe, appelé axe optique. Dans le cas de lentille sphérique, l’axe optique correspond à l’axe de révolution de l’objet. La forme d’une lentille est importante. Une lentille sphérique convexe aura pour effet la convergence des rayons qui la traverse, une concave la divergence. On appelle ces lentilles, respectivement, convergentes et divergentes. Aux lentilles s’associent quelques grandeurs caractéristiques, on retrouve notamment : 
 -Objet: Dispositif faisant office de source lumineuse. Un objet réel est par définition avant le système optique ( lentilles,..) visé. Un objet est virtuel si les rayons lumineux le rencontrent après le système optique 
 -Image: L’image d’un objet est la projection lumineuse de celui-ci. Elle est réelle lorsque les faisceaux lumineux convergent à la sortie de la lentille, et virtuelle lorsque les faisceaux divergent. 
 -Indice de réfraction: L’indice de réfraction est une grandeur sans dimension. Il sert à décrire le comportement de la lumière dans le milieu qu’il caractérise. L’indice de réfraction du vide est 1, et en général, cet indice est supérieur à 1 pour tout milieu non-vide. Les lentilles ont un indice de réfraction différent du milieu dans lequel elles se trouvent. 
 -Foyer/distance focale: En optique, un foyer est un point vers lequel convergent des rayons lumineux. Le foyer objet ( Fo ) est un point tel que des rayons partants de celui-ci ont une image à l’infini. Le foyer image (Fi) est un point tel que des rayons partants de l’infini convergent en celui-ci. Une distance focale objet ( image ) est la distance entre un système optique et son foyer optique (image). Lorsque l’ont place une lentille à une distance de l’objet supérieure à sa distance focale, on a une image réelle ( virtuelle ) pour des lentilles convergentes ( divergentes ). Si on la place avant, l’effet est inversé. Le foyer a un peu un rôle d’axe de symétrie puisque le passage par ce point entraine des effets opposés. Si on place la lentille exactement à la distance focale, les rayons sont parallèles à la sortie. Il existe aussi des systèmes optiques afocaux ( donc aucun foyer ). Des rayons parallèles le restent après passage dans ce type de système.
 Chaque lentille possède une distance focale propre constante. 
 -Courbure: Une lentille possède 2 courbures, celle de la face « d’entrée » et celle de la face «  de sortie ». Ces courbures impactent sur les trajectoires des rayons lumineux 
 -Schéma:

  36. 36. Ce schéma représente un système optique classique. Le point A est l’objet, A’ l’image, F le foyer objet et F’ le foyer image. Le point est o est le centre optique de lentille. De ces définitions découlent quelques formules et relations intéressantes: 
 2°) Méthode de calcul des incertitudes: 
 Les calcules d’incertitudes peuvent se faire de plusieurs manières. Nous avons décidé de ne pas nous en imposer une, mais de choisir à chaque expérience celle qui convenait le mieux. Les 2 méthodes utilisées sont les suivantes: 
 -Pour des valeurs sans calcul, c’est à dire trouvées directement par la mesure: 
 On calcule d’abord une moyenne : m = (∑x)/n
 Avec x les mesures et ne le nombre de mesures. 
 On calcule ensuite une variance : σ^2= (∑(x-m)^2)/(n-1) 
 Avec x les mesures, m la moyenne, n le nombre de mesures. 
 Ensuite, on divise la variance par le nombre de mesure qu’on a pris : σ’= σ^2/n . 
 On peut constater que plus l’on prend de mesures, plus l’erreur diminue. 
 Le résultat est finalement donné par m±σ’ 
 - Pour des valeurs avec calcul: 
 L’incertitude sur une grandeur est donnée par la somme des dérivées partielles de S par rapport à GRANDEURS FORMULES POSITIF NEGATIF Distance lentille-objet
 (d) / Quand l’objet est réel Quand l’objet est virtuel Distance lentille-image
 (d’) / Quand l’image est réelle Quand l’image est virtuelle Distance focale objet 1/f=1/d+1/d’ Quand la lentille est convergente Quand la lentille est divergente Rayon de courbure (R) [1/f=(nv/nw -1)(1/R+1/R’)
 nv=indice r. lentille
 nw=indice r. milieu ext.
 R,R’ : Rayons de courbure lentille. Surface convexe Surface concave Grossissement (G) f1/f2=li/lo
 li/lo représente la proportion de taille entre l’image et l’objet. / / Puissance (P) P=1/f Plusieurs lentilles éloignée de d—>0
 Peq=∑P Lentille convergente Lentille divergente
  37. 37. ses variables, chacune des dérivées étant multipliée par l’erreur possible sur la variable. 
 Prenons un exemple pour expliquer plus facilement. Le cas d’une surface est très simple à traiter. 
 Soit S une surface telle que S=l.d. Si on veut trouver S en mesurant l et d avec une lettre millimètrée, on peut se tromper d’1mm sur l et d. On a alors ∆d=∆l=1mm. 
 L’erreur sur S, ∆S est donnée par : ∆S= (S/l)’.∆l + (S/d)’.∆d .
 Les dérivées partielles sont prises en norme. 
 
 Expériences : 
 1) Détermination de la distance focale d’une lentille convergente. 
 On veut déterminer la distance focale d’une même lentille de plusieurs manières. Nous avons utilisé la lentille possédant une distance focale de 20cm. 
 a) Par une relation géométrique.
 
 -Matériel: 
 •Notre lentille, posée sur un rail graduée 
 •Une source lumineuse à l’extrémité du rail
 •Une diapositive avec lettre “F”.
 •Un panneau pour supporter l’image. 
 
 -Procédure: On allume la source lumineuse et on place une lentille en face. On déplace la lentille sur un axe perpendiculaire à celle-ci jusqu’à obtenir une image nette sur la surface de projection.
 Lorsque l’image est net, on mesure d et d’ et on se sert de la formule énoncée ci-dessus pour calculer f. 
 
 -Schéma:

  38. 38. 
 -Calcul d’incertitude : 
 Lors de la mesure, nous avions sur notre latte une précision au mm. Cependant, nous ne pouvions définir une position unique qui correspondrait à une netteté maximale de l’image. L’image était nette sur une plage d’environ 5mm. Nous avons donc pris ∆d=∆d’=0,6 cm
 
 -Resultats: 
 (Voir annexe pour le développement et les formules.)
 
 On trouve finalement que f=20,237±0,086 [Question 1: Lorsque d=f, l’image que l’on veut projeter se situe à l’infini. Elle ne sera jamais nette. Par calcul, c’est facile à avoir : 1/f=1/f +1/d’ <=> 1/d’= 0 <=> d’ —> (+)∞ . 
 Les rayons convergent parallèlement.]
 
 b) Par la méthode du miroir
 
 
 -Matériel:
 •Un miroir, à la place du panneau. 
 •La même diapositive qu’avant, avec une moitiée cachée par un papier blanc.
 
 
 -Procédure:
 
 On place un miroir là où on avait précédemment placé le tableau. L’image est alors redirige vers l’objet initial et se formera sur le plan définit par celui-ci. On déplace ensuite la lentille jusqu’à obtenir la projection de la lettre F sur le papier dans les mêmes proportions que le F de l’objet. On sait alors que la lentille est forcément à la distance focale objet, car les rayons doivent être parallèles pour que l’image reçue soit comme celle envoyée. Nous avons effectué 4 mesure de f.
 
 d d’ f ∆f 27,7±0,6 79,9±0,6 20,57 0,4021 27,1±0,6 78,5±0,6 20,145 0,3974 38,7±0,6 41,5±0,6 20,02 0,3935 30,6±0,6 59,3±0,6 20,18 0,5046 34±0,6 50,2±0,6 20,27 0,4542 Moyenne en cm : 20,237 0,086
  39. 39. -Schéma:
 
 
 
 -Résultats: 
 
 ( Calcul d’incertitude en annexe ) 
 
 La valeur trouvée concorde plutôt bien avec celle trouvée au point a, bien qu’elle soit un peu plus éloignée de la vraie valeur.
 
 
 
 [Question 2: Les rayons sont parallèles à la sortie de la lentille. En arrivant au miroir, ceux ci changent de sens mais restent parallèles. Le miroir fait office d’objet. Le système est alors tel que distance focale: f ( cm ) 20,1 20,6 20,5 20,6 Moyenne : 20,45 ± 0,119
  40. 40. d’=f et d=∞ . On a un objet à l’infini et une image à la distance focale. Les rayons repassent dans la lentille et convergent de manière classique vers le foyer. C’est pourquoi l’image est inversée. Le schéma montre cette inversion aussi. ] 
 c) Avec les rayons parallèles 
 -Matériel: 
 •Panneau
 •Objectif photographique (L1) et la même lentille qu’avant (L2)
 
 -Procédure:
 On modifie un peu notre dispositif d’avant: On place l’objet à la distance focale objet f1 d’une lentille L1. On obtient donc des rayons parallèles. On place ensuite la lentille L2 après la première sur le rail, la même qu’avant. L’image se forme à la distance focale de la deuxième lentille. On a d=f2. Il nous suffit donc de mesurer d (comme au point a ) pour avoir f2. L’image que l’on obtient est plus grande que celle de l’objet. Cela est du au fait que nous avons placé 2 lentilles au lieu d’une. En effet, la première lentille à une plus petite distance focale que la deuxième. L’image se forme donc plus “loin” que prévu. Il est donc facile, en mettant ceci en relation avec la formule du grossissement, de comprendre pourquoi notre système a un effet de zoom. 
 
 -Schema:
 
 
 
 
 
 
 -Résultats:
 
 L’erreur possible sur est f1 est de 0,6 cm comme avant, et celle sur f2 de 1 cm, car l’image restait nette malgré de conséquent déplacement du panneau. 
 Nous avons trouvé d=20,9±1,6 cm. 
 
 Pour avoir un élément de comparaison, on peut se servir de la formule du grossissement de système optique:
  41. 41. 
 L’erreur sur lo est 0,1 cm et celle sur li est estimée à 1cm. 
 Nous avions antérieurement mesuré la distance focale f1. On a f1=14,7 cm 
 On trouve d’après ces chiffres : f1/f2=1,46±0,0628=G 
 En mesurant la taille de l’objet la taille de l’image, on trouve G=1,5±0,035 
 ( Calculs en annexe ) 
 On peut donc être satisfait de notre mesure de f2, mais se douter que celle-ci est un peu plus petite que 20,9. 
 
 
 (* Pour L1, nous avons utilisé un objectif photographique. Ceux sont en fait composés de plusieurs lentilles. Les rayons lumineux rendus ont donc subit un effet plus “propre” qu’avec une simple lentille. Ce système corrige les aberrations et assure un meilleur parallélisme des rayons. ) 
 Conclusion: 
 La méthode qui nous permet de nous approcher au plus de la réalité est la plus classique: La première. Les autres nous donnent cependant une bonne estimation, et permettent d’appliquer quelques relations d’optique. 
 
 2) Détermination de la distance focale d’une lentille divergente
 
 En utilisant une image virtuelle: 
 Comme expliquer précédemment, lorsque f<0, l’image qu’on obtient est virtuelle, la lentille est divergente. Pour obtenir une image réelle avec une lentille divergente, on place d’abord une lentille convergente L1. Celle-ci renvoie une image I1 qui fera office d’objet pour la lentille divergente L2. La lentille a donc un objet virtuel. L’image qu’elle renvoie sera donc réelle.
 
 -Matériel: 
 •Une lentille convergente L1
 •Une lentille divergente L2
 •Rail avec spot lumineux
 
 
 -Procédure:
 
 On place la lentille convergente L1. On mesure grâce au panneau la distance d1’ qui sépare la lentille de l’image I1 qu’elle forme. On place ensuite la lentille divergente L2. On trouve d2 en mesurant l’espace entre les 2 lentilles. On cherche ensuite avec le panneau une image nette. On trouve alors d2’. On trouve ensuite la distance focale f2 de la lentille divergente par la même formule qu’avant. 
 

  42. 42. -Mesures:
 
 
 
 -Calcul d’erreur
 (Voir annexe pour un developpement)
 On estime l’erreur sur d2 et d1 à 1mm et sur d1’ et d2’ à 6mm comme précédemment. 
 N’ayant fait qu’une mesure, notre erreur est non négligeable: On trouve ∆f=0,705 cm
 
 On a donc finalement f= -16,47±0,705 cm. 
 3) Création d’un zoom
 
 Le dispositif que nous utilisons est le même que celui utilisé pour crée des rayons parallèles.
 Nous remplacerons cependant la lentille L2 par un combinaison de 2 lentilles : Une lentille convergente (L2) et une lentille divergente (L3) qu’on place à une distance D de L2. Si D—>0, les puissances des 2 lentilles s’additionnent pour donner une puissance équivalente. La relation agit donc sur les focales : (feq)^-1=(f2)^-1+(f3)^-1. Mais que se passe-t’il lorsque D≠0 ? 
 
 -Matériel: 
 •Objectif photographique (L1)
 •Lentille convergente (L2)
 •Lentille divergente (L3)
 •Rail avec spot, diapositive, panneau.
 
 -Procédure: 
 On fait varier la distance D entre les 2 lentilles; L2 reste fixée. La distance focale de la combinaison des lentilles varie aussi. On veut déterminer la relation entre D et la distance focale feq. On mesure ensuite le grossissement pour chaque mesure de D. 
 
 -Mesures: 
 Les mesures ont été faite en prenant comme origine la lentille L2.
 Nous avons aussi calculé f avec la formule du grossissement. Les mesures que nous utiliserons 
 ont été calculé par cette méthode.
 
 (d1) d1’ d2 d2’ f2 (43,7) 36,8 -10,4 28,2 -16,47 (cm) D f G 7 147 10 8 102,9 7 9 80,85 5,5 10 67,62 4,6 11 58,8 4
  43. 43. 
 
 Lorsque D=f2, l’image est sur la lentille. C’est pourquoi à partir de 19 cm nous ne pouvions plus mesurer.
 
 Calculs d’incertitude:
 
 L’erreur sur le grossissement changeait à chaque mesure. Nous avons donc trouvé plus simple de prendre le formule de la variance pour le calcule d’erreur. Comme on a déduit f de G, on ne fait que le calcul d’incertitude sur G :
 ∆G:
 Moyenne: 4,2
 Variance: 5,83
 Variance (moyenne):0,485
 
 
 
 
 -Graphiques: 
 G en fonction de D On remarque que G décroit de manière exponentielle lorsque D augmente. 12 55,86 3,8 13 49,98 3,4 14 44,1 3 15 36,75 2,5 16 35,38 2,4 17 32,74 2,2 18 29,4 2 19 /////////// //////////
  44. 44. C’est évidemment pareil pour f:
 

  45. 45. Annexe 
 Calculs d’incertitude:

  46. 46. Rapport de laboratoire : Son et coax a) Quelques notions d’acoustique Le son est une onde mécanique progressive. Cela signifie qu’elle est due à la propagation d’une perturbation locale. Cette perturbation évolue selon 3 dimensions. Ce type d’ondes ne peut se déplacer que dans un milieu matériel. Dans des conditions idéales, ç’est à dire dans un milieu homogène de dimension infinie, la perturbation est au même niveau en chaque point de l’espace. L’acoustique est la science qui étudie ce type d’ondes. Etant donné l’obligation d’un milieu matériel, des lois de l’acoustique se rapportent plutôt à la thermodynamique. En effet, le milieu de propagation est souvent un fluide et subit des déformations explicables par cette théorie. On retrouve 3 lois fondamentales en milieu fluide: i) L’équation d’Euler Cette équation s’applique à des fluides parfaits. Elle dérive de la loi fondamentale de la dynamique ( F=ma ) . C’est une équation quelque peu générale, mais qui permet, en la couplant à d’autres informations, de décrire le mouvement du fluide. Elle se note: où p désigne la pression, ρ la masse volumique de fluide, g l’accélération gravitationnelle et a l’accélération du fluide en mouvement. ii)Conservation de la masse Cette loi formule ce que son nom indique. La propagation d’une onde est un phénomène au cours du quel on n’observe pas de variation de masse. iii)Loi de compressibilité du fluide : On peut caractériser complètement un fluide en utilisant 4 variables thermodynamiques : Sa température ( T ), sa pression ( P ), son entropie ( S ), son volume ( V ). Le son, en se propageant dans un fluide au repos, crée
  47. 47. des variations de pressions par rapport à la pression d’équilibre. On peut lui donner le nom d’onde longitudinale de pression. Pour décrire ces fluctuations, il existe une loi générale : Partie 1 : La propagation du son 1) Introduction où Cv désigne la capacité calorifique du fluide, Xs son coefficient de compressibilité adiabatique, ß le coefficient d’augmentation de pression isochore ((∂p/∂T)/p) .
 En se servant de cette équation dans le cas où le fluide ne subit que des transformations adiabatiques, sans effets dissipatifs ni transferts thermiques, on obtient une équation caractérisant une variation de pression et donc la compression du fluide : Les 3 lois cités ci-dessus peuvent être manipulée pour obtenir une équation d’onde. Ainsi, dans le cas d’un fluide homogène et invariant ( grandeurs thermodynamiques indépendantes du temps ), on obtient:
  48. 48. Ainsi, l’onde acoustique, bien qu’évoluant par propagation de perturbation, répond à une équation d’onde. C’est cette propriété qui permet de faire des liens entre nos 2 laboratoires.
 Pour certaines fréquences, on peut alors se ramener à un cas d’ondes stationnaires. Pour expliquer explicitement les cas qui existent, nous prendrons l’exemple le plus simple : Celui-d’une corde. On appelle alors noeud la position où l’onde s’annule et ventre la position où elle présente un extremum. Un noeud est toujours séparé d’un ventre par une distance d’un quart de longueur d’onde. Notons cette distance « d » . Dans le cas où une extrémité de la corde est fixée et l’autre est libre ( tube ouvert d’un seul coté ), on obtient des ondes stationnaires pour des longueurs de cordes valant un multiple entier impair de d. On a L=(2n +1).d ; où n représente le nombre de noeuds qui se formeront. Une onde est renvoyée avec changement de signe dans le cas d’un noeud à l’extrémité, et sans changement de signe dans le cas d’un ventre. Dans le cas où les 2 extrémités sont libres ou fixées ( tube ouvert ou fermé de chaque coté ), on obtient des ondes stationnaires pour des longueurs de corde valant un multiple entier pair de d. L=2n.d . Il y’a pas de différence entre le cas 2 fois ouvert et le cas 2 fois fermé car pour le premier, il y’a un ventre de chaque coté, et pour le second, un noeud. Une simple translation temporelle d’une valeur d’un quart de longueur d’onde sépare donc un cas de l’autre. Cette translation n’affecte pas la longueur d’onde, et donc des ondes stationnaires se formeront pour une longueur L selon la même loi dans les 2 cas. 2)Expérience
  49. 49. a)Analyse Préliminaire : émetteur et micro Demandons-nous tout d'abord si le micro détecte le déplacement longitudinal de l'air ou bien la variation de la pression provoquée par le passage du son. Le micro détecte bien la variation de pression car on se rend compte qu'il enregistre sans être en face de l'émetteur.
 On se rend également compte que chaque signal passe plusieurs fois devant le micro, car le son est réfléchi au bout du tuyau. On peut ainsi conclure que le premier pic qu'on observe sur l'oscilloscope sur le channel du micro, détecté un peu après l'émission du son, correspond au premier passage devant le micro. Le second, détecté un peu après, correspond à la réflexion du son qui repasse devant le micro et ainsi de suite. Le signal devient de plus en plus faible à chaque réflexion pour finir par ne plus être détecté. b) Analyse de la propagation du son dans le tuyau fermé à son extrémité Lorsque l'extrémité du tuyau est bouché, on s'attend d'après la théorie à ce que le signal soit réfléchi sans changer de signe, car le micro mesure la variation de pression de l'air. Comme nous pouvons l'observer sur l'oscilloscope, c'est bien le cas, le premier et le second pic sont bien de même signe.
  50. 50. c) Analyse de la propagation du son dans le tuyau ouvert à son extrémité Dans le cas où le tuyau est ouvert à son extrémité, on attend un changement de signe entre le premier et le second pic. En effet, la condition au bord du tube est fixée à la pression atmosphérique. On observe bel et le changement attendu entre le premier et le second pic.
  51. 51. d) Mesure de la vitesse du son dans l'air : cs Nous allons ici mesurer expérimentalement la vitesse du son dans l'air afin de la comparer avec les résultats théoriques. La longueur L du tube est de (1,00 ± 0,01)m et le temps t entre deux pics, et donc entre deux passages du signal, que nous avons mesuré à l'oscilloscope est de (5,8 ± 0,5)ms. On trouve alors la vitesse par le simple calcul : cs = 2L/t = 344,83 m/s On trouve l'erreur sur la vitesse par le calcul Δv/v = [(Δt/t)2 + (ΔL/L)2 ]1/2 
 On obtient donc finalement : cs = (344,83 ± 29,85) m/s
 La valeur théorique attendue à la température du laboratoire est de 343,4 m/s. Nous sommes donc très proches de la valeur attendue, et notre incertitude couvre bien cette valeur. Nous allons maintenant déterminer si cette valeur correspond à une transformation adiabatique ou isotherme.
 Pour une propagation adiabatique, on a la formule
 où C est une constante liée à la nature atomique ou moléculaire du gaz pris en compte (C=7/5 pour l'air), R est la constante des gaz parfaits (R=8,314
  52. 52. J/mol.K), T est la température ambiante en kelvin (T= 22,8°C=295,8 K ; avec une incertitude de 0,5°C à la mesure) et Mm est la masse molaire (Mm=28,97 g/mol pour l'air). On obtient donc cs = (344,74 ± 0,29) m/s pour une propagation adiabatique. L'erreur est obtenue par le calcul : Dans le cas d'une propagation isotherme, on a la formule
 Elle ne diffère de la précédente que par le facteur C.
 On obtient donc cs = (291,36 ± 0,24) m/s pour une propagation isotherme. On voit directement que la vitesse trouvée expérimentalement correspond presque parfaitement à une propagation adiabatique, l'incertitude couvrant la bonne valeur.
 Le fait que la propagation de l'air soit adiabatique et non isotherme peut également se déduire de l'équation des gaz parfaits : PV=nRT. On voit en effet que pour un gaz à n constant, si on fait l'approximation que le volume varie peu, une variation de la pression entraîne forcément une variation de la température. On en conclut directement que l'onde ne peut pas se propager de manière isotherme. Nous reviendrons sur cette approche thermodynamique plus en détail dans le point f. e) Mesure de la vitesse du son dans l'hélium : cHe Nous avons raccordé l'extrémité du tube à une bonbonne d'hélium afin de comparer la valeur mesurée expérimentalement à la valeur théorique, comme pour l'air au point précédent.
 Une fois que l'hélium a rempli le tube, on peut constater que les pics sur

×