![]()
|
|
Le titre est vaste, mais il impose une approche pluridisciplinaire.
Etant donné l'évolution des découvertes scientifiques et des techniques de détection, nous avons, pour notre étude, décidés de privilégier les sources d'information récentes. Pour cela nous avons basés cette étude en partie sur des documents "publiés" sur Internet (voir bibliographie en annexe). Etant donnée les risques de désinformation liés à la parution anarchique des documents sur le réseau, nous nous sommes limités aux centres de recherche (IN2P3), aux Universités et aux agences gouvernementales (NASA...).
Les informations recueillies par Internet n'étant
pas suffisantes, nous nous sommes également appuyés
sur des ouvrages de référence, notamment pour les
chapitres sur la terre, sur l'environnement terrestre et sur les
étoiles. Nous avons dû compléter notre recherche
avec des revues de vulgarisation scientifiques (Science &
Vie, Science & Avenir), du fait de l'ancienneté des
ouvrages de référence.
Nous nous attarderons à définir l'atmosphère
terrestre et son indissociable bouclier: la magnétosphère.
Nous nous attacherons à définir un phénomène
encore partiellement inexpliqué: l'induction magnétique
terrestre, qui joue un rôle prépondérant dans
l'organisation de l'environnement terrestre.
Nous verrons ensuite ce qu'est le rayonnement cosmique, sous forme électromagnétique et corpusculaire, par l'étude du soleil et la généralisation aux différentes étoiles.
Le spectre d'émission des rayonnements extraterrestres
est beaucoup plus étendu que celui de l'oeil. Nous verrons
les différents détecteurs mis en oeuvre pour couvrir
ce spectre, en remarquant que l'atmosphère arrête
certaines longueurs d'ondes, apportant ainsi quelques difficultés
pour les mesures. Cependant nous n'aborderons pas ici l'épineux
problème de l'effet de serre, lié à l'interaction
entre le rayonnement électromagnétique (et non pas
particulaire) et l'atmosphère.
Ensuite nous aborderons l'interaction de l'atmosphère terrestre et du rayonnement cosmique, formidable vecteur d'information permettant d'en savoir plus sur le soleil, les étoiles et même l'atmosphère.
Nous noterons enfin l'incidence fondamentale de ce
rayonnement sur la vie, tant au point de vue de son rôle
dans sa création que comme rayonnement destructeur de par
son énergie et vecteur de mutations, lequel nous atteindrait
si nous n'étions pas protégés par l'atmosphère
et surtout par la magnétosphère.
La terre ne se limite pas à une forme solide,
isolée dans l'espace. Elle possède également
un environnement complexe qui se prolonge jusqu'à des distances
considérables. Cet environnement comprend une vaste couche
gazeuse et un champ d'induction magnétique, qui interagissent
avec le rayonnement cosmique.
Nous considérons le gaz atmosphérique (infime par sa masse qui ne représente que le dix millième de la masse terrestre) au sein du champ de pesanteur et de l'induction magnétique terrestre. Il est soumis aux rayonnements de nature électromagnétique et corpusculaire, et filtre les rayonnements incompatibles avec la présence de la vie.
L'atmosphère se caractérise par différents paramètres qui sont la température, la pression (et donc la densité), ainsi que le degré d'ionisation, l'atmosphère étant décrite en fonction de l'altitude. Ces trois paramètres mettant en valeur une structure en différentes couches de l'atmosphère, nous emploierons les trois terminologies qui leurs sont propres. La description en température structure l'atmosphère en cinq couches comme le montre la fig. 2; la description en densité et pression ne met quant à elle en valeur que deux couches qui sont visibles sur les fig. 3 et 1; enfin le degré d'ionisation sépare l'atmosphère en deux sphères distinctes, dont la dernière est composée de trois régions différentes, voir fig. 4.
Pour familiariser le lecteur avec le vocabulaire,
il est important de rappeler que les mots ayant le suffixe sphère
représentent les couches (virtuelles) de l'atmosphère,
alors que le suffixe pause qualifie la limite supérieure
de la couche représentant la limite avec la couche suivante.
Constituants | Volume en % |
Azote (N2) | 78,08 |
Oxygène (O2) | 20,95 |
Argon (A) | 0,93 |
Gaz carbonique (CO2) | 0,03 |
Néon (Ne) | 1,82.10-5 |
Hélium (He) | 5,2.10-6 |
Krypton (Kr) | 1,1.10-6 |
Xénon (Xe) | 1.10-7 |
Les processus de mélange entre les différents
gaz étant relativement rapides, la composition ne varie
pratiquement pas au dessous de 100 km (homosphère). L'azote
et l'oxygène y constituent 99% du volume de l'air sec (voir
tableau 1). A cela s'ajoute de l'eau sous forme de vapeur, gouttelettes
ou glace, et des micro-particules solides qui sont en nombre considérable
dans l'atmosphère.
A la turbopause (voir fig. 1) limite supérieure de l'homosphère, la densité atmosphérique est devenue assez faible pour que la tendance au mélange des gaz s'estompe. A plus haute altitude, dans l'hétérosphère, les processus de diffusion dans le champ de gravitation l'emportent. Le constituant principal à 150 km n'est plus l'azote moléculaire, mais l'oxygène atomique produit par photo dissociation.
Au delà de 1 000 km, l'hélium
devient le constituant principal. A des altitudes encore plus
élevées, l'hydrogène atomique encore plus
léger, remplacera l'hélium.
Il existe de plus des réactions photochimiques
aboutissant à la formation d'ozone (O3) et d'autres constituants
mineurs tels que NO, OH et H2O.
Avant l'apparition des satellites, on ne disposait,
pour estimer la composition et la température que des observations
spectroscopiques au sol et de rares résultats obtenus par
des fusées. Depuis, de grands progrès ont été
réalisés, surtout au dessus de 200 km, notamment
par les satellites américains Explorateur et Vanguard.
Depuis beaucoup d'autres ont été lancés.
L'atmosphère peut être partagée
de bas en haut en régions dans lesquelles la température
est alternativement décroissante ou croissante (voir Fig.
2).
La troposphère dont l'étude
relève de la météorologie commence à
la surface de la terre et plafonne entre 8 et 15 km. La température
y décroît linéairement de 6,5 K par km de
273 K jusqu'à 216 K au niveau de sa limite supérieure
nommée tropopause et dont l'altitude varie entre 15 km
à l'équateur et 8 km aux pôles.
La stratosphère dans laquelle la température
augmente lentement, jusqu'à atteindre la valeur de la température
au sol, à la stratopause vers 50 km d'altitude. Le dégagement
de chaleur y provient surtout de l'absorption du rayonnement ultraviolet
solaire entre 200 et 300 nm, par la couche d'ozone stratosphérique.
La mésosphère dans laquelle
le gradient thermique redevient négatif, de sorte que la
température décroît jusqu'à 173 K à
la mésopause vers 85 km d'altitude.
La thermosphère présente quant
à elle un fort gradient de température positif dû
à l'absorption du rayonnement ultraviolet au dessous de
200 nm et à une modification profonde de la nature du milieu.
Ce gradient décroît avec la densité et donc
l'altitude, pour s'annuler à la thermopause, dont l'altitude
(de 400 à 800 km) et la température (de 700 à
2 100 K) dépendent de l'activité solaire.
L'exosphère, partie supérieure de l'atmosphère, débute lorsque les collisions entre particules deviennent suffisamment rares pour que les lois de l'hydrostatique cessent de s'appliquer. Son altitude est extrêmement variable du fait de l'activité solaire et de la simple notion de jour et de nuit.
Il n'est donc pas possible de parler d'une frontière
nette pour le gaz neutre.
L'invention du baromètre date de 1643. Pascal
montra que la pression devait décroître avec l'altitude.
Il vérifia ce fait au cours d'une expérience qu'il
fit effectuer par son beau-frère au sommet du Puy de Dôme
en 1648 et qu'il répéta à Paris. Ce résultat
mit fin à la thèse selon laquelle la nature a horreur
du vide.
En première approximation, il est aisé
de trouver la loi de décroissance exponentielle de la pression
ou de la densité des particules atmosphériques en
fonction de l'altitude:
En écrivant l'équilibre entre le poids
et le gradient de pression:,
étant la masse spécifique.
En posant l'équation des gaz parfaits: ,
étant la constante de Boltzmann:
.
Et en posant la variable H: hauteur d'échelle:
.
On obtient:
et donc: ,
étant la pression atmosphérique au sol.
Le paramètre important de cette expression
est la hauteur d'échelle H. Il indique la rapidité
avec laquelle décroît la pression, H permet également
de différencier l'homosphère en dessous de 100 km
d'altitude (où il est considéré comme constant)
de l'hétérosphère (où il varie avec
la température, la masse moléculaire et la gravité)
(voir fig. 3).
Dès 50 km, les particules constituant l'atmosphère
subissent une photo-ionisation. Une fraction des atomes neutres
sont ionisés par les photons solaires suivant le schéma:
où
représente
un atome neutre,
est l'énergie
du photon incident,
est l'atome ionisé
et
représente l'électron
éjecté. De par l'action du soleil dans la photo-ionisation
il est aisé de comprendre que l'ionisation de l'atmosphère
est beaucoup plus importante le jour que la nuit.
L'ionosphère est divisée en plusieurs
régions comme nous le montre la figure 4. Ces régions
ont été définies d'après leur degrés
d'ionisation donné par le rapport .
De 50 à 90 km se trouve la région D. Elle est caractérisée par une très faible ionisation et une densité encore trop importante pour que des satellites puissent s'y maintenir (ce qui complique considérablement son étude).
Immédiatement au dessus vient la région E, elle n'existe véritablement que de jour et est caractérisée par une grande régularité dans son comportement vis-à-vis du soleil.
Au delà de 150 km, nous abordons le vaste domaine de la région F. Elle s'étale jusqu'à de grandes altitudes et il est encore difficile de fixer une limite supérieure. La proportion d'ions devient très forte et on peut considérer cette région comme un plasma principalement constitué de He++ et de H+. Ce milieu reste néanmoins fortement anisotrope a cause de l'induction terrestre. Enfin la rotation de la terre soumet les particules de ce milieu à une importante force centrifuge qui à pour conséquence de prolonger le milieu ionisé plus loin dans l'espace.
Il existe cependant un niveau critique comme dans
le cas du gaz neutre. C'est celui à partir duquel la densité
de charges est assez faible pour que les chocs et les interactions
électriques deviennent sans effet. L'induction magnétique
règne alors en maître et on atteint le domaine dit
des ceintures de Van Allen.
En prenant encore de l'altitude, on parvient dans un domaine dans lequel les particules neutres ont pratiquement disparu. Les particules chargées, longtemps insoupçonnées, présentes dans ces régions, sont liés à la terre par l'induction magnétique et non plus par le champ de pesanteur. Etant donné la structure de l'induction terrestre, ces charges resterons confinées dans une vaste ceinture torique autour de la terre. Il faut distinguer deux grandes régions étagées en altitude (Fig. 5): les deux ceintures de Van Allen, du nom du physicien américain qui les découvrit en 1958.
La première, dite ceinture intérieure, reste comprise entre 40° de latitude et 600 à 9000 km d'altitude suivant la latitude.
La seconde, dite ceinture extérieure, recouvre largement la précédente. Elle s'étend entre des latitudes de 55 à 65° et son épaisseur est de plusieurs dizaines de kilomètres.
Cette distinction reste toutefois assez arbitraire puisque la répartition des charges électriques reste tout à fait progressive entre les différentes zones.
On ne sait pas encore exactement quelle est la nature
de toutes ces charges, mais la source principale semble être
le rayonnement cosmique de faible énergie et le vent solaire.
Il faut remarquer que la présence de ces particules ne
se poursuit pas indéfiniment, puisqu'elles finissent par
interagir dans la haute atmosphère lorsqu'elles y sont
amenées.
En continuant à s'éloigner de la Terre,
on finit par rejoindre l'espace interplanétaire. Comme
nous le verrons plus loin, le vent solaire a pour effet de limiter
l'induction terrestre à une cavité qui entoure notre
globe et que la Terre emporte avec elle dans ses différents
mouvements. Au-delà, la Terre cesse d'exercer pratiquement
toute influence. Nous parvenons ainsi aux limites de l'environnement
terrestre. Il sera toutefois vu que cette cavité est fortement
dissymétrique et si l'atmosphère au sens le plus
large du terme s'achève à prés de 100 000 km
dans la direction du soleil (côté jour), elle se
prolonge bien au-delà de ces limites dans la direction
opposée.
L'exploration de la magnétosphère terrestre
(dont l'existence était soupçonnée depuis
les travaux de Brermann sur le vent solaire) commença en
1957 avec l'Année Géophysique Internationale et
la mise en oeuvre de moyens d'explorations spatiaux. C'est au
cours des années suivantes que le nom de "magnétosphère"
fut pour la première fois utilisé (Gold en 1959)
et que furent découvertes les ceintures de rayonnement,
l'onde de choc magnétosphérique, la magnétogaine
et la magnétopause. Depuis 1976, un vaste programme de
surveillance de la magnétosphère et de ses perturbations
(International Magnétosphère Study) a été
entrepris par des satellites américains, soviétiques
et européens.
La source du champ magnétique se dissimule dans le noyau liquide de la terre (à environ 3 000 km de profondeur). La terre est constituée de trois couches concentriques (voir figure 1 en annexe A1): une mince écorce externe, suivie du manteau, et enfin, au centre, le noyau. Le noyau, est composé d'un coeur solide en alliage de fer et de nickel, entouré d'une énorme masse de fer en fusion. Les roches à l'intérieur du globe étant trop chaudes pour conserver une aimantation, le champ magnétique ne peut être produit que par la circulation de puissants courants dans le noyau externe en fer liquide, excellent conducteur électrique.
Ces courants sont produits par l'écoulement massif du fer en fusion. Le noyau agit donc comme la dynamo de Faraday (voir fig. 6), il transforme de l'énergie mécanique en énergie électromagnétique. Le fer en fusion du noyau terrestre crée un courant électrique induit qui engendre à son tour un champ magnétique, donc un courant électrique. Courant et champ magnétique s'entretiennent grâce aux mouvements des énormes courants de convection thermique qui permettent au centre de la terre d'évacuer de la chaleur.
A ce terme purement géophysique, vient s'ajouter
un terme beaucoup plus tourmenté lié à des
courants induits dans le sol par certains phénomènes
atmosphériques.
Au cours de son existence, la terre a vu maintes
fois s'inverser ses pôles nord et sud magnétiques.
Qu'est ce qui provoque ce renversement? Ou plus précisément,
le champ magnétique terrestre se renverse-t-il en passant
par des chemins préférentiels ou de manière
beaucoup plus désordonnée? Ces deux hypothèses
prédominent actuellement. Nous n'avons pas encore de réponses
précises malgré l'abondance des archives en notre
possession: les laves volcaniques qui s'aimantent dans la direction
du champ pendant leur refroidissement, les sédiments marins
qui contiennent des petits grains aimantés d'oxyde de fer
se disposant dans le sens du champ, le plancher océanique
engendré par le magma s'écoulant des dorsales sous-marines
et s'aimantant lui aussi suivant le champ.
Nous introduirons les lignes de force qui sont les
courbes virtuelles définies comme étant tangentes
en tout point au vecteur (voir fig. 7).
Les lignes de force acquièrent une réalité
physique dès que les charges électriques apparaissent
(dans l'ionosphère); elles jouent un rôle essentiel
dans les ceintures de Van Allen.
La terre étant en permanence soumise à l'action du vent solaire (flux de particules venant des protubérences, voir chapitre 3.2.3.), celui-ci déforme les lignes de champ de la magnétosphère comme dans la représentation de la figure 8. La magnétosphère apparaît donc comme un bouclier sphérique plus ou moins comprimé du côté jour et est étirée à l'extrême du côté nuit. Le vent solaire crée également une onde de choc en avant de la magnétosphère qui regroupe des particules solaires. Les lignes étirées forment une espèce de queue qui pointe toujours dans la direction opposée au soleil. La queue est constituée d'un feuillet neutre central (c'est à dire dépourvu de charge électrique globale), entourée par une zone de plasma chaud et instable où les noyaux atomiques (principalement des protons) sont soumis à une forte excitation, et enfin par un plasma froid limitant les couches les plus extérieures de la queue magnétosphérique.
Enfin cette déformation de la magnétosphère
laisse apparaître deux cornets polaires en face des pôles
de la planète. Dans ces deux zones le champs magnétique
est pratiquement nul et il ne peut dévier les particules
chargées.
L'espace terrestre est rempli de charges électriques, des protons et des électrons qui ont une double origine: il existe d'une part des particules de l'ionosphère dont l'énergie est de l'ordre de l'eV et qui constituent un plasma froid, et d'autre part des particules provenant du rayonnement solaire ou cosmique dont l'énergie est de l'ordre de 0,01 à 100 keV et qui constituent un plasma chaud.
Les trajectoires décrites par ces dernières
sont complexes, mais des périodicités apparaissent
et leur mouvement peut être décrit comme la superposition
de trois mouvements élémentaires.
Ces particules de charge q traversant le champ
se trouvent donc soumis à une force
s'écrivant sous la forme
. En suivant
cette équation, la particule s'enroule autour de
selon une hélice circulaire dont l'axe est une ligne de
force (voir fig. 9). Ce mouvement est appelé rotation cyclotron.
La période de rotation de la particule est très
brève et est dépendante de sa masse et de sa charge
(de l'ordre de 10-4 s pour un électron et une période
2000 fois plus importante pour un proton).
Sous l'influence du gradient du champ magnétique
(qui croît lorsqu'on se rapproche de la surface du globe),
le centre de la giration, ou centre de guidage, rebondit entre
deux points miroirs magnétiques, symétriques par
rapport à l'équateur magnétique et avec une
période de l'ordre de la seconde. Une particule chargée
décrit ainsi autour d'une ligne de champ une hélice
très resserrée au voisinage des points miroirs,
et assez lâche à l'équateur (voir fig. 10).
Le mouvement de rebond est toutefois impossible si la ligne de
champ est ouverte vers la queue de la magnétosphère
ou si l'altitude des points miroirs est suffisamment basse pour
que la particule entre en collision avec les molécules
de la neutrosphère.
Sous l'influence de la courbure de la trajectoire du centre de guidage, et du gradient du champ magnétique, les électrons subissent, une dérive en longitude d'ouest en est, et les protons d'est en ouest (voir fig.11). La période de cette dérive est variable de l'ordre de la minute ou de l'heure selon l'énergie des particules, l'altitude des lignes de force et la latitude des points miroirs.
Les rayons cosmiques sont constitués de particules chargées subatomiques et de photons gamma. Ils possèdent une échelle d'énergie très importante généralement mesurée en eV.
La quantité de rayons cosmiques arrivant sur terre est très variable en fonction de leur énergie: cela va de plusieurs milliers par m² et par seconde pour les moins énergétiques à moins d'un par km² et par siècle pour les plus énergétiques. Nous savons que la grande majorité des rayons cosmiques sont des protons, mais il y a également quelques noyaux atomiques plus lourds, jusqu'au noyau de fer. La très grande majorité des rayons cosmiques est chargée positivement.
Une faible fraction (0,1%) des rayons cosmiques est
constitué de photons (sous forme de rayons gamma). Ces
photons sont importants pour déterminer la provenance des
rayons cosmiques, car sans masse et sans poids, ils arrivent sur
terre sans être déviés par les champs magnétiques
ou gravitationnels présents dans l'univers.
Le soleil, seule étoile pouvant être
étudiée en détail dans toutes les gammes
de rayonnement, est un objet de référence qu'il
convient d'analyser avant de se lancer dans l'étude des
autres étoiles. Etant le type d'étoile le plus courant
dans l'univers nous n'étudierons en détail que celui-ci,
les autres grandes familles étant citées dans le
chapitre suivant.
Le Soleil, comme nous l'avons vu pour la Terre, peut
être découpé en plusieurs couches concentriques
comme le montre la figure 2 en annexe A1. Il est composé
de 71% d'hydrogène, de 27% hélium et d'autres éléments
simples: carbone, azote, oxygène, néon, magnésium,
silicium, soufre, fer...
C'est dans le coeur du soleil, où règne
une température de 10 à 15 millions de kelvins,
que se déroulent les réactions thermonucléaires
qui fournissent toute son énergie au soleil. Ce sont, comme
nous le verrons plus bas, des réactions de fusion de l'hydrogène
(également appelée réaction "proton-proton")
produisant des noyaux d'hélium qui sont à la base
de cette énergie.
L'énergie produite au coeur du soleil doit
ensuite parcourir la zone radiative où elle est véhiculée
par rayonnement sans cesse absorbé, émis, réabsorbé,
réémis, etc. Ce processus s'effectuant dans toutes
les directions, ce cheminement peut être très long.
Ainsi, les neutrinos produits au coeur du soleil, dont la charge
est nulle et dont la masse -si elle existe- doit être infime,
traversent les différentes couches sans interagir à
une vitesse proche de celle de la lumière et nous arrivent
en 8 minutes, alors que les photons, interagissant constamment,
mettent approximativement un million d'années à
sortir du soleil.
La lumière solaire montre que la couche de
surface, la photosphère, est couverte d'énormes
"grains de riz" changeants, granules d'un diamètre
moyen de 1 000 km, apparaissant et disparaissant en
quelques minutes. Ce sont des bulles de gaz chaud qui "crèvent"
la surface de l'astre à la manière d'une banale
ébullition dans une casserole d'eau chaude. Ceci nous indique
la présence d'une couche sous la photosphère, entraînée
par des mouvements de convection, dus à la différence
de températures. Les modèles de la structure du
soleil indiquent que cette couche convective s'étend jusqu'à
environ un tiers du rayon solaire.
L'atmosphère solaire est, comme nous l'avons
vu ci-dessus, constituée dans sa partie la plus profonde,
par la photosphère (sur une profondeur de 300 km).
C'est la zone la plus froide du soleil, autour de 4 800 K.
Au dessus de la photosphère se trouve la chromosphère,
couche de 2 000 km qui est plus ou moins transparente
dans le spectre du visible. La température de la chromosphère
augmente jusqu'à sa limite supérieure: la couronne.
C'est dans la couronne qu'apparaissent les protubérances
et éruptions solaires qui se dispersent très loin,
entraînées par les vents solaires. Cette augmentation
de la température d'une zone chaude située entre
deux zones plus froides est pour l'instant toujours inexpliquée,
et on compte sur le tout nouveau satellite SOHO pour en découvrir
plus sur ce phénomène en totale opposition avec
les lois de la thermique. Parmi les différentes hypothèses,
Jean-Pierre Delaboudinière, astrophysicien à l'IAS
(Institut d'Astrophysique Spatiale) évoque une dissipation
organisée d'ondes mécaniques ou magnétiques,
de chocs supersoniques, ou encore de minuscules explosions violentes.
Le soleil est né d'un immense nuage d'hydrogène
qui s'est progressivement contracté sous l'action de ses
propres forces de gravitation. Les colossales pressions et les
températures fantastiques engendrées au coeur de
l'amas ont "allumé" des réactions thermonucléaires.
Les noyaux d'hydrogène ont commencé à fusionner
entre eux pour donner du deutérium puis de l'hélium.
Chacune de ces réactions s'accompagnant d'une perte de
masse, donc d'un dégagement d'énergie, le processus
s'est auto-entretenu et se produit depuis lors. La transformation
de l'hydrogène en hélium, suivie de la fusion de
l'hélium en béryllium, lithium et bore, est responsable
de plus de 98% de l'énergie solaire.
La toute première réaction de fusion
est la réaction proton-proton, où deux noyaux d'hydrogène
collisionnent pour donner naissance à un noyau de deutérium
(ou deuton), un positron et un neutrino, suivant l'équation
suivante: {1a}. Dans ce cas, c'est
la transformation d'un des protons en neutron (pour la formation
du deutérium) qui est responsable de la création
du neutrino. Ce neutrino a une énergie caractéristique
de 0,42 MeV.
Cette réaction est directement suivie par
la création d'hélium 3 et d'un photon gamma,
suivant l'équation: {1b}.
Le noyau d'hélium ainsi crée peut réagir de deux manières différentes:
Dans 85% des cas, l'hélium 3 réagit
avec un autre noyau identique pour produire un hélium 4
ainsi que 2 protons: {2}.
Dans 15%, l'hélium 3 réagit avec
l'hélium 4 pour donner du béryllium 7
et un photon gamma: {3}.
C'est ensuite au noyau béryllium 7 de réagir, là aussi sous deux formes différentes:
99,9% des réactions donneront un atome de
lithium 7 et un neutrino grâce à un électron:
{4a}. Là encore le neutrino
a une énergie caractéristique qui est de 0,86 MeV.
Ce noyau de lithium 7 donnera 2 noyaux d'hélium 4
après avoir été bombardé par un proton
suivant:
{4b}.
Dans 0,02% des réactions, un proton transformera
le béryllium 7 en bore 8 suivi d'un photon gamma
suivant l'équation suivante: {5a}.
Ce noyau se désintégrera en béryllium 8
avec la création d'un positron et d'un neutrino de 14,06
MeV:
{5b}. Puis en deux noyaux
hélium 4 suivant la réaction suivante:
{5c}.
Ces réactions sont accompagnées et catalysées par la réaction dite de cycle carbone qui se produit dans la région radiative du soleil, elle s'écrit:
->
->
->
->
Le rayonnement électromagnétique.
Comme nous l'avons vu ci-dessus, les photons émis au coeur
du soleil ne nous arrivent pas directement car ils ne cessent
pas de réagir avec les différentes couches du soleil.
En fait la lumière que nous percevons du soleil nous vient
de la photosphère dont la température de surface
se situe autour de 5 800 K. La matière gazeuse
y est beaucoup moins dense que dans les couches internes, et est
présente sous forme d'atomes complets et non plus sous
forme de plasma où noyaux et électrons sont totalement
dissociés. Ce sont ces atomes qui, excités par les
photons en provenance du coeur, produisent, en se désexcitant,
les différents rayonnements électromagnétiques
émis par le soleil: ondes radio, infrarouges, lumière
visible, rayons X et rayons . Ce rayonnement représente
98% de l'énergie dégagée au coeur du soleil.
Les neutrinos. Comme nous l'avons vu dans le chapitre traitant des réactions se produisant au coeur du soleil, trois différents types de neutrinos sont émis par le soleil. Sur terre, nous recevons 65 millions de neutrinos solaires par cm2 et par seconde. Malheureusement, ils sont difficiles à détecter, mais la connaissance des proportions des différents niveaux d'énergie des neutrinos permettra de vérifier l'exactitude du modèle solaire.
Ce rayonnement ne représente toutefois que
les 2% restant de l'énergie produite par les réactions
thermonucléaires solaires.
Le vent solaire. La haute
atmosphère solaire, la couronne, est constituée
d'un plasma, c'est à dire d'un ensemble de particules chargées
(principalement des protons et des électrons) sous forme
de gaz. Ce plasma solaire s'"écoule" dans l'espace,
à haute vitesse, poussé par le champs magnétique
solaire. C'est ce courant de particules qui est appelé
vent solaire et qui arrive -entre autre- sur la terre à
une vitesse de 450 km/s ou plus. Alors que la lumière en
provenance de la surface du soleil arrive sur terre en 8 minutes,
le vent de particules solaires arrive en 2 ou 3 jours puis se
répand à travers le système solaire et au
delà.
En plus de cette forme lumineuse, l'énergie
produite par les réactions thermonucléaires du coeur
est évacuée dans l'espace sous forme d'ondes de
gravité, d'ondes acoustiques et magnétohydrodynamiques,
de particules chargées (les vents solaires) et d'hydrogène
ionisé (protubérances).
En classant les étoiles de distance connue à la fois par type spectral et par magnitude absolue, Hertzsprung et Russell ont mis en évidence un classement bidimensionnel des étoiles, connu sous le nom de diagramme de Hertzsprung-Russell (1905-1914) et qui permet de ranger les étoiles suivant différentes classes de luminosité:
les étoiles de la série principale, encore désignées sous le nom de naines; le soleil appartient à cette classe et il avancera le long de cette série au fur et a mesure de son évolution;
les étoiles géantes (à partir du type spectral FO);
les étoiles supergéantes, dont les
magnitudes absolues sont comprises entre (-5) et (-7).
La magnitude correspond à la luminosité des étoiles. La détermination des distances stellaires s'obtient en estimant la magnitude absolue des étoiles et en mesurant leur magnitude apparente.
Les spectres stellaires: l'étude de chaque raie apparaissant en surimpression sur le fond coloré des spectres stellaires a permis de connaître la composition chimique des atmosphères stellaires.
Les types spectraux des étoiles sont déterminés
en fonction du spectre stellaire, ce qui permet de déterminer
certaines conditions qui règnent dans les étoiles,
en particulier les températures superficielles et les densités.
Les types spectraux actuellement admis sont désignés
par les lettres W, O, B, A, F, G, K, M, chacune de ces catégories
étant subdivisée en dix sous-catégories allant
de 0 à 9 (le soleil est de type G).
Pour un type spectral donné, c'est à
dire pour une température superficielle donnée,
une naine est moins lumineuse qu'une géante, qui, elle-même,
est moins lumineuse qu'une supergéante. Comme la puissance
émise par unité de surface d'une étoile ne
dépend que de la température, on en déduit
qu'une naine a un rayon plus petit qu'une géante et beaucoup
plus petit qu'une supergéante de même température
superficielle. De nouvelles classes d'étoiles ont été
découvertes par la suite, en particulier les naines blanches
dont la magnitude est voisine de +10. Ces étoiles peu lumineuses
sont cependant très chaudes, ce qui implique qu'elles ont
un rayon très petit. En outre, les traits mêmes du
diagramme se sont affinés au fur et à mesure que
se précisaient les valeurs de mieux en mieux connues des
magnitudes absolues. Dans le diagramme de Morgan qui perfectionne
celui de Hertzsprung-Russell, a chaque trait doit être considéré,
à l'heure actuelle, comme ayant au maximum une demi magnitude
d'épaisseur.
Il existe aussi des étoiles doubles qui gravitent
les unes et les autres autour de leur centre de gravité
commun. On trouve aussi des étoiles variables, des nova
et des supernova. Lorsque certaines étoiles subissent une
élévation brusque et considérable de luminosité,
on dit qu'il s'agit soit d'une nova, soit d'une supernova (appellation
inexacte puisqu'il ne s'agit pas d'une étoile nouvelle
mais d'une étoile ayant explosé).
Lors de l'arrêt des réactions de fusion, la force de gravitation devient prépondérante et le coeur ainsi que les couches externes de l'étoile sont violemment comprimées en un astre compact.
Si la masse de cet astre est inférieur à trois fois la masse du soleil, l'effondrement se poursuit jusqu'à forcer les électrons à se lier aux protons pour former des neutrons. Le coeur atteint alors un état d'équilibre sous forme d'étoile à neutron ou de pulsar.
Si la masse est supérieure à trois fois celle du soleil, l'effondrement se poursuit jusqu'à la formation d'un trou noir, c'est à dire une région de l'espace où la matière est tellement comprimée et le champ de gravitation si intense, que la lumière elle même ne peut s'en échapper.
Un moyen indirect d'observer ces trous noirs est,
cependant, fourni par l'étude des systèmes binaires
formés de deux étoiles orbitant l'une autour de
l'autre. Les plus fascinants sont ceux où l'un des deux
astres est une étoile effondrée en trou noir tandis
que son compagnon poursuit son évolution. Lorsque ce dernier
atteint le stade d'étoile géante ou supergéante,
son atmosphère est littéralement aspirée
et avalée par l'objet compact, dans ce qu'on appelle un
phénomène d'accrétion. La matière
accrétée émet des rayons X, soit en tombant
directement sur l'objet compact, soit en formant d'abord autour
de lui un disque d'accrétion, couronne massive de plasma
chauffée à haute température par de violents
phénomènes de friction. De tels systèmes
binaires sont des sources de rayons X parmi les plus brillantes
du ciel.
Les quasars, dont le nom vient de l'anglais quasi-star, sont des objets lumineux situés aux confins de l'univers observable (15 milliards d'années lumière). Ils nous apparaissent donc comme extrêmement jeunes et lumineux compte tenu de leur éloignement: (leur luminosité est comparable à celle de plusieurs milliers de galaxies). On sait aujourd'hui que ce ne sont pas des étoiles, mais des noyaux actifs de galaxies.
Le rayonnement de certains quasars s'effectue en
majeur partie dans le domaine gamma.
Les étoiles émettent un rayonnement
électromagnétique dans toute la gamme des fréquences
comme nous l'avons vu pour le soleil. Toutefois suivant le type
de l'étoile, son rayonnement principal pourra être
différent, en magnitude (c'est à dire en éclat)
ou couleur (qui est lié à la température
de surface de l'astre, celui-ci étant assimilable à
un corps noir). La couleur que nous percevons d'une étoile
est toutefois modifiée par la vitesse à laquelle
elle s'éloigne de nous: c'est l'effet Doppler. Par cet
effet, tout astre s'éloignant de nous voit sa couleur décalée
vers le rouge.
Certains types d'étoiles ont également des modes de rayonnement particulier:
-c'est le cas des étoiles à neutrons que l'on soupçonne d'être responsables de l'émission de brusques bouffées de photons gamma à très haute énergie (parfois plus de 15 TeV).
-c'est également le cas des pulsars, qui
sont des étoiles à neutrons en rotation très
rapide sur elles même (30 tours/secondes). Le champ magnétique
de ces étoiles est très intense et provoque l'émission
d'un faisceau d'ondes radio suivant l'axe des deux pôles
magnétiques. Du fait de la rotation de l'astre, ce faisceau
balaie l'espace comme un phare, et, si la terre se trouve dans
la bonne direction, nous recevons un signal pulsé dont
la période est la signature claire et nette d'un pulsar.
Les pulsars sont également de bons candidats pour expliquer
la provenance des bouffées de rayon gamma.
Les rayons cosmiques sont des particules chargées traversant l'espace et filtrées à travers notre atmosphère. Ils ont intéressé les scientifiques pour de nombreuses raisons. Ils viennent de toutes les directions de l'espace et l'origine de beaucoup d'entre eux est inconnue. Les rayons cosmiques ont été découverts à l'origine par l'ionisation qu'ils produisent dans notre atmosphère. Les rayons cosmiques ont une échelle d'énergie extrêmement large, ce qui a permis aux physiciens d'étudier des particules qu'ils n'arrivent pas à produire autrement.
L'étude du rayonnement solaire a permis aux scientifiques de mieux connaître l'origine de ces particules de haute énergie. Ces rayons cosmiques solaires sont originaires de la chromosphère et sont en corrélation directe avec les éruptions solaires.
Lorsqu'une particule cosmique arrive jusqu'à notre atmosphère, elle interagit avec les noyaux atmosphériques en se désintégrant en divers particules dans ce que l'on appelle une gerbe de rayons cosmiques. L'interaction de ces particules dans l'atmosphère est traitée plus en détail dans le chapitre 4.1.. Ce sont ces particules secondaires, et notamment les neutrons, qui sont détectées sur terre par des détecteurs de surface.
Le graphique de la figure 15 nous montre une étrange
corrélation entre la quantité des taches solaires
et le nombre de neutrons détectés au niveau de la
surface terrestre lors des mesures effectuées par le détecteur
Climax positionné au Colorado. En effet, lors des maxima
solaires, le champ magnétique solaire s'intensifie et protège
la terre du rayonnement cosmique.
Quelques points restent cependant encore sans réponse.
Des particules du rayonnement cosmique ont des énergies de l'ordre du PeV (peta-électron-volt 1015eV) et les mécanismes capables d'accélérer des particules jusqu'à ce niveau d'énergie ne sont pas encore bien connu (il pourrait s'agir de systèmes d'étoiles doubles ou d'explosions de supernova).
Certaines particules détectées atteignent même des énergies de plusieurs EeV (exa-électron-volt 1018eV), les mécanismes d'accélération restent là totalement inconnus et il est possible que ces particules puissent remettre en question certaines lois de la physique.
Le "record" actuel de puissance pour une particule chargée a été établi en 1995 par le détecteur américain "Fly's Eye" avec la détection d'un rayon cosmique de 200EeV. Le détecteur à scintillation japonais "AGASA" a lui aussi détecté un rayon de cette énergie cette année. Pour souligner les quantités d'énergie mises en jeu, il faut savoir qu'un seul proton de 200EeV à la même énergie qu'une balle de tennis lancée à la vitesse du son!
On ne sait pas encore où peuvent se situer
les sources en mesure de fournir des particules d'une telle énergie,
mais ce site doit être le centre d'une activité magnétique
très intense et/ou être d'extrèmement grande
dimension. Il est important de remarquer que les rayons cosmiques
de très haute énergie sont atténués
par un phénomène connu sous le nom de G.Z. cut-off,
il est dû à l'émission de radiation micro-onde
par les particules au dessus d'une certaines énergie (considération
relativiste). Ce qui nous indique que les particules de 200EeV
sont produites soit dans notre galaxie, soit dans des galaxies
proches.
Les neutrinos sont produits par toutes les étoiles de la même manière que dans le soleil. On peut remarquer qu'au moment de la mort d'une étoile (supernova), celle-ci, en s'effondrant sur elle même, éjecte d'un seul coup toute l'énergie correspondant à sa masse sous forme lumineuse et avec une quantité énorme de neutrinos: 1 000 fois plus en un instant que n'en produira le soleil pendant toute sa vie (10 milliards d'années). En janvier 1987, une supernova a explosé à 170 000 années lumière de la terre et trois détecteurs souterrains ont détecté les neutrinos de cette supernova presque en même temps que sa lumière, ce qui indiquerait que si le neutrino a une masse, celle-ci est extrêmement faible.
Ce rayonnement, transmis par des "messagers"
nommés photons, se caractérise par sa longueur d'onde,
sa fréquence ou son énergie, ces trois grandeurs
étant liées par la relation suivante:
où h est la constante de Planck (h=6,625.10-34 J.s), est
la fréquence et l la longueur d'onde.
Les signaux électromagnétiques émis
depuis l'espace ont des longueurs d'ondes différentes.
Des plus longues aux plus courtes: les ondes radio (quelques meV)
captées par les radiotélescopes; l'infrarouge, par
les satellites ISO et I.R.A.S. et par certaines caméras
placées dans des observatoires en altitude; la lumière
visible (quelques eV) captée par Hubble et les télescopes
au sol; l'ultraviolet, par des satellites comme IUE; les rayons
gamma mou par le satellite Granat; les rayons gamma dur par des
satellites comme G.R.O. et enfin le rayonnement gamma ultra-dur,
le plus énergétique des rayonnements électromagnétiques
(jusqu'à plusieurs TeV) par des stations au sol comme thémis
qui utilisent les réactions de ces photons avec l'atmosphère
pour détecter ces photons ultra énergétiques.
Les ondes de type radio sont captées suivant
des principes électromagnétiques avec des antennes;
le rayonnement allant de l'infrarouge à l'ultraviolet est
capté par des moyens optiques tels que les télescopes;
les rayonnements plus énergétiques sont quant à
eux captés par des détecteurs appartenant au monde
de la physique subatomique. Il n'est en effet pas possible de
réfracter ou réfléchir ces rayons comme c'est
le cas dans le visible avec les miroirs et les lentilles car leur
longueur d'onde est plus petite que la distance inter-atomique.
Un radiotélescope est un détecteur sensible aux rayonnements électromagnétiques de type radio. Il est constitué d'un collecteur appelé antenne, qui joue le même rôle que le miroir dans un télescope optique, et d'un système détecteur qui mesure le rayonnement radioélectrique collecté. Les antennes des radiotélescopes sont le plus souvent des réflecteurs paraboliques ou sphériques, garnis de grillages métalliques, dont la maille doit être au moins dix fois plus fine que la longueur d'onde d'observation. Des collecteurs de grande dimension sont nécessaires pour atteindre de grandes sensibilités et mesurer des flux très faibles; la radioastronomie présente de ce point de vue un avantage sur l'astronomie optique: en effet, on peut réaliser des antennes dont le diamètre est de l'ordre de 100m. Cependant, il est difficile d'obtenir à la fois la plus grande surface collectrice possible et la possibilité d'orienter ce collecteur dans toutes les directions du ciel. La limite maximale actuelle, pour une antenne complètement orientable, est celle du radiotélescope d'Effelsberg, prés de Bonn, mis en service en 1972, qui est un paraboloïde de 100m de diamètre.
Des antennes plus grandes équipent des radiotélescopes de type méridien comme celui de l'observatoire radio astronomique de Nançay en France. De tels radiotélescopes peuvent étudier les radiosources seulement lorsqu'elles sont proches du méridien.
Un dernier type de radiotélescope à très grande antenne est celui où l'antenne est fixée; tel est le cas du radiotélescope d'Arecibo au Porto Rico, mis en service en 1963, dont l'antenne parabolique de 300 m de diamètre, soit 1 km de circonférence, pointe dans la direction du zénith.
De meilleurs pouvoirs séparateurs sont obtenus en utilisant des réseaux de radiotélescopes ayant chacun des antennes de diamètre relativement petit (de l'ordre de 20m). Cette méthode dite interféromètrique permet de synthétiser des radiotélescopes virtuels de plusieurs milliers de kilomètres de diamètre. Au Nouveau-Mexique, le radio-interféromètre VLBA (Very Large Baseline Array) américain est utilisé pour faire de véritables photographies radioélectriques, aussi nettes que celles de télescopes optiques. Les astronomes mélangent les signaux radio enregistrés par ses 27 antennes, qui dessinent un Y géant s'étendant sur 8 000 km. Dans l'avenir l'utilisation conjuguée de radiotélescopes terrestres et spatiaux devrait permettre d'étendre considérablement les possibilités de l'interférométrie.
Les détecteurs du domaine radio sont des radiomètres qui perçoivent le bruit de fond dû à l'agitation thermique des électrons dans les amplificateurs. Pour détecter une radiosource, il faut déceler l'augmentation du bruit de fond qu'elle produit. Cela explique que l'on cherche à réaliser des récepteurs à faible bruit propre. Les techniques électroniques modernes (amplificateurs refroidis paramétriques, amplificateurs à transistor à effet de champ) ont permis de construire des radiotélescopes sensibles à des longueurs d'onde de plus en plus courtes, allant même jusqu'au domaine millimétrique.
Les récepteurs spectroscopiques de rayonnement
radio permettent d'analyser les signaux observés en d'étroites
bandes de fréquence avec une batterie de filtres et un
corrélateur.
ISO est un satellite d'observation infrarouge lancé par l'ESA (Agence Spatiale Européenne) en novembre 1995. Il est capable d'effectuer de la photométrie, de la spectroscopie, de l'imagerie et de la polarimétrie dans des longueurs d'ondes comprises entre 2,4 et 240 m. Il est équipé d'un télescope Richey-Cretin de 60cm d'ouverture et de focale 15 qui a une limite de diffraction de 5 m. Il offre un champ de vue de 20 min d'arc.
Un système de refroidissement contenant 2 300 litres d'hélium liquide permet de maintenir les capteurs les plus sensibles à une température de 2K (les instruments moins sensibles et le reste du télescope étant maintenu autour de 3-4K).
Les quatre instruments embarqués d'ISO sont:
CAMera, chargé de prendre des photos des différents objets entre 2,5 et 17m,
Long Wavelength Spectrograph, observation entre 50 et 200m,
PHoTopolarimeter, observation entre 2,5 et 200m
Short Wavelength Spectrograph, observation en haute résolution entre 2 et 5m.
Ces quatre instruments sont en mesure d'effectuer
de la spectrographie; CAM et PHT peuvent être utilisés
pour faire de l'imagerie, de la photométrie ou de la polarimétrie
(CAM est plutôt utilisé dans les courtes longueurs
d'onde alors que PHT couvre toutes les longueurs d'ondes).
La lunette optique, inventée par Galilée, fut le premier instrument permettant un agrandissement des objets astronomiques. Elle fonctionne grâce à une combinaison de lentilles.
Le télescope diffère de la lunette par le fait que l'objectif est un miroir, et non une lentille. N. Zucchi d'abord, Mersenne ensuite, eurent l'idée de cet instrument astronomique. Puis Greyery donna la description d'un télescope dans son Optica promota (1663) mais ne put trouver à Londres un opticien assez habile pour le construire. Le premier télescope semble avoir été réalisé par Newton (1671). Les télescopes du type de celui construit par Newton se composent d'un miroir sphérique concave fixé au fond d'un tube ouvert à l'autre extrémité. L'image réelle et renversée de l'objet se forme dans le plan focal. Sur le trajet des rayons se trouve un miroir incliné à 45° et qui les réfléchit latéralement. Cette image réelle est observée par un oculaire porté par un tube de tirage pour la mise au point; cet oculaire joue le rôle de loupe.
Dans le télescope de Cassegrain qui permet d'avoir une distance focale beaucoup plus grande, le miroir principal est percé, et l'image est renvoyée dans cette ouverture par un petit miroir convexe. Dans le télescope coudé, le faisceau lumineux recueilli par l'objectif est ramené par un jeu de miroirs le long de l'axe polaire, ce qui permet d'observer l'image à poste fixe et dans un laboratoire séparé où peuvent être installés des appareils lourds et encombrants tels que des spectrographes.
En substituant aux miroirs sphériques métalliques des miroirs paraboliques en verre argenté, Foucault, au milieu du XIXème siècle, a réalisé un important progrès. Le miroir parabolique, concentrant les rayons parallèles à l'axe, exactement en son foyer, annule l'aberration de sphéricité. Les caractéristiques principales d'un télescope sont: son ouverture D (plus D est grand, plus le télescope peut atteindre des astres faibles) et son ouverture relative égale au rapport de la distance focale F de l'objectif à son diamètre D. Plus le rapport F/D est petit, plus les temps de pose nécessaires pour photographier les objets faibles, comme les nébuleuses, sont courts.
Dans le télescope de Schmidt (ou chambre de
Schmidt) le miroir est sphérique, et l'aberration de sphéricité
est corrigée par une lame à profil exactement calculé.
On peut ainsi photographier des champs très étendus,
de 12 à 15° carré, alors que le champ utile
d'un miroir parabolique ne dépasse pas un dizaine de minutes.
Les télescopes, qui sont des collecteurs de lumière visible, sont de plus en plus rarement utilisés pour l'observation visuelle par les astronomes professionnels. On leur adjoint différents récepteurs tels que: plaque photographique, caméra électronique, ou photomultiplicateurs qui transforment les photons en électrons.
Les analyseurs utilisés avec les télescopes
sont également très divers: spectrographes, photomètres
photoélectriques...
Observatoire | Altitude (m) | Diamètre utile (m) | Mise en service | Nom du télescope |
Zelentchoukskaïa (Caucase) | 2070 | 6,00 | 1976 | Bolchoï Teleskop Azimoutalnyï |
mont Palomar (Californie) | 1706 | 5,08 | 1948 | Hale |
Fred Whipple (mont Hopkins, Arizona) | 2600 | 4,50 | 1979 | Multiple Mirror Télescope |
Roque de los Muchachos (La Palma, Canaries) | 2300 | 4,20 | 1982 | W. Herschel |
Cerro Tololo (Chili) | 2400 | 4,00 | 1976 | (ensemble d'universités aux USA) |
Siding Spring (Nouvelle-Galles du Sud, Australie) | 1164 | 3,89 | 1975 | (télescope anglo-australien) |
Kitt Peak (Arizona) | 2064 | 3,81 | 1973 | Mayall |
Mauna Kea (Hawaii) | 4194 | 3,80 | 1979 | United Kingdom Infra Red Télescope |
Mauna Kea (Hawaii) | 4200 | 3,60 | 1979 | C.F.H. (Canada-France-Hawaii) |
Observatoire européen austral (La Silla, Chili) | 2400 | 3,57 | 1976 | (télescope européen) |
Calar Alto (Espagne) | 2160 | 3,50 | 1981 | (télescope allemand) |
Lick (mont Hamilton, Californie) | 1277 | 3,05 | 1959 | Shane |
Mauna Kea (Hawaii) | 4208 | 3,00 | 1979 | Infra Red Télescope Facility (NASA) |
Depuis la parution de ce tableau, d'autres télescopes ont été construits, comme le télescope californien Keck qui est actuellement le plus puissant instrument d'optique jamais construit. Il est constitué d'un miroir hexagonal de 10 m de diamètre, constitué d'une mosaïque de 36 petits miroirs contrôlés et asservis par un ordinateur.
D'autres améliorations peuvent être apportées aux télescopes, comme l'envoi d'un faisceau laser dans la direction observée. Une fois analysée, la lumière de ce laser permet de connaître les turbulences atmosphériques. Un ordinateur couplé à un miroir déformable permet donc de corriger en temps réel les turbulences atmosphériques, ce qui permet d'obtenir au sol des images aussi nettes que celles que réalise le télescope spatial Hubble.
Le principe de l'interférométrie qui
fonctionne très bien en radiotélescopie reste difficile
à appliquer dans le domaine optique puisqu'il réclame
une précision cent mille fois supérieure. Pionniers
en la matière, les français et les australiens espèrent
aboutir au début du troisième millénaire.
Long de 15 m et large de 4,3 m, pour une masse de 11 560 kg, le satellite Hubble représente un véritable défi technologique et scientifique. A 610 km d'altitude, dégagé des turbulences de l'atmosphère terrestre, ce cyclope scrute avec une acuité inégalée les astres les plus faibles et les plus lointains, situés à 14 milliards d'années lumière de nous, c'est à dire tels qu'ils étaient tout au début de l'univers. Il aperçoit des corps célestes de magnitude 28, cinq milliards de fois trop faibles pour être vus à l'oeil nu, ce qui revient à déceler la lumière d'une bougie sur la lune.
Mais pour que cela soit possible, il a fallu exécuter un certain nombre de réparations pour corriger quelques défauts de fabrication notamment sur la lentille principale. Depuis ces réparations, Hubble est capable de voir:
- La valse du couple de planètes Pluton et Charon aux confins du système solaire.
- Des étoiles renaissantes qui n'auraient du contenir que des géantes rouges. Or un cliché en ultraviolet, impossible à prendre de la terre, a révélé vingt et une étoiles bleues qui ont refusé de vieillir en se nourrissant de la matière de leurs voisines.
- Hors de l'atmosphère terrestre, Hubble dispose de capacités uniques dans le domaine de l'ultra violet. Cet avantage lui a permis d'assister à l'étonnant spectacle des aurores boréales sur Jupiter.
- Tout près d'un trou noir (à 45 années
lumières) Hubble a révélé un disque
inobservable depuis la terre. Ce pourrait être de la matière
couronnant un trou noir supermassif.
Le télescope Hubble est équipé de cinq instruments scientifiques et d'un système de senseurs stellaires pouvant fournir avec une extrême précision les coordonnées relatives d'un certain nombre d'étoiles. Ce dernier système permet à Hubble de se positionner et se stabiliser avec une précision de 0,007 secondes d'arc pendant 10 heures. Les instruments sont les suivants:
une caméra à large champ chargée principalement d'étudier les planètes. Elle est placée sur le côté du satellite alors que les autres instruments sont sur le point focal du télescope. Elle pourra donc être utilisée simultanément avec les autres appareils.
un spectrographe qui étudie les objets faiblement lumineux, fonctionnant entre 200 et 1 000 nm, il fera connaître l'intensité de la radiation en provenance d'une source ponctuelle, sa température et sa composition.
un spectrographe à haute définition, opérant dans l'ultraviolet entre 110 et 320 nm, pour déterminer avec précision la composition chimique de divers objets dans l'espace et observer les mouvements de matière dans l'univers.
un photomètre à grande vitesse capable de mesurer avec une grande précision la luminosité d'une source ponctuelle en 16 secondes, ce qui permet de suivre ces changements d'éclat.
une caméra pour objets faibles équipée
d'une cinquantaine de filtres et d'un intensificateur d'images,
et qui peut effectuer des sondages spectroscopiques à deux
dimensions. Elle permet de voir des objets de 28ème magnitude.
Ce satellite Russe lancé fin 1989 contient a son bord le télescope Français Sigma capable d'observer des sources de rayonnements X et de 30 à 2 000 keV. Les scientifiques espèrent notamment trouver des photons de 511 keV, indice caractéristique d'un trou noir au coeur de notre galaxie.
Le satellite est également équipé de plusieurs autres télescopes:
ART-P et ART-S pour l'analyse en haute définition et spectrale des sources de rayonnement X et de 3 à 100 keV.
Watch pour les sursauts de rayonnement X de 5 à 150 keV.
Konus-B pour les sursauts de rayonnement de 20 à 2 000 keV.
Phébus pour l'analyse spectrale des sursauts de rayonnement de 20 à 2 000 keV dans toutes les directions.
Tournesol pour l'analyse des sursauts de rayonnement et cosmiques de 2 à 25 keV.
KS-18-M pour la détection des protons et
noyaux d'hélium d'une énergie supérieure
à 1 keV et des électrons d'une énergie supérieure
à 50 keV.
GRO (rebaptisé par la suite Compton Observatory) est un satellite placé en orbite à 450 km d'altitude depuis avril 1991, dédié à la mesure du rayonnement gamma et plus particulièrement des sursauts de gamma. A son bord, quatre types de détecteurs couvrent une échelle d'énergie de 20 keV à 30 GeV.
La principale expérience embarquée
est le système BATSE (Burst And Transient Source Experiment),
composé de huit modules placés aux coins du satellite
et constitués de deux détecteurs chacun: un gros,
qui capte les rayons gamma dans une large gamme d'énergie;
un petit, qui présente l'avantage de mieux séparer
les photons gamma d'énergies différentes. Tous deux
fonctionnent selon le même principe: ils contiennent des
plaques de matériaux scintillants qui émettent un
petit flash de lumière U.V. lorsqu'ils sont traversés
par un photon gamma. L'étincelle U.V. est aussitôt
détectée, amplifiée et enregistrée
par le détecteur. L'association de ces deux détecteurs
permet de compter les photons et d'en donner l'énergie.
Elle apporte donc deux informations: l'évolution du taux
de comptage en fonction du temps (la courbe de lumière)
et la répartition des photons en fonction de leur énergie.
Les huit modules du système BATSE lui permettent de mesurer
avec une relativement bonne précision la direction d'où
provient le sursaut gamma. Depuis sa mise en service, le système
BATSE détecte en moyenne un flash de sursaut gamma par
jour contre quelques centaines en tout depuis ce jour.
Pour la détection du rayonnement gamma ultraénergétique, le "capteur" utilisé intègre tout simplement l'atmosphère terrestre dans son fonctionnement. Lors de l'entrée du photon dans l'atmosphère (à 20 km d'altitude) il donne naissance, au voisinage d'un noyau atomique, à une paire de particules chargées électron-positron. Lorsqu'elles sont freinées ou accélérées, toujours au voisinage d'un noyau, ces particules chargées émettent un photon. Ces réactions se reproduisent un certain nombre de fois suivant l'énergie initiale du photon et lorsque les particules n'ont plus d'énergie pour entretenir le processus, la gerbe s'éteint toute seule, en général avant d'atteindre le sol.
En plus de ces réactions, un autre phénomène
intervient en parallèle: l'effet Cerenkov. Lorsqu'une particule
chargée traverse un milieu matériel (ici l'atmosphère)
avec une vitesse supérieure à la vitesse de la lumière
dans ce milieu ( ), celle-ci polarise
électriquement les atomes du milieu diélectrique
sous l'action du champ électrique
lié à cette particule. Cette polarisation entraîne
un rayonnement bleu clair tout au long de la trajectoire de la
particule. Ce processus est local et temporaire car les atomes
se dépolarisent rapidement après le passage de la
particule. Puisqu'il s'agit d'un rayonnement dans le visible,
donc de faible énergie, celui-ci se propage sans incidence
jusqu'au sol. Il se concentre en une véritable "galette"
de lumière d'environ un mètre de diamètre
que l'on détecte à l'aide de petits télescopes.
L'ensemble de la gerbe ainsi que le rayonnement Cerenkov sont émis globalement dans la même direction que celle d'origine du photon ultraénergétique incident. En mesurant le temps d'arrivée du rayonnement Cerenkov sur chaque petit télescope, on déduit sa direction et par là celle du photon incident.
En France, sur le site de l'ancienne centrale solaire Thémis, dans les Pyrénées, l'expérience Thémistocle utilise les miroirs orientables très performants de la centrale pour télescope. Il scrute différentes sources stellaires autour d'une énergie de 3TeV notamment des noyaux actifs de galaxies comme Markarian 421 d'où proviennent des émissions de gammas brèves mais superpuissantes.
D'autres sites existent comme l'observatoire Whipple
sur le mont Hopkins en Arizona, le projet Germano-Espagnol Hegra
aux Canaries, le projet Australien Cangaroo et les télescopes
Russes Crimean GT-48 gamma et Shalon.
Les rayons cosmiques sont détectés de différentes manières suivant leur énergie:
les rayons cosmiques ayant l'énergie la plus basse sont détectés par des satellites ou sur des ballons à haute altitude grâce à des instruments de type compteurs Geiger, des chambres d'ionisation et des photomultiplicateurs, ainsi que tous les autres instruments utilisés en physique subatomique pour détecter le passage des particules chargées.
les rayons cosmiques de plus haute énergie produisent une gerbe de particules secondaires en entrant dans la haute atmosphère (voir chapitre 4.1.). Cette gerbe peut être détectée au sol grâce à l'effet Cerenkov des particules produites comme nous l'avons vu au chapitre précèdent.
si les rayons cosmiques ont une énergie suffisamment
grande, la gerbe de particules secondaires peut atteindre le sol
et y être détectée. Ces détecteurs
peuvent êtres des compteurs de neutrons ou des détecteurs
de particules chargées. Les chercheurs utilisent en général
une matrice de détecteurs pour pouvoir calculer les caractéristiques
de la particule incidente. Pour cela ils calculent les différences
de temps entre les différents capteurs et les niveaux d'énergie
des particules secondaires. Ils en déduisent donc la direction,
le type et l'énergie du rayon cosmique primaire.
Il faut remarquer que l'étude des rayons cosmiques
de haute énergie est beaucoup plus intéressante
pour les scientifiques car ce rayonnement est peu dévié
par le champ magnétique terrestre; il indique donc avec
plus de précision sa direction d'origine. De plus les particules
chargées de faible énergie ont tendance à
changer de direction lorsqu'elles traversent de la matière
stellaire chargée en s'enroulant autour des lignes de champ
magnétique. Il faut donc considérer que la direction
dans laquelle elles sont perçues par les satellites ou
autres appareils de mesure n'est pas significatif de leur direction
d'origine.
Dépourvus de charge électrique, les
neutrinos, qui bombardent en permanence la terre, la traversent
sans laisser de trace de leur passage. Néanmoins les physiciens
ont trouvé le moyen d'en capter quelques-uns dans des détecteurs
spéciaux.
Il existe deux moyens de détecter des neutrinos, en faisant collisionner le neutrino avec un noyau lourd ce qui peut donner un noyau instable radioactif ou lors d'une collision avec un noyau léger ou avec un électron ce qui fournit de l'énergie cinétique à cette particule.
La première réaction est utilisée dans le détecteur de Homestake avec du chlore 37 et dans les détecteurs GALLEX et SAGE avec du gallium 71.
Le second type de collision qui permet trois réactions
distinctes est réalisé avec de l'eau lourde dans
le détecteur SNO.
Le détecteur de Homestake mis en service en
1968 et toujours en service, est composé d'un réservoir
enterré de 400 000 litres de perchloréthylène
(C2Cl4). Lorsque le neutrino de grande énergie collisionne
avec un noyau de chlore 37 il se transforme en noyau d'argon 37
radioactif en éjectant un électron. Pour éviter
le rayonnement parasite, ce réservoir est enfoui sous 1 500 m
de profondeur. Sur les 600 tonnes de liquide (soit 1030 atomes
de chlore) on obtient en moyenne un atome d'argon radioactif tous
les deux jours.
Le détecteur germano-franco-italien GALEX utilise le gallium 71 comme élément capteur. Lorsqu'il absorbe un neutrino, il se transforme en noyau de germanium 71, également radioactif, en émettant un électron. Le neutrino incident n'a plus besoin d'être de haute énergie comme pour le détecteur de Homestake et ce capteur est sensible à tous les neutrinos émis par le soleil, quel que soit leur énergie. La cuve de ce détecteur est placée sous 2 000 m de profondeur et contient 30 tonnes de gallium sous forme de trichlorure de gallium (GaCl3). L'atome de germanium produit s'entoure de 4 atomes de chlore sous forme de tetrachlorure de germanium (GeCl4), très volatil. On espère atteindre la production d'un atome radioactif par jour.
Le détecteur de l'expérience américano-soviétique
SAGE est identique au détecteur GALEX mais il devrait doubler
la capacité de sa cuve pour atteindre 60 tonnes de gallium.
Il utilise un moyen de comptage des atomes radioactif différent
ce qui permettra d'éviter les erreurs systématiques
de mesures des deux détecteurs.
Le détecteur de Sudbury Neutrino Observatory (SNO) dans l'Ontario au Canada est constitué d'une piscine contenant 1 000 tonnes d'eau lourdes enterrée sous 2 000 m de profondeur. Trois réactions permettent de mettre en évidence le passage d'un neutrino.
Lors de la réaction a, un neutrino peut-être absorbé par un noyau de deutérium, dont il transforme le neutron en proton en éjectant un électron. L'énergie de l'électron est alors très proche de celle du neutrino incident.
Lors de la réaction b, un neutrino peut interagir avec un électron de l'eau lourde en lui communiquant son énergie cinétique.
Lors de la réaction c, un neutrino peut dissocier le proton et le neutron d'un noyau de deutérium. Le neutron ainsi libéré peut être absorbé par un noyau de deutérium se transformant ainsi en tritium radioactif. Ce dernier se transforme spontanément en hélium 3 en éjectant un électron pouvant être détecté.
Les électrons rapides produits par les trois
réactions produisent un petit cône lumineux par effet
Cerenkov. Ces éclairs sont captés par 20 000
tubes photomultiplicateurs très sensibles. Ce détecteur
capte en moyenne une trentaine de neutrinos par jours.
L'existence même de la magnétosphère
correspond à une interaction entre des particules extraterrestres
et le champ magnétique. Les deux sont liés depuis
les débuts de l'évolution terrestre pour former
un tout. Il n'est pas facile de dire si ce sont les particules
piégées ou le champ terrestre qui sont à
l'origine de la magnétosphère et des différents
phénomènes qui s'y produisent. Nous avons étudiés
dans le chapitre 2.4. Dynamique des particules chargées
les interactions au sein de la magnétosphère.
Très peu de rayons cosmiques atteignent le
sol. Lorsqu'un rayon cosmique dit primaire aborde les hautes couches
de l'atmosphère à une trentaine de kilomètres
d'altitude, il ne tarde pas à rencontrer des noyaux de
ses constituants atmosphériques (oxygène, azote,
etc.) et se brise sous l'effet du choc. Le produit de cette collision
nucléaire initiale est constitué de toute une série
de particules élémentaires dites "rayonnement
secondaire", formant une véritable cascade de particules.
Dans l'exemple ci-contre, un proton (p) heurte un noyau d'azote
pour donner des neutrons (n), des protons (p), des mésons
pi neutres (°), des mésons pi chargés (-, +),
des antiprotons () et antineutrons (
),
des mésons lourds (K) et des hypérons (Y). Les mésons
pi neutres (°) se désintègrent spontanément
en rayons gamma () qui à leur tour se matérialisent
en un positron (e+) et un électron (e-) selon le mécanisme
de la "production de paires". Les mésons chargés
(-, +) rentrent en collision avec les noyaux des constituants
atmosphériques ou se désintègrent spontanément
pour donner des mésons (-,+) et des neutrinos (). Cette
partie du rayonnement cosmique secondaire, provenant de collisions
nucléaires est appelée composante dure.
Lorsqu'ils passent dans le champ électrique des noyaux atmosphériques, les électrons rayonnent une partie de leur énergie sous forme de rayons gamma (), selon le processus connu des physiciens sous le nom de "bremsstrahlung". Cette partie du rayonnement cosmique secondaire est nommée composante douce.
De ce fait aucun rayon cosmique primaire n'a de chance
d'atteindre directement le sol, à moins qu'il ne soit doté
d'une énergie formidable.
L'arrivée d'un photon gamma ultra-énergétique
(de l'ordre du TeV) en haute atmosphère produit également
une gerbe de particules incidentes qui peut apparaître similaire
à celle produite par une particule chargée, mais
la composition du rayonnement secondaire produit par un photon
est beaucoup moins riche en éléments dures et est
surtout constituée de photons (gamma produits par freinage
de particules chargées ou visible produit par effet Cerenkov)
et de groupes électrons positrons.
Dans l'antiquité, elles étaient un
présage de mauvais augure. "C'est un gouffre par lequel
le ciel entrouvert semble vomir des flammes" avait dit le
philosophe grec Sénèque, et un tel gouffre effrayait
la population. De nos jours les satellites ont permis de mieux
connaître les mécanismes qui entrent en jeu lors
d'un tel phénomène.
Gassendi fut le premier, en 1621, à décrire scientifiquement une aurore boréale. Un siècle plus tard, Halley estimait que cette lumière provenait de particules glissant le long des lignes de champ magnétique terrestre, alors que Mairan attribuait les aurores à une émanation du soleil. La réunion de ces deux hypothèses approchait déjà la vérité. Peu après la découverte de l'électron, Birlacland parvint, en 1896, à simuler une aurore, en démontrant qu'un faisceau électrisé est déflecté vers les pôles d'une sphère magnétisée placée dans une chambre à vide. Pendant la première moitié du XXème siècle, Brermann suggéra l'existence dans l'espace interplanétaire d'un plasma émis à grande vitesse par le soleil (le vent solaire) et Stormer étudia la trajectoire des particules électrisées sous l'action du champ géomagnétique. On comprit alors que l'interaction du vent solaire avec la magnétosphère constituait une gigantesque dynamo magnétodynamique et que les aurores en découlaient par des phénomènes de décharges électriques. Des aurores artificielles ont été réalisées par l'injection d'électrons depuis des fusées.
Depuis 1980, le sondeur ionosphérique Eiscat installé en Scandinavie permet, grâce à des interféromètres et des intensificateurs d'image, de caractériser l'état du plasma auroral, de déterminer la réponse dynamique ou thermique de l'atmosphère à l'activité aurorale, et d'étudier les couplages ionosphère-magnétosphère.
L'intense flux magnétique terrestre, amplifié par la présence des particules chargées s'écoule en direction des cornets polaires (voir fig. 8) par les deux ovales auroraux en produisant les aurores. Ce phénomène repose sur les mêmes lois physiques que le fonctionnement des lampes au néon. Dans les deux cas, un faisceau de particules chargées accélérées, interagit avec un gaz à faible pression. Au fil des collisions, l'énergie perdue par les électrons, protons et autres ions engendre une élévation de la température du gaz et, de surcroît, excite les atomes et molécules du gaz raréfié. En recouvrant leur état normal, ceux-ci émettent de la lumière.
La position des ovales auroraux par lesquels passent les particules chargées en entrant dans l'atmosphère n'est pas fixe, elle dépend de l'énergie des particules de vent solaire: plus ces particules sont énergétiques, plus l'ovale sera grand et dans des latitudes plus basses. Ainsi lors de grandes éruptions solaires il est possible d'observer des aurores au nord des Etats-Unis ou même jusqu'en France. L'éruption solaire d'avril 1981 a en effet permis d'observer une magnifique aurore polaire jusque dans le midi.
Les aurores ne constituent pas un phénomène
statique, elles se modifient en permanence et peuvent se désagréger
rapidement; la période d'activité violente, de l'ordre
de 30 minutes à 1 heure, est suivie par une période
de retour au calme de l'ordre de 2 heures.
Ces orages bien particuliers naissent d'une brusque
irruption d'électrons, venant du vent solaire lors des
éruptions solaires, dans le champ géomagnétique
terrestre (on assiste alors à l'affolement des aiguilles
aimantées). Canalisés par les lignes de force de
ce champ, ils interagissent notamment avec les ions de l'ionosphère.
En les polarisant, ils créent une forte différence
de potentiels (de l'ordre de 100 000 V), créant
à son tour de puissants courants électriques.
La ionosphère est une région contenant des ions positifs et négatifs où les particules chargées se déplacent librement. Elle est donc très bonne conductrice d'électricité. Ces propriétés électromagnétiques lui permettent de réfléchir les ondes de grande longueur d'onde, c'est à dire les ondes radio ou ondes hertziennes. En son absence, les ondes se perdraient dans l'espace au lieu de s'infléchir sous l'horizon pour atteindre les stations réceptrices. Elles se trouvent donc guidées entre deux couches conductrices: la surface de la terre et l'ionosphère.
Lorsqu'un rayon cosmique arrive dans la hautes atmosphère
(particule chargée ou rayon de haute énergie) celui-ci
forme une gerbe électronique qui polarise momentanément
le gaz ionisé en suivant sa trajectoire et diminue la conductivité
du milieu. Cette chute de conductivité perturbe le passage
de l'onde hertzienne et se traduit par un "bruit" sur
le signal reçu. Lors de l'augmentation de l'activité
solaire, le grand nombre de particules arrivant dans l'ionosphère
peut perturber fortement les émissions radio sur terre
et rendre les communications sur certaines fréquences impossibles.
Si actuellement le danger pour l'homme, protégé par l'atmosphère terrestre, est très limité, il n'en va pas de même pour les astronautes en orbite autour de la terre qui eux reçoivent régulièrement des doses non négligeables de particules chargées hautement énergétiques. Les astronautes américains circulant à bord de la navette à une altitude les plaçant sous les ceintures de Van Allen comptent jusqu'à 300 particules par seconde au centimètre carré hors des périodes d'éruption solaire. Une sortie dans l'espace lors de bombardements de particules aussi intense est alors impossible car un simple scaphandre est incapable de stopper ce flux. Ces particules posent également un problème pour la construction de stations spatiales. En effet lors de séjours prolongés dans l'espace, il sera utile de prévoir les éruptions solaires et autres augmentations de flux de particules chargées pour que les astronautes puissent se réfugier dans des zones de la station spécialement protégées.
Les radiations les plus énergétiques
traversent également la magnétosphère pour
atteindre la haute atmosphère. Il y a donc également
des risques de radiations lors des voyages en haute altitude,
avec le Concorde et les autres projets d'avions supersoniques.
Les doses étant cumulatives, le risque reste extrêmement
faible pour les civils mais les pilotes et personnels de vol finissent
par cumuler des doses importantes de rayonnement ionisant.
De nombreuses hypothèses sont actuellement posées sur l'origine de la vie sur terre, nottament sur les conditions de naissance des protéines et des acides nucléiques: deux composés de base de tout être vivant.
D'après Harold Urey, ce serrait le rayonnement ultraviolet du soleil ou des photons de plus grande énergie venant du rayonnement cosmique .Les planètes possédaient primitivement des atmosphères très étendues, formées surtout d'hydrogène et de composés hydrogénés (CH4, NH3, H2O); ces molécules simples, soumises au rayonnement de photons énergétiques et aux décharges électriques des orages atmosphériques, auraient pu s'unir en molécules plus complexes d'acides aminés, constituants des protéines.
Quand aux acides nucléiques, ils seraient le résultat de l'activité des volcans sous marins.
Les conditions décrites ci-dessus et l'omniprésence
du rayonnement cosmique semble nous prouver qu'il est très
probable qu'une forme de vie analogue à la notre puisse
se développer sur les milliards de planètes évoluant
autour d'étoiles semblables au soleil.
Exemple de l'éruption solaire d'avril 1981.
En avril 1981 eu lieu une des plus importantes éruptions
solaires observées avec précision. Les effets de
cette éruption se sont faits ressentir un peu partout sur
terre comme nous le verrons à la fin de ce chapitre.
le 2 avril, apparut une tache isolée semblable à celles qui parsèment régulièrement la surface du soleil. Ces taches constituaient un centre actif qui était le berceau dans lequel naissaient les éruptions solaires.
le 7 avril, la tache ne changère pas de forme mais une petite éruption jaillit tout à côté.
le 8 avril, 16 petites taches supplémentaires firent leur apparition autour de la première et cinq nouvelles éruptions de moyenne puissance se produisirent.
le 9 avril, on comptait au total 29 taches et on en était à la quatorzième éruption dans cette région. Les magnétogrammes qui enregistraient l'activité magnétique solaire montraient une structure plus complexe qu'à l'ordinaire.
le 10 avril au matin, la grande tache initiale, de polarité positive, s'entoura d'un chapelet de petites taches alternativement positives et négatives. En rafale, 7 éruptions donnèrent le signal de déclenchement de la grande éruption qui, telle un raz-de-marée, submergea, à 16 h 45 TU, toute cette région du disque solaire. A son maximum d'étendue l'éruption couvrait 2 milliards de km², soit 4000 fois la surface de la France. Cette quantité d'énergie correspond à 10 milliards de milliards de kWh, soit 50 millions d'années de la consommation électrique de la France ou 25 milliard de mégatonnes sachant que la bombe A d'Hiroshima valait "seulement" 0,02Mt.
Ce déplacement brutal de matière solaire entraînée par cette éruption provoqua une onde de choc qui se propagea dans la couronne solaire. Cette onde, à son tour, éjecta dans l'espace un plasma, mélange d'atomes et d'ions.
58 heures plus tard, ce plasma atteignit la magnétosphère terrestre, déclenchant un très violent orage magnétique et de magnifiques aurores boréales. Une aurore polaire particulièrement intense fut observée au Canada et aux Etats-Unis. Plus inhabituelles furent les surtensions du réseau électrique à haute tension (500 000 V) aux Etats-Unis. Au Québec, un transformateur nouvellement installé grilla même complètement. Ce même soir, furent signalées des perturbations radiotéléphoniques, notamment sur les fréquences de la police au Kansas.
De plus tous les satellites artificiels circulant à moins de 3 000 km d'altitude, subirent une augmentation de la densité atmosphérique. La température dans l'exosphère grimpa soudainement de 1 200 à 2 200 K: c'est le plus grand bond jamais enregistré en quinze années de mesures. Cet échauffement entraîné par le bombardement des électrons solaires eut pour effet de provoquer une certaine agitation thermique des molécules atmosphériques qui se répandirent à des altitudes où habituellement leur nombre est très faible. A 260 km, le nombre de particules passa de 8.10-13 à 17.10-13 ce qui eut pour effet de doubler le freinage atmosphérique des satellites.
La chute prématurée de la station orbitale
Skylab en 1979 est, elle aussi, due à une éruption
solaire.
Nous n'avons fait que survoler les différents
aspects des rayonnements cosmiques et de l'environnement terrestre.
Nous aurions pu approfondir ces différents aspects, mais
notre but était de rédiger un rapport assez clair
et simple pour pouvoir être lus par une majorité
de personnes.
Pour conclure on pourrait retenir la complexité
de tous les rayonnements que nous recevons sur terre et s'il fallait
ne se poser qu'une seule question, elle serait: "Que serions-nous
sans ces rayonnements". Après avoir lu ce rapport,
je vous laisse réfléchir.
L'environnement de la terre
Francis DELOBEAU
La Science Vivante - Presses Universitaires de France
Cosmical Geophysics
A. EGELAND - . HOLTER - A. OMHOLT
Universitetsforlaget
Le ciel et la terre
A. DANJON - P. PRUVOST - J. BLACHE
Encyclopédie Française Tome III
National Océanic & Atmospheric Administration,
National Geophysical Data Center :
http://www.ngdc.noaa.gov/stp/SOLAR/COSMIC_RAYS/
ftp://ftp.ngdc.noaa.gov/STP/SOLAR_DATA/COSMIC_RAYS/cosmic_ray.txt
NASA:
http://bolero.gsfc.nasa.gov/education/Lectures/
National Science Fondation, researche in the Geosciences
:
http://www.geo.nsf.gov/atm/nswp/ii.html
Agence Spatiale Européenne, projet Intégral
:
http://astro.estec.esa.nl/SA-general/Projects/Integral/integ_objenum.html
The development of the Themis site IN2P3 :
http://borsu8.in2p3.fr/Astroparticle/celeste
How are cosmic rays detected Haverah Park Group Page
:
http://ast.leeds.ac.uk/haverah/hav_home.html
PET: A Proton/Electron Telescope for Studies of Magnetospheric,
Solar, and Galactic Particles :
http://www.srl.caltech.edu/sampex/pet.html
Université de Washington, Particle Astrophysics
Group :
http://marge.phys.washington.edu/
Science & Vie, n°: 769, 784, 796, 840, 868,
870, 874, 892, 893, 899, 912, 918, 943.
Sciences & Avenir, n°: 519, 521, Hors-Série
104: Voir l'invisible.
Tab. 1 | Composition de l'air au sol |
Fig. 1 | Répartition des constituants atmosphériques en fonction de l'altitude |
Fig. 2 | Régions atmosphériques du point de vue thermique |
Fig. 3 | Distribution des paramètres atmosphériques |
Fig. 4 | Distribution de la concentration électronique |
Fig. 5 | Localisation des ceintures de Van Allen |
Fig. 6 | La dynamo de Faraday |
Fig. 7 | Induction magnétique terrestre et ses lignes de forces |
Fig. 8 | Déformation des lignes de champ par le vent solaire |
Fig. 9 | Mouvement d'une charge électrique dans une induction uniforme |
Fig. 10 | Mouvement nord-sud d'une charge entre points miroirs |
Fig. 11 | Dérive en longitude des charges électriques |
Fig. 12 | Variation de la température dans l'atmosphère solaire |
Fig. 13 | Réactions nucléaires en cascade au coeur du soleil |
Fig. 14 | Diagramme de Hertzsprung-Russell |
Fig. 15 | Evolution de la quantité de neutrons cosmiques et du nombre de taches solaires dans le temps |
Tab. 2 | Les plus grands télescopes du monde |
Fig. 16 | Le télescope Hubble |
Fig. 17 | Gerbe de rayon cosmique |
Fig. A-1 | Différentes couches du globe terrestre |
Fig. A-2 | Cornets polaires |
Fig. A-3 | Altitude de demi-absorption |
Fig. A-4 | Capteur de GRO |
Fig. A-5 | Composition du soleil |
![]() |
![]() |
![]() |
||
![]() |
|
|||
Mis à jour le 31/03/00 | © Vincent LAFON |