Quantcast
Channel: Couleur Science
Viewing all 335 articles
Browse latest View live

Les atomes exotiques

$
0
0

On entend parfois parler de la « matière exotique » ou d’« atomes exotiques ». Je ne parlerais ici que de la seconde (le reste sera pour une autre fois).

Si les atomes normaux sont connus de tous, avec leurs protons, leurs neutrons et leurs électrons, les atomes exotiques sont des formations atomiques un peu particulières.
Je vais d’abord avoir besoin de faire un bref point sur les atomes ordinaires et le modèle standard de la physique quantique.

Les atomes

Je pense que tout le monde est plus ou moins familier avec ce tableau :

le tableau périodique
↑ Le tableau périodique des éléments — (source)

Toute la chimie, tous les objets, toute la biologie et la vie, vous et moi sont composé d’éléments présents uniquement dans ce tableau.

Si tous ces éléments présentent déjà beaucoup de curiosités, comme l’or et sa couleur, le plutonium ou le fer, présent dans le sang, ça n’est pas assez pour le scientifique fou dans son labo et on peut créer plein d’autres choses.

Les atomes exotique donc, c’est quelque chose de bien différent de ce que nous connaissons et, je vous le dis tout de suite, on ne risque d’en trouver ni dans la nature ni dans les magasins (en tout cas pas dans un futur proche et probablement pas dans notre univers).

Le modèle standard

En physique quantique, on parle du modèle standard pour définir et classer les différentes particules élémentaires de la matière qui existent :

les particules du modèle standard
↑ Les particules du modèle standard — (source)

On retrouve, tout en bas à gauche, l’électron.
Le proton et le neutron sont formés des quarks up et down (3 chacun : 2 up + 1 down et 1 up + 2 down respectivement). Enfin lors de la désintégration radioactive de certains atomes il est parfois émis un neutrino électronique. Ces quatre particules sont toutes dans la première colonne du tableau.

Maintenant, si on considère la dernière ligne, on voit que les caractéristiques spin et charge de l’électron, du muon et du tau sont identiques. Seule la masse (ou l’énergie) varie. Chaque ligne regroupe en fait des particules ne différant que par leur masse et chaque colonne regroupe les éléments par « génération » selon la masse ou l’énergie : la première colonne regroupe les basse énergie, la seconde d’énergie moyenne et la dernière de haute énergie.

Fait d’électrons, de protons et de neutrons, nos particules et notre monde correspondent à la basse énergie du modèle standard. Toute la physique que l’on observe, incluant ce qui se passe dans le tableau périodique, la chimie ou les centrales nucléaires et le cœur des étoiles concerne cette physique de basse énergie. La basse énergie est celle qui est la plus stable et c’est sûrement pour ça que notre univers est composé presque uniquement de ces particules là.

D’autres univers pourraient être fait des niveaux d’énergie supérieurs au notre, mais on n’a pas encore de quoi les observer. On observe en revanche des particules isolées de moyenne et haute énergie ! Par exemple, quand les rayons cosmiques très énergétiques frappent l’atmosphère, une partie de l’énergie est transformée en particules très massives : des muons.

Le muon est l’équivalent plus énergétique de l’électron, et, malgré sa durée de vie de seulement 2,2 µs, on est capable de faire des atomes avec !
C’est ce genre d’atomes, constitué d’un assemblage de particules que l’on n’a pas l’habitude de voir, qu’on nomme « atomes exotiques ».

Les atomes exotiques

L’hydrogène muonique


Je viens de le dire : il est possible de remplacer un électron par un muon, vu qu’il a la même charge.
Si l’on prend un proton que l’on associe à un muon, on obtient un atome d’hydrogène muonique.

Étant donnée que le muon est bien plus lourd que l’électron, le muon qui tourne autour du noyau est sur une orbitale bien plus proche de ce dernier et l’atome est beaucoup plus petit.

Cette particularité a plusieurs applications potentielles, comme la fusion nucléaire froide catalysée par muons. Normalement, pour faire fusionner des atomes, on doit les chauffer à des températures proches de ce que l’on trouve dans le cœur du Soleil (15 millions de degrés) si ce n’est beaucoup plus si on veut s’affranchir de la fusion probabiliste par effet tunnel, auquel cas il faut chauffer à près de 100 millions de degrés.
Ces températures sont nécessaires pour permettre à deux atomes et leurs noyaux de se rapprocher suffisamment pour fusionner. L’atome d’hydrogène muonique étant plus petit, il est plus simple de le fusionner et les températures requises sont moins hautes. L’un des plus gros problèmes pour un réacteur nucléaire à fusion froide catalysée par muons, c’est la durée de vue trop courte des muons (2,2 µs).

Le muonion


Les anti-particules sont opposées à nos particules selon divers caractéristiques quantiques dont la charge. Chaque particule se voit associer une anti-particule : l’électron avec son anti-électron (ou positron) ou le neutrino électronique avec l’anti-neutrino électronique sont les plus courantes car rencontrées dans la désintégration radioactive depuis longtemps.

Les muons ont aussi leur anti-particules : l’anti-muon. Sa charge est alors positive et est donc la même que le proton ou le positron.

Devinez quoi ? On peut remplacer un proton par un anti-muon ! Si on fait ça dans un atome d’hydrogène, on obtient un électron orbitant autour d’un anti-muon : le muonium.
Cet atome exotique, découvert déjà en 1960, possède même son propre symbole chimique : Mu (informel).

Cet atome exotique conserve (grâce à l’électron) les propriétés chimiques de l’hydrogène, et on a réussi à faire de l’eau muonique appelé hydroxyde muonique (HOMu), du chlorure de muonium (MuCl) ou du méthane contenant du muonium : le muoniométhane.

Encore une fois, tous ces atomes ont une durée de vie très courte à cause de l’anti-muon qui est très instable (et qui finit par se désintégrer spontanément après 2,2 µs en moyenne).

Les oniums : positronium et protonium


Un onium est une structure atomique où une particule chargée orbite autour de son anti-particule, de charge opposée (mais de masse identique).

Si l’électron orbite un positron, on obtient un atome de positronium. On a bien deux ici particules de charges opposées, mais contrairement à l’atome classique où le noyau est environ 1 000 fois plus lourd que l’électron on a ici une particule et son anti-particule de masse identique. Les deux sont donc pris dans une sorte de danse autour d’un barycentre commun :

le positronium
↑ Schéma du positronium — (source)

Comme le muonium, le positronium a été synthétisé (depuis 2007), elle possède un symbole « Ps » et on a prédit des molécules positroniques, où cet atome exotique remplace un atome d’hydrogène : le PsH, le PsCl, le PsLi ou encore le Ps2 ont été observées.
Ces molécules et le positronium lui-même sont très instables (durée de vie de 100 ns) et se terminent par une annihilation matière-antimatière.

À la place de l’électron, on peut prendre le proton et l’antiproton : l’atome exotique ainsi obtenu est le protonium, dont le symbole est pp (reprenant le symbole « p » du proton et le « p-barre » de l’anti-proton).
Cet atome exotique a la particularité d’être le théâtre d’une bataille entre l’interaction forte et l’interaction électromagnétique. Là aussi cet ensemble est très instable et se termine en annihilation matière-antimatière.

Le pionium


J’ai dit plus haut que le proton et le neutron sont chacun formés de 3 quarks. Ce sont dès lors des baryons.
Des assemblages de seulement 2 quarks sont appelés des mésons et on peut former des atomes exotiques avec des mésons !

L’une des catégories de mésons sont les mésons-π (Pi), qui existe en trois exemplaires : π⁺, π⁻, π⁰.
Quand on fait un atome exotique avec le méson-π⁺ et le méson-π⁻ orbitant l’un autour de l’autre, on obtient un pionium.

Considérant qu’il existe 2 formes de quarks de basse énergie (up et down) et que chacun possède sont antiparticules (anti-up et anti-down) et qu’on a la même chose pour les quarks d’énergie moyenne et élevée, on obtient toute une collection de mésons différent : pions (π⁺, π⁻, π⁰) kaons (K+, K−, K⁰ Ks⁰, Kl⁰), Êta (plusieurs variantes là aussi)… et autant d’anti-mésons. Tous sont susceptibles de former des atomes exotiques, même si très peu ont encore été synthétisées ou observées.

En plus du pionium, on peut parler de l’hydrogène kaonique : c’est un proton autour duquel il orbite un kaon K⁻. Si on avait deux kaons à charge opposée, on parlerait de kaonium, mais ils n’ont pas encore été observés.

Atomes hypernucléaires


Quand on regarde le tableau du modèle standard, on peut dire que le quark strange « s » est au quark down ce que le muon est à l’électron. Or, le quark down est un composant des nucléons que sont le neutron et le proton.
Vous le devinez : on peut faire un nucléon contenant un quark strange : ce sont alors des hypérons, comme le Σ (sigma), le Ξ (xi) ou le Ω (oméga).

Si cet hypéron est placé dans un atome à la place d’un nucléon, alors on obtient un atome hypernucléaire.

En raison de la forte masse (pour une particule, hein) des quark strange, ces derniers sont très compliqués à produire et aussi très instables (durée de vie de l’ordre de la nanoseconde) et finissent pas se désintégrer en énergie, mésons et baryons (protons et neutrons).


Je termine ma liste sur l’atome hypernucléaire, mais j’espère que ça vous a montré un peu l’ampleur des possibilités offertes par la physique des particules. Alors que le tableau périodique permet de voir tout le « bestiaire » de la chimie, le noyau de l’atome est à lui seul un autre monde rempli de quarks, qu’il est possible d’assembler en mésons, hypérons et d’autres particules et atomes exotiques. C’est un peu ce qu’ils font au Cern dans le LHC et dans les autres accélérateurs de particules dans le monde.

Pourquoi dit-on que les astéroïdes sont remplis d’or ou de métaux précieux ?

$
0
0
asteroid 243 Ida
L’astéroïde 243 Ida et sa lune, Nasa.

Alors que d’un côté certains éléments extraits de la Terre deviennent de plus en plus rares, et que de l’autre on a des astéroïdes qui sont plein d’éléments rares, il est logique désormais qu’on en arrive à des projets de minage des astéroïdes, y compris par des sociétés du secteur privée (Planetary Ressources, DSI…).

Mais une question peut être posée : pourquoi les astéroïdes sont remplis d’or ?

Déjà, les astéroïdes contiennent de l’or et d’autres éléments. Ils ne sont pas fait uniquement de ça. Mais pour savoir pourquoi il y en a plus que sur Terre, il faut commencer par le début : d’où vient l’or ?

La formation de l’or dans l’univers

Déjà il faut savoir un truc : dans l’univers, 92% des atomes sont de l’hydrogène. La majorité des 8% d’atomes qui restent sont de l’hélium.
Tous les éléments autres que ces deux là sont seulement là à l’état de traces.

Si on a des planètes entières formées de ces éléments, c’est que les planètes représentent une masse ridicule, même face à une étoile de taille moyenne : les 4 planètes telluriques réunies représentent ~0,000007% de la masse du Soleil.
On peut donc considérer que toute la masse des planètes rocheuses ne représente qu’une trace dans le système solaire.

Parmi les éléments autres que l’hydrogène et l’hélium, on distingue deux catégories : les éléments légers (avant le fer dans le tableau périodique) et les éléments lourds (après le fer dans le tableau périodique).

Les éléments légers sont produits dans les étoiles, par fusion nucléaire (c’est le cas de l’oxygène, de l’argon, du carbone, du calcium…) et les éléments plus lourds sont produits lors des supernovas, l’explosion des étoiles massives (le cas du cuivre, or, uranium, platine, tungstène…).

C’est donc des supernova que provient le métal qui nous intéresse : l’or.

La présence d’or sur Terre

Après une supernova et la mort d’une étoile géante, tous les éléments se retrouvent diffusées dans l’espace. La matière (toujours majoritairement de l’hydrogène), sous l’effet de la gravité va de nouveau se condenser et une nouvelle génération d’étoiles va se former, avec autour d’elles une série de planètes composées des éléments plus lourds qui n’ont pas eu le temps de tomber dans la nouvelle étoile.

La majorité de l’or sur Terre provient de là… Mais pas celui de vos bijoux !

Notre planète, juste après sa formation, était une boule de magma liquide : les éléments ont peu à peu décantés, et les éléments les plus lourds se sont retrouvés au centre et les plus légers sont restés en surface : on appelle ça la différenciation planétaire.
Parmi les constituants du noyau terrestre, on trouve donc du fer et du nickel, mais aussi de l’or, du platine, du rhodium, du tungstène… La croûte terrestre est composée majoritairement de silicium, d’oxygène, d’aluminium, de titane.

Il y a beaucoup d’or sur Terre : c’est juste qu’elle se trouve dans le noyau.

Alors d’où vient l’or des filons et des mines ?
Il vient en fait des astéroïdes. En effet, ces derniers, bien moins massifs et beaucoup moins chaud, n’ont pas eu de différenciation : tous les éléments chimiques y sont donc plus ou moins mélangés.

Quand un astéroïde frappe la Terre, ses constituants se déposent à la surface de la planète. Il suffit qu’un astéroïde soit tombé assez récemment pour que son contenu soit encore directement accessible à la surface. La matière des météorites tombés plus anciennement remonte quant-à-elle à la surface grâce au volcanisme.

Quand on exploite une mine d’or (ou de n’importe quel métal lourd et particulièrement ceux qui sont inertes chimiquement), on exploite généralement soit les abords d’un ancien site météoritique, soit une région anciennement volcanique. C’est ça qui fait que le minerai est présent sous la forme de filons et non pas de façon uniforme partout sur Terre.

L’or dans les astéroïdes

Je l’ai dit un peu plus haut : les astéroïdes, comme toutes les planètes rocheuses sont formés des restes d’éléments lourds et solides présents sur place lors de la formation du système solaire. L’or n’y est pas plus abondant que sur Terre : l’or y est plus abondant que dans la croûte terrestre seulement. De plus, l’or s’y trouve aussi bien à la surface qu’à l’intérieur, à cause de la différenciation qui n’a pas eu lieu.

C’est parce qu’elle se trouve à la surface qu’il est beaucoup plus rentable et pratique d’aller la chercher là-bas ! En effet, envoyer une sonde spatiale sur un astéroïde, on sait le faire et c’est seulement un problème de coût. Par contre, creuser un trou jusqu’au centre de la Terre, on ne sait pas faire et ce n’est pas possible techniquement (il faut traverser le manteau rocheux à 5000 °C puis creuser dans un noyau métallique, le tout sous des pressions et des contraintes inimaginables).

Voilà pourquoi on parle (souvent de façon hyperbolique quand même) d’astéroïdes « remplis d’or » : l’or y est simplement plus accessible que sur Terre et pas forcément en quantité plus importantes.

Pour aller plus loin, sachez que tous les trésors ou ressources minières qu’il est envisagé de miner ne sont pas d’or ou d’argent : certaines comètes sont remplies de glace d’eau. Or l’eau, si on l’électrolyse, on se retrouve avec de l’hydrogène et de l’oxygène, qui n’est autre que du carburant pour fusée. Il est dès lors possible de faire des « stations essence » pour les expéditions spatiales : ce serait beaucoup plus rentable là aussi que de prendre le carburant sur Terre (qui y est plus abondant, mais qui pèse lourd au décollage).

Sans oublier non plus l’énergie solaire : sur Terre, une bonne partie du flux lumineux reçu du Soleil est directement réfléchie dans l’espace et une autre partie est diffusée ou absorbée par l’atmosphère. L’espace est encore plus propice à l’exploitation de l’énergie solaire qu’elle ne l’est sur Terre : ce n’est pas pour rien que la station spatiale internationale (ISS), le télescope spatial Hubble ou diverses autres sondes ou satellites sont alimentées par des l’énergie solaire.

Enfin, d’autres éléments chimiques sont simplement absents de la croûte terrestre car ils se sont envolés dans l’espace inter-planétaire. C’est le cas de l’hélium-3. À cause du volcanisme et de la modification des roches continentales, tout l’hélium-3 que la Terre avait n’est plus là aujourd’hui. La Lune en revanche possède d’importantes ressources d’hélium-3, piégée dans la roche depuis des milliards d’années. Cet hélium est un possible combustible nucléaire pour des centrales à fusion, qui sont beaucoup plus propres que les centrales actuelles. L’hélium-3 et la Lune sont à la base de l’intrigue du film « Moon ».

L’origine astronomique de Noël

$
0
0

un flocon de neige
Contrairement à ce que peut laisser penser le titre, Noël n’est pas une fête extraterrestre : j’entends par astronomique qu’il tire son origine de l’observation des astres.

Vous l’avez sûrement remarqué, en hiver la journée est courte et la nuit est longue, alors qu’en été la journée est longue et la nuit courte.
Le passage des saisons montre donc une alternance entre une période, du 21 juin au 21 décembre, où la journée dure de moins en moins longtemps et où le Soleil est de plus en plus bas dans le ciel. et une autre période, du 21 décembre au 21 juin, où la journée est de plus en plus longue et le Soleil va de plus en plus haut dans le ciel.

Nos ancêtres l’avaient également remarqué. Or comme le Soleil était essentiel à leur vie et à leur survie, ne serait-ce que pour faire pousser les récoltes et pour éclairer. Ils étaient donc naturellement inquiet que le Soleil descende si bas dans le ciel hivernal. Quand finalement vint le moment où le Soleil s’arrête de descendre le jour du solstice d’hiver (de « sol », Soleil et « -stice », arrêt) pour ensuite commencer à se relever, les Païens organisaient alors une grande fête, le « Sol Invictus » destinée à célébrer le présage de jours plus longs et plus chauds.
L’idée du Soleil renaissant dans sa splendeur a donné l’expression « dies natalis solis invicti », ou le jour de la naissance du Soleil invaincu.

Le solstice d’hiver ayant généralement lieu autour du 21 décembre, la fête se tient le 24 ou le 25 décembre, soit quelque jours après le solstice, le temps que sa remontée dans le ciel soit notable et visible par les observateurs et les astronomes.

Quant à la définition chrétienne de Noël, elle a été placée le même jour que la fête Païenne par l’Église, afin de profiter d’une fête qui était déjà largement implantée dans la culture populaire et ainsi mieux se propager un peu partout en Europe. Il a quand même fallu attendre l’an 336, soit plus de trois siècles après Jésus Christ, pour que la naissance de ce dernier soit placée le 25 décembre et vienne remplacer Sol Invictus. Car bien avant l’an 336, et même avant l’an 1, Sol Invictus et toute cette période était déjà festive pour beaucoup : les Romains, les Grecs et les Gaulois célébraient entre autres :

  • Sol Invictus, et le retour des jours plus longs ;
  • le Culte de Mithra, chez les Romains ;
  • les Saturnales, chez les Romains, pour fêter le dieu Saturne ;
  • Épona, une déesse Gauloise, également fêtée en décembre ;
  • Les Petites Dionysies (rurales), à la même époque de l’année chez les Grecs et célébrant Dionysos. Les Grandes Dionysies, dans les villes, avaient elles lieue en mars.

Durant la fin du mois de décembre les anciens organisaient donc des festins et s’échangeaient des cadeaux. Les esclaves et les maîtres étaient temporairement égaux voire leurs statuts échangés, les écoles et le travail suspendus.
Tous ces rituels très populaires ont été plus ou moins conservés par l’Église dans ce qui deviendra après le IIe et IIIe siècle, le Noël chrétien.

Voilà : ce que l’on fête le 25 décembre comporte donc à l’origine et avant tout une dimension astronomique et sociale.
Donc si la dimension religieuse de Noël vous gêne ou vous semble anti-laïque, vous pouvez toujours fêter le même jour de l’année pour son côté astronomique. Sinon, vous pouvez également fêter l’anniversaire d’Isaac Newton (le 25 décembre 1642 dans le calendrier Julien, en vigueur à l’époque en Angleterre) , ou « Newtonmas ». Et pour le nouvel an, fêtez donc la périhélie le 4 janvier ! Le jour de l’an actuel est placé 7 jours après Noël par l’église, mais le 4 janvier marque, lui, la date où la Terre sur son orbite elliptique est au plus proche du Soleil.

Références :

image d’Alexey Kljatov

Bonne année ! …mais c’est quoi une année ?

$
0
0

En ce Jour de l’An, on vous a probablement souhaité la bonne année un gogool de fois, mais je vous la souhaite ici une fois de plus quand même : bonne année à tout le monde !

Mais au fait, savez-vous vraiment ce qu’est une année ?

La durée de révolution de la Terre autour du Soleil ? Oui, mais comment ? Car la Terre ne passe pas toujours au même moment au même endroit ni au même endroit. Voyons tout ça.

On distingue plusieurs années : l’année civile, l’année solaire, l’année sidérale et l’année anomalistique (oui, ça devient de plus en plus compliqué, aussi je vais m’arrêter ici, car il y en a d’autres, comme l’année sothiaque, en référence à l’étoile Sirius ; draconitique, qui fait intervenir l’orbite de la Lune ou l’année scolaire qui n’a rien à voir).

L’année civile

C’est l’année des calendriers, qui commence le 1er janvier et se termine le 31 décembre.

un calendrier
(image)

Elle compte un nombre entier de jours, et ceci est important car du point de vu de la rotation et la révolution des astres, rien n’oblige la révolution d’être d’une durée égale à un nombre entier de rotations. Cette particularité est donc purement artificielle et mise là par simple commodité. Si l’année civile autorisait des fractions de jours, alors elle durerait 365 jours 5 heures 49 minutes et 12 secondes.

2016 sera une année bissextile, donc à 366 jours : le jour de plus que les autres années compensant la fraction d’année accumulée au cours des 4 dernières années.
Une année sur quatre est bissextile, sauf quand l’année est celui d’un nouveau siècle : les années 1700, 1800 ou 1900 n’étaient pas bissextiles. Mais quand l’année d’un nouveau siècle est un multiple de 400, alors il redevient bissextile : l’année 1600 était bissextile et l’an 2000 aussi.

Cette algorithme un peu étrange se comprend quand on remarque qu’une année vaut $365\text{ jours} + \frac{1}{4}\text{ jour} − \frac{1}{100}\text{ jour} + \frac{1}{400}\text{ jour}$

L’année solaire (ou année tropique)

Elle rend compte des saisons et de la position du Soleil dans le ciel : par exemple, une année solaire sépare exactement deux équinoxes de printemps, ou exactement deux solstices d’été.
L’année solaire est estimée (en 2000) à 365 jours 5 heures 48 minutes 45,25 secondes. C’est donc légèrement moins que l’année civile.

La raison à l’existence de cette année est que l’axe de rotation de la Terre oscille, comme, une toupie sur le point de s’arrêter. On appelle ça la précession, et on parle ici de la précession des équinoxes :

précession des équinoxes
La précession des équinoxes : l’axe de rotation de la Terre oscille. (image)

Le cycle de la précession des équinoxes pour la Terre est de 26 000 ans environ. Une autre conséquence de cette précession, en dehors de la durée de l’année solaire, est que le pôle nord géographique ne pointera pas toujours au même endroit dans le ciel. Actuellement pointant vers l’étoile polaire, d’ici quelques milliers d’années ça ne sera plus le cas. L’étoile la plus proche du nord en l’an 3 100 et jusqu’à l’an 5 300 sera γ Cephei.

L’année sidérale

Cette définition de l’année rend compte de la position du Soleil dans le ciel, sur le fond composé des autres étoiles. En effet, au cours de l’année, les constellations (et donc les étoiles) visibles dans le ciel à une heure donnée changent. Quand on retrouve les mêmes constellations (et donc les mêmes étoiles) au même endroit dans le ciel et à la même heure, alors il s’est passé une année sidérale.

Cette année là est encore différente en durée : elle dure (pour l’an 2000), 365 jours 6 heures 9 minutes 10 secondes (soit 20 minutes de plus de l’année tropique). La différence ici n’est issue que de sa définition : l’année tropique ne considère que la position du Soleil dans le ciel, alors que l’année sidérale (du latin « sider », étoiles) prend en compte les autres étoiles visibles, et il se trouve qu’à cause de la précession des équinoxes — là encore — il faut attendre quelques minutes de plus, pour que le Soleil rattrape la position des autres étoiles décalées à cause de la précession des équinoxes.

L’année anomalistique

Il s’agit de la durée entre deux passages de la Terre à la périhélie. L’orbite de la Terre étant une ellipse et pas un cercle parfait, il y a un point de l’orbite où la Terre est au plus proche du Soleil (le périhélie) et un point où il est au plus loin (aphélie).

Or l’orbite elliptique de la Terre est elle-même en rotation autour du Soleil : l’ellipse change d’orientation au fil des années, notamment à cause de l’influence gravitationnelle des autres planètes proches (Vénus) ou très massives (Jupiter) :

précession du périhélie
La précession du périhélie : l’orbite de la Terre se décale tous les ans). (image)

Il faut environ 112 000 ans pour que l’orbite ait ainsi fait un tour complet.

L’année anomalistique dure 365 jours 6 h 13 min et 52,539 secondes, légèrement plus longue que l’année sidérale donc, le temps que la Terre rattrape le point de périgée qui s’est décalé (dans le même sens que la Terre) durant l’année écoulée.

La science moderne est récente

$
0
0
paysage islandais
↑ Paysage en Islande, île formée grâce à la tectonique des plaques (source)

La Relativité Générale a 100 ans depuis quelques semaines. La physique quantique — celle qui permet les ordinateurs, les lasers et les Led — est à peine plus ancienne : les prémisses de cette théories ont été posées par Bohr en 1900.
On peut penser que ces deux grands modèles théoriques de la physique sont les seules chamboulements qui ont eu lieu en science au cours du siècle dernier. Et bien sachez que c’est faux : d’autres faits marquants qui nous semblent parfaitement acquis sont en réalité bien plus récents que ces deux là !

Dans cet article, remettons à leur place quelques dates qui ont marqué les sciences et constatons que tout ce qu’on apprends à l’école aujourd’hui est en réalité très récent !

L’âge de la Terre

Beaucoup de tentatives de détermination de l’âge de la Terre ont eu lieu : Ussher et Newton au XVIIe siècle dataient la naissance de la Terre à 4000 ans avant J.-C en se basant sur la bible. Les scientifiques Lamarck et Maillet au XVIIIe siècle avaient calculé que la Terre devait avoir entre 2 et 4 milliards d’années, d’après les couches géologiques et les courants océaniques. Kelvin, lui, donnait environ 100 millions d’années à notre planète, utilisant la récente discipline de la thermodynamique à laquelle il a lui-même grandement contribué.

La mesure de l’âge de la Terre à sa valeur admise aujourd’hui — 4,55 milliards d'années — est basée sur la datation radioactive de l’uranium sur des météorites. Cette valeur a été déterminée seulement en 1953 et est due à Clair Patterson. C’est la méthode la plus fiable pour déterminer l’âge de notre planète et celle du système solaire : utiliser les couches géologiques ne l’est pas car les premières couches ont été détruites la tectonique des plaques, et les courants océaniques actuels n’ont quant à eux pas toujours existé non plus.

En parlant de l’idée de la tectonique des plaques, celle-ci est également très récente.

La tectonique des plaques

Comment expliquer les formes complémentaires de l’Amérique du sud et de l’Afrique ? Et comment expliquer les similitudes géologiques de ces deux régions, et la découverte des mêmes fossiles de part et d’autre de l’atlantique ? Pour Wegener en 1915, c’était dû à la dérive des continents. Cette idée a longtemps été rejetée, faute de preuves (à l’époque on se contentait de dire qu’un « pont » naturel entre l’Afrique et l’Europe reliait l’Amérique, et que ce pont à disparu depuis).

Ce n’est qu’en 1960, après avoir cartographié les fonds de l’océan Atlantique, que Bruce Heezen et Marie Tharp ont découvert une preuve de l’expansion des océans et de la dérive des continents : la présence des rifts océaniques, où naissent le fond des océans. Deux années plus tard, Hess montra comment fonctionne le phénomène inverse : la subduction.

Il a fallu attendre 1967 pour voir apparaître une théorie complète sur des plaques continentales indépendantes les unes des autres. L’intuition d’une tectonique des plaques a donc à peine 100 ans et la théorie et les preuves qui vont avec, à peine moitié moins.

L’âge du Soleil et son fonctionnement

Le Soleil a le même âge que la Terre et que le reste du système solaire. Son fonctionnement n’est pourtant connu que depuis récemment. La cause ? La fusion nucléaire et la radioactivité qui n’étaient pas connus avant le début des années 1900 ! Les seules idées avant cela pour décrire son fonctionnement étaient la chimie : on pensait que le Soleil était fait de charbon et qu’il brûlait.
On sait aujourd’hui que ce modèle donnait à notre étoile qu’une espérance de vie de seulement quelques milliers d’années (ce qui était à l’époque conforme à la bible et donc plus ou moins accepté).

En 1860, Kelvin proposait un mécanisme de compression et décompression du Soleil pour expliquer la chaleur émise. Ce mécanisme connu sous le nom de mécanisme de Kelvin-Helmholtz donnait au Soleil un âge de 20 millions d’années.

Il a fallu attendre 1920 avec Perrin pour que l’hypothèse de la fusion nucléaire stellaire fasse son apparition, et plus longtemps encore pour expliquer son spectre d’émission (Payne en 1925), sa formation (Chandrasekhar en 1939) et la présence détectée de tous les métaux et éléments lourds dans le Soleil ainsi que la formation des systèmes planétaires (Burbidge & Co en 1957).

Pensez-y : on utilise les métaux depuis l’antiquité et la chimie moderne depuis plus de 250 ans. Mais avant 1957, la seule réponse possible à la question sur l’origine de ces métaux était « on les extrait du sol, dans les mines. », sans pouvoir expliquer comment ils se sont retrouvés dans le sol… Il a fallu attendre l’astrophysique moderne pour expliquer l’origine des atomes qui composent les objets, notre planète et même notre propre corps.

Les dinosaures

Les os de dinosaures sont connus depuis toujours. Les civilisations antiques les attribuaient à des restes de créatures mythologiques (dragons…). Il a fallu attendre le XIXe siècle et le début du classement des espèces vivantes selon leur caractéristiques pour que les dinosaures soient classés comme d’anciennes espèces de reptiles, aujourd’hui éteints. Leur âge n’était pas connu avec certitude (pour la simple raison que l’âge de la terre n’était pas connu non plus).

Le terme « dinosaure » a lui-même été inventé en 1842, par un paléontologue du nom de Richard Owen.

De plus, ce que l’on considère nous même comme des lézards géants recouverts d’écailles pourrait bien être un faux aperçu des dinosaures : de plus en plus, on pense qu’ils étaient recouverts de plumes ou de poils très colorés…

L’expansion de l’Univers & le Big-bang

Avant la publication de la théorie de la relativité par Einstein, l’idée d’un univers en expansion n’était pas du tout acceptée.
Depuis Newton, on se contentait d’un univers fixe, qui était toujours là et qui le sera toujours également. La raison était simple : un univers fixe était suffisant pour expliquer tout ce qu’on voyait. Il n’y avait pas besoin d’une complication supplémentaire dans les théories cosmologiques qui l’étaient déjà suffisamment.

En 1920, Lemaître montra que la relativité générale autorisait le fait que l’univers ne soit pas statique : qu’il puisse être en expansion, en contraction et qu’il puisse évoluer. En 1929, Hubble (le gars, pas le télescope) découvrit que les galaxies lointaines s’éloignaient tous de nous, notant au passage que la vitesse d’éloignement augmentait avec leur distance par rapport à nous.

La conclusion à ça est que l’univers était en expansion. Ceci signifiait aussi qu’à chaque instant dans le passé, l’univers était plus petit qu’il ne l’est dans le présent, et donc qu’à un moment, l’univers était aussi petit qu’un point. Ce point aurait soudainement explosé, créant la matière, l’énergie, l’espace-temps et évoluant en tout ce qu’on observe aujourd’hui. Cette explosion ponctuelle, c’est le Big-bang.

L’idée d’un Big-bang apparut seulement dans les années 1930, et le terme lui-même n’était pas né avant 1949.

L’accélération de l’expansion de l’Univers

Si l’univers est en expansion, on imaginait 3 cas possibles : dans la première, l’expansion est infinie, la force de gravité n’étant pas suffisante pour l’arrêter ; pour la seconde, l’expansion va un jour s’arrêter et s’inverser : on aura alors droit à une contraction de l’univers ; et enfin la troisième, l’expansion est infinie mais va tendre asymptotiquement vers un état d’équilibre, où plus rien ne bouge : les forces de gravité et les forces de répulsion du Big-bang étant parfaitement équilibrées.

Les mesures effectuées (par des groupes de recherches différents et opposés, qui plus est) pour connaître la vitesse et l’évolution de la vitesse de l’expansion a donné un résultat totalement inattendu mais identique pour chaque groupe de recherche : l’expansion est accélérée ! Ce n’a pas 20 ans, puisqu’elle date de 1998.

Aucun théorie n’explique encore cette accélération : pour le moment on donne le nom d’Énergie noire à quoi que ce soit qui puisse être responsable de ce phénomène.

Les particules subatomiques

Électron, proton, neutrons… ça vous dit quelque chose ?
Le modèle de l’atome date du début du XXe siècle et l’idée d’une matière composée de particules, bien que proposée depuis la Grèce antique, était largement débattu jusqu’au début du XXe siècle.

L’électron et le proton sont respectivement mis en évidence en 1897 et 1919. Pour le neutron, il faut attendre Chadwick en 1932… À peine 4 ans après que le physicien Max Born déclara « la physique, telle que nous la connaissons, sera terminée dans 6 mois », rejoignant Kelvin en 1900, disant que la physique était une science sans avenir, quelques années avant la naissance de la physique quantique et de la relativité.

Le classement phylogénétique

Il s’agit de la taxinomie : le classement et le répertoriage des espèces vivantes. Le classement phylogénétique remplace la classification dite classique. Cette dernière se base sur les ressemblances visibles entre les espèces, alors que le classement phylogénétique ne se base pas uniquement sur le visuelles, mais aussi sur des choses qui le sont beaucoup moins, comme des membres ou des organes atrophiés par l’évolution. La classification classique aurait ainsi classé les dauphins parmi les poissons, alors qu’on sait qu’il est en réalité plus proches de l’humain que du saumon.

La classification phylogénétique moderne date de 1950, quand Willi Hennig en a posé les fondements.

L’ADN

Si l’ADN — ou acide désoxyribonucléique — en tant que molécule a été identifiée et isolée en 1869 par Miescher, son rôle dans la génétique n’a été démontré qu’en 1952 par Hershey et Chase. L’idée de l’existence de gènes définissant les caractères phylogénétiques des espèces vivantes n’a été présentée, elle, qu’en 1913 par Mendel, et elle expliquait alors le principe de l’évolution de Darwin publié en 1858 et l’hérédité des caractères, idée qui n’avait à l’époque aucune base solide pour être acceptée ou acceptable.

La structure en double-hélice de l’ADN est plus récent de quarante ans : c’est en 1952 que celle-ci a été découverte et photographiée par radiographie à rayons X par Rosalind Franklin et publié un an plus tard par Watson et Crick.

Cette liste montre à peu près que rien ne doit être pris pour acquis : une grande partie du monde actuel repose sur des découvertes qui ne datent que du siècle dernier : bio-ingéniérie, informatique, exploration spatiale, qui ont tous eu des effets de bords qu’on retrouve dans la vie courante aujourd’hui : la découverte de la quantique permet l’informatique ; celle de la relativité permet le GPS ; la construction du LHC permet le Web ; la découverte de l’âge de la Terre a permis de sauver des millions de personnes du plomb ; la conquête spatiale autorise l’imagerie satellite et la prédiction des cyclones ou de sauver des vies

Qui sait quelles seront les découvertes scientifiques majeures du XXIe siècle ? Le boson de Higgs en est déjà une. Il y aura probablement des applications aussi.

Et concernant notre ignorance avant ces découvertes, je citerais Carl Sagan :

Avec un peu de chance nos descendants auront pour notre ignorance actuelle la même indulgence que nous à l’égard des Anciens qui ne savaient pas que la Terre tournait autour du Soleil.

D’où vient la forme en étoile à six branches des flocons de neige ?

$
0
0

vue agrandie d’un flocon de neige
Quoi de plus apaisant qu’un paysage sous une couche de neige fraîche et immaculée ? Sa porosité et sa structure aérée confèrent à la neige des propriétés acoustiques et isolantes exceptionnelles, rendant n’importe quel décor enneigé si silencieux et si reposant.
Pourtant ce n’est pas de cela que je veux parler, mais plutôt des flocons individuels : vous avez probablement constaté qu’ils ont une forme d’étoiles à six branches et peut-être vous demandez-vous d’où ça vient.

Comme souvent pour comprendre ce qui se passe à l’échelle macroscopique, il faut plonger à l’échelle microscopique, et même nanoscopique, dans le cas présent : la forme des flocons de neige provient de la structure de la molécule d’eau.

La molécule d’eau, $H_2O$, est composée de deux atomes d’hydrogène et d’un atome d’oxygène :

la molécule d’eau
La molécule d’eau, avec 2 hydrogènes, en blanc et un oxygène, en rouge (image).

La forme de « V » ou de « Λ » de la molécule est caractéristique : elle vient de la distribution des électrons au sein de la molécule, et c’est cela qui est indirectement à l’origine de la forme des flocons de neige.

Dans la formation de cette molécule et ses liaisons chimiques, les deux atomes d’hydrogène et l’atome d’oxygène apportent respectivement deux et six électrons de valence (pour un total de huit). Les électrons, soumis à la répulsion électrique de leur charge d’une part et aux phénomènes quantiques de l’autre, vont s’organiser en quatre paires. Ces paires d’électrons vont à leur tour se positionner autour de la molécule de façon à ce qu’elles soient le plus distant possible les unes des autres.
La configuration qui minimise les répulsions est celle en forme de tétraèdre avec les atomes d’hydrogène d’un côté et les deux paires seules non-liantes de l’autre.

Le fait que les deux atomes d’hydrogène soient tous les deux du même côté va produire une région chargée positivement dans la molécule, et les électrons de l’autre côté vont produire un côté chargé négativement : la molécule d’eau dans son ensemble se comporte donc comme un tout petit aimant. On dit que la molécule d’eau est dipolaire.

Maintenant, les opposés s’attirent, non ? Donc le côté positif d’une molécule d’eau va avoir tendance à être attiré par le côté négatif d’une autre molécule, et donc à lier les molécules d’eau entre elles. Les liaisons de ce type là sont dites « liaison hydrogène ». Elles sont moins fortes que les liaisons chimiques dans la même molécule, mais elles suffisent ici pour donner toute la structure à la glace d’eau… et à nos flocons de neige !

Quand le réseau cristallin va prendre la forme avec un grand nombre de molécules, ces dernières s’organisent en formation hexagonale :

structure de la glace d’eau
Structure cristalline de l’eau (image)

Quand les gouttes d’eau d’un nuage se solidifient pour former des grêlons, cette structure n’est pas visible, mais quand c’est la neige qui se forme, c’est en fait de l’eau sous sa forme gazeuse qui se condense directement en cristaux solides, sans passer par la phase liquide : un noyau hexagonal se forme en premier (parfois autour d’une impureté) et les molécules d’eau viennent ensuite s’y fixer une par une. Le positionnement des molécules se fait alors en suivant la structure hexagonale, avec les branches qui « poussent » sur chaque côté de l’hexagone, d’où la forme en étoile à six branches.

Selon la température et les conditions météorologique (humidité, vent…), les flocons de neige peuvent être emmenés à se cogner, se briser, se coller… Ceci va déterminer la nature de la neige : neige humide, neige collante, poudreuse, donnant ainsi des flocons de taille et forme différente, même si on retrouve systématiquement la forme étoilée :

formes de différents flocons de neige
Différentes formes de flocons de neige, photographiées sous microscope. Toutes ces photos magnifiques ont été prises par Alexey Kljatov, et vous pouvez en consulter beaucoup d’autres sur Flickr.



Enfin, et dans des conditions météorologiques très particulières, le ciel et les nuages peuvent produire des cristaux hexagonaux, non pas de neige, mais de glace. On obtient alors de petites palettes de glace hexagonales et transparentes.

Quand la lumière du Soleil arrive sur la glace (toujours très pure dans les nuages), les effets de diffraction et de réflexion qui en résultent produisent des « photométéores », des phénomènes optiques atmosphériques. On trouve ainsi la parhélie, le cercle parhélique, la parasélène, l’arc circumzénithal, l’arc de cœur…

image de Alexey Kljatov

Pourquoi les dragons n’existent pas ?

$
0
0

À l’occasion du Nouvel An Chinois et des cérémonies traditionnelles, on a tous plus où moins en tête les dragons asiatiques :

dragon asiatique
↑ Un dragon asiatique, à l’occasion de l’année du dragon en 2012 (source)

Beaucoup de cultures différentes font mention de dragons. On le retrouve par exemple dans les mythologies grecques, celtiques, nordiques, asiatiques et même plus ou moins dans la culture amérindienne.

Pourtant, aucun animal sur Terre n’est à proprement parler un dragon au sens où on l’entend, c’est à dire un gros lézard, volant et capable de cracher du feu.

L’origine du Dragon

Si les crocodiles ou certains serpents peuvent être qualifiés de « géants » puisqu’ils peuvent atteindre plus de 10 mètres, ils ne peuvent ni voler ni cracher du feu.

En fait, bon nombre de monstres retrouvés dans les mythes et les légendes font état des créateurs qui nous font intimement peur.
Par un ancestral instinct de survie, notre plus grande peur est celle d’être dévorée : c’est pour cela que tous les enfants on plus ou moins peur des crocodiles, du loup, du renard, des serpents ou des araignées… mais s’amusent tranquillement avec des répliques d’armes, d’épées ou d’arcs et de flèches, censées donner la mort aussi.

L’origine de cette peur de la plupart des reptiles ou des autres animaux est parfois attribuée à une peur génétique. Pour les reptiles elle viendrait de l’époque où « nous » n’étions qu’un petit mammifère au temps des dinosaures. Ces reptiles géants étaient alors nos prédateurs et les individus qui avaient le réflexe de fuir avaient une plus grande probabilité de survivre et donc d’engendrer une descendance avec le même réflexe. Les descendants de ce mammifère (dont nous faisons partie) ont donc automatiquement conservé cette peur des reptiles.

Partant de cette peur et de l’existence des grands reptiles comme les crocodiles ou les serpents, il est facile d’imaginer quelque chose de pire : le même reptile, mais muni d’ailes qui le rendrait encore plus terrifiant car bien plus mobiles et agiles que nous, et capable de cracher du feu : une autre menace ancestrale pour l’être humain et les animaux.

Voilà l’origine des dragons mythologiques : la combinaison de plusieurs de nos plus grandes peurs : le feu, les reptiles, et le fait que ces derniers puissent être plus agiles que nous-mêmes s’ils étaient munis d’ailes.

Le dragon n’est donc que le fruit de notre imagination, qui a ensuite perduré dans notre culture et nos mythes.

Un Dragon peut-il exister ?

Une autre question peut alors être posée : est-il possible qu’un véritable dragon cracheur de feu puisse exister ?

Parmi la diversité animale on trouve pourtant des choses assez puissantes :

  • le coléoptère bombardier, un scarabée qui secrète des produits chimiques qui réagissent et forment un gaz corrosifs à 270 °C ;
  • la crevette pistolet utilisent sa pince super-rapide pour produire, sous l’eau, du vide puis une cavitation luminescente à plus de 5000°C ;
  • certaines anguilles produisent des chocs électriques de plusieurs centaines de volts, ce qui est largement suffisant pour produire des étincelles…

De plus, autant certains animaux maîtrisent le poison sans être eux-mêmes intoxiqués, autant le feu est trop destructeur pour le vivant : les cellules ne sont faites que de constituants carbonés et de beaucoup d’eau : dès qu’on dépasse un certain seuil de température, toute l’eau entre en ébullition et le tissu vivant est détruit sur le plan moléculaire.
Même les espèces les plus résistantes comme les cafards ou les tardigrades résistent à l’eau bouillante, à l’azote liquide, au vide sidéral, aux micro-ondes, aux explosions atomiques, aux bains d’acide ou à une absence d’eau durant des années, mais pas au feu…

À défaut de pouvoir résister au feu, pour qu’un être vivant puisse produire du feu de façon biologique, il faut donc être en mesure d’en maîtriser la production et les effets, et donc de pouvoir en anticiper les conséquences : un feu qui détruit son habitat naturel n’est pas vraiment pratique pour la survie.

Or, la capacité d’anticipation de nos propres actions n’est pas quelque chose de répandu dans la nature : la plupart des animaux agissent par instinct. Si une espèce utilisait le feu au moindre danger, il aurait rapidement fait de se blesser ou de détruire son habitat et ainsi provoquer sa propre mort ou même l’extinction de son espèce.

C’est donc pour cette raison que l’évolution, même si elle a pu donner naissance à des espèces cracheuses de feu, n’a pas permis de retenir ces espèces au fil des générations : l’espèce cracheuse de feu serait toujours automatiquement un trop grand risque pour elle-même.

Ce sont les capacités de réflexion et d’anticipation qui font de l’être humain une espèce capable de maîtriser le feu. L’être humain a également cet avantage naturel d’être un très bon coureur : s’il n’est pas le plus rapide, il est de très loin le plus endurant lors de la course (bien plus qu’un lion, un loup ou un cheval). Ceci lui a probablement permis de fuir des incendies et de les survivre assez longtemps pour comprendre que le feu devait être manié avec prudence, là où d’autres animaux seraient morts.

Pour conclure : afin qu’un dragon puisse exister dans la nature, il aurait déjà fallu un moyen de produire du feu. Ceci n’est pas impossible : une simple secretion d’un produit chimique inflamable et un moyen d’ignition suffirait, et ce sont deux choses qu’on retrouve dans la nature. Mais il aurait en plus fallu que l’espèce en question soit assez futée pour comprendre que le feu est une arme, que si elle n’est pas maîtrisée, serait destructive aussi bien pour sa proie que pour elle-même et pour son environnement.
Une espèce capable de produire du feu a donc peut-être existé, mais son don a à coup sûr provoqué son extinction très rapidement, bien trop vite pour que l’évolution puisse améliorer cette capacité.

Mais… il aurait peut-être pu en être différemment si les crocodiles et les lézards étaient intelligents…

En attendant, 新年好 !

C’est quoi une onde gravitationnelle ? Comment fonctionne LIGO ?

$
0
0
the ligo experiment
L’expérience LIGO détecte les ondes gravitationnelles émises par la fusion de trou noirs (crédit : LIGO, NSF, Aurore Simonnet, Sonoma State U.)

Prédites par Albert Einstein (qui d’autre ?) il y a un siècle, ce n’est que très récemment qu’elles sont détectables et c’est aujourd’hui que leur détection a été confirmée pour la première fois : ce sont les ondes gravitationnelles.

Dans un univers où règnent des champs quantiques (champ gravitationnel, champ électromagnétique, etc.), les ondes sont des perturbations qui se déplacent à travers les champs quantiques, tout comme les vagues à la surface de l’eau qui trahissent la présence d’ondes se propageant dans l’eau.

Un astre, une étoile, ou tout objet massif déforme le champ gravitationnel et la structure de l’espace-temps. La déformation a lieue comme sur l’image qui suit, mais alors dans les trois dimensions de l’espace (et même celle du temps) :

déformation de l’espace temps
La déformation de la structure de l’espace temps par la présence d’une masse (source image)

Or, la lumière emprunte les lignes de l’espace temps : si ces lignes sont déformées par la présence d’un astre ou d’une étoile, alors la lumière suit une trajectoire courbée (pour la lumière, ça reste une ligne droite, mais pour un observateur extérieur, elle est courbée — c’est ça la relativité).
C’est un peu comme si on tirait une balle en acier avec un fusil et qu’on plaçait un aimant à proximité de la trajectoire de la balle : elle se fait dévier légèrement sur le côté de l’aimant.

Lors du passage d’une onde gravitationnelle, les lignes de l’espace-temps sont déformées localement et temporairement. Ces déformations ne sont pas perceptibles à l’œil nu, mais peuvent l’être grâce à des appareils ultra-sensibles, comme celui à l’Observatoire d’ondes Gravitationnelles par Interférométrie Laser, ou LIGO, de l’anglais.

Pour produire une onde gravitationnelle notable, un petit objet comme un aimant ou une pomme ne suffit pas : il faut au contraire un événement cosmique phénoménal mettant en jeu des masses considérables. Un de ces événements est la fusions de trou noirs ayant chacun un masse pouvant aller à plusieurs millions de systèmes solaires. La fusion de trou noirs est un événement suffisant pour produire des ondes gravitationnelles détectables même à des distances de plusieurs millions d’années lumières.

LIGO utilise un rayon laser rectiligne émis dans deux tunnels perpendiculaires d’une longueur de 4 km et qui va faire 200 allers-retours par un jeu de miroirs (pour un trajet total de 1600 km). Si une onde gravitationnelle passe à ce moment là sur les tunnels, alors la lumière va être très légèrement déviée dans l’un d’eux. On mesure la déviation par interférométrie, c’est à dire, pour simplifier, qu’on regarde le décalage entre les ondes des deux tunnels.
Cette méthode à base de lasers et ces 1600 km de trajets pour le rayon la laser donnent à LIGO une sensibilité remarquable de l’ordre de 1 unité sur 1 000 000 000 000 000 000 000, soit une déviation inférieure à 0,1% du centième du diamètre d’un proton !

Notes :


Pourquoi l’eau de mer est salée ?

$
0
0

Désert de sel d’Uyuni, en Bolivie
Boire de l’eau de mer a pour effet de nous déshydrater : il ne faut donc pas la boire, à cause du sel. Mais comment ce sel est apparu dans la mer ?

Quand la Terre était encore jeune (moins d’un milliard d’années), les éléments chimiques se sont mélangés et réagencés : de l’eau s’est formée et elle a naturellement coulé dans les vallées à la surface de la planète, pour former les océans. S’il y a bien une chose qui rend l’eau si particulière et importante (surtout pour la vie), c’est sa capacité à dissoudre un très grand nombre d’éléments chimiques.

Parmi ces éléments, le sel a été arrachés des roches, dissout et a fini dans l’océan.
Quand il se produit l’évaporation en mer, seule l’eau passe à l’état de gaz dans l’atmosphère : le sel reste dans l’océan. Lorsqu’il s’est mis à pleuvoir sur la terre ferme, l’eau douce de la pluie a pu dissoudre les minéraux présents sur les continents et le transporter jusque dans les océans.

Les ions minéraux (dont le sel de table, le chlorure de sodium) se sont donc concentrés dans les océans.

Aujourd’hui, le sel de table est généralement du sel de mer produit dans des marais salants : on laisse de l’eau de mer arriver dans un bassin à même la terre, que l’on ferme ensuite et dont on laisse l’eau s’évaporer. Le sel restant sur place, il suffit de le récolter.

Certaines régions du monde sont célèbres pour leur sel gemme « minéral » : la ville de Salzburg en Autriche, par exemple, porte un nom référant au sel : littéralement « château de sel ». Le sel est ici extrait de mines, loin des océans : le sel s’est retrouvé par l’assèchement d’une ancienne mer salée, et ensuite recouverte par des sédiments imperméables à l’érosion.

Quand ces mers de sel ne sont pas recouvertes, on se retrouve avec des lacs ou des des déserts de sel, comme le Great Salt Lake et le Great Salt Lake Desert près de Salt Lake City, aux USA. Ici, les ruissellements des montagnes voisines, riches en minéraux, arrivent dans les lacs et s’y déposent. Avec le temps, certains lacs ont fini par ne plus être alimentés en eau et se sont complètement asséchés. Le sel s’est alors retrouvé à l’air libre formant un vaste désert de sel.

photo de Mederic

Les années bissextiles : pourquoi, comment ?

$
0
0

L’horloge astronomique, à Prague.
Cette année est une année bissextile : février a 29 jours au lieu de 28. Vous pensez que ça a lieu tous les quatre ans ? Et bien détrompez-vous, car c’est un petit peu plus compliqué que ça !

Pourquoi les années bissextiles ?

Les années bissextiles sont là parce que l’année « tropique » ne dure pas un nombre entier de jours. Chaque année civile, on accumule donc une fraction de jour qu’il faut rattraper à un moment.
Avec le calendrier actuel — le calendrier grégorien — cette journée supplémentaire est placée le 29 février et on y a droit presque tous les 4 ans.

Oui : presque !
Car certaines années qui devraient être bissextiles ne le sont pas.
Encore mieux, certaines de ces années qui devraient l’être mais en fait ne le sont pas, le sont en fin de compte quand-même !

Les savants de l’antiquité l’avaient remarqué : entre chaque solstice d’été, il s’écoulait 365 jours entiers, plus environ 6 heures.
Un calendrier qui durerait seulement 365 jours serait donc décalé d’un jour tous les 4 ans. Ceci n’est pas acceptable : une date quelconque finirait par se déplacer au sein des saisons, ce qui retirait tout intérêt à avoir un calendrier…

Jules César imposa à l’époque le calendrier julien, qui plaça une journée intercalaire tous les 4 ans. Ces années, bissextiles, comportent donc 366 jours au lieu de 365 (d’où leur nom).
Le calendrier julien considérait donc que chaque année tropique mesurait 365,25 jours.

Le problème c’était qu’une année tropique ne dure pas exactement 365,25 jours et laissait encore passer un petit décalage.
Arrivé au Moyen-Âge quinze siècles plus tard, ce petit décalage résiduel s’était accumulé et représentait désormais une dizaine jours. À cette époque, il n’y avait pas César mais il y avait l’Église : pour elle, ce décalage était inacceptable : la date de Pâques et les autres fêtes liturgiques, calquée sur les mois lunaires durant l’équinoxe de printemps, arrivaient de plus en plus tardivement dans l’année calendaire.

Le Pape Grégoire XIII décida qu’il fallait faire quelque chose. Sa solution : réformer le calendrier. Les savants qui l’entouraient avait mis au point un calendrier beaucoup plus précis, avec des ajustements en plus des années bissextiles instaurées par César. Le nouveau calendrier grégorien fut instauré en 1582 et on décida du même coup de supprimer le décalage de la dizaine de jour : le 4 octobre 1582 fut donc suivi par le 15 octobre 1582.

Aujourd’hui, c’est encore le calendrier grégorien que l’on utilise.

Comment calculer les années bissextiles ?

2016 sera une année bissextile. 2012, 2008 ou encore l’an 2000 l’étaient aussi. Ces années sont toutes des entiers divisibles par 4.

Ensuite, et c’est là que le calendrier grégorien modifie des choses par rapport au calendrier julien, on retire un jour par siècle : la première année bissextile d’un siècle est supprimée. Cela correspond aux années centennales : 1800, 1900, 2000 ou 2100 sont des années centennales qui ne seront pas bissextiles.

Sauf que… La correction apportée la seconde règle est un peu trop importante. On décréta alors qu’une années centennales non-bissextile sur quatre devraient redevenir bissextile ! Les années 1600, 2000, 2400 ou 2800 sont ou seront donc bissextiles.
L’an 2000 par exemple : elle était bissextile uniquement grâce à cette troisième règle, et c’était seulement la deuxième de l’histoire à l’être !

On a donc trois règles à appliquer :

  • la première règle : l’année doit être divisible par 4 ;
  • la seconde règle (prioritaire sur la 1ère) : l’année ne doit pas être divisible par 100 ;
  • la troisième règle (prioritaire sur la 2ème) : l’année doit être divisible par 400.

Mathématiquement, tous ces choix (4, 100 et 400) peuvent se voir grâce à la définition de l’année grégorienne, prise à 365,2425 jours :

$$365,2425\text{ jours} =  365\text{ jours} + \frac{1}{4}\text{ jour} − \frac{1}{100}\text{ jour} + \frac{1}{400}\text{ jour}$$

Pour conclure, notons que le calendrier grégorien — bien qu’il soit beaucoup plus fidèle à la réalité que le calendrier julien — n’est pas parfait : l’année du calendrier grégorien dure 365,2425 jours en moyenne ; or, l’année tropique réelle dure 365,24219 jours. La différence représente un excès de 3 jours tous les 10 000 ans.
Il a été proposé d’ajouter une 4ème règle : que les années multiples de 4 000 ne soient pas bissextiles, mais il n’est pas dit que l’on en arrive là : en effet, les fluctuations dans l’année tropique (−0,5 s par siècle) et dans le jour solaire (+1,64 ms par siècle) pourraient bien finir par compenser le décalage de façon naturelle.

Enfin, pour vous amuser, j’ai bricolé un petit code pour savoir si une année est bissextile. vous pouvez l’essayer sur cette page.

image de Michel

Combien pèse un nuage ?

$
0
0

Un cumulus, nuage de beau temps
Un nuage est une certaine quantité d’eau qui est suspendue dans les air et qui, quand il pleut, retombe sur terre.

Il y a deux questions auxquelles je vais répondre ici :

  • pourquoi un nuage ne tombe pas ?
  • combien pèse un nuage ?

Pourquoi un nuage ne tombe pas ?

Un nuage ne tombe pas parce qu’il est plus léger que l’air !

Je crois qu’il faudra quelques explications en plus ici.
La formation des nuages sera étudiée dans un autre article, mais pour faire court, disons qu’un nuage se forme grâce à l’évaporation de l’eau de surface.

L’évaporation, c’est le passage de l’état liquide à l’état de gaz : l’eau « gazeuse* » dans l’air — l’hygrométrie — ce sont des molécules d’eau qui prennent la place des molécules de l’air.

Or, grâce à la loi d'Avogadro en thermodynamique qui dit :

Un volume de gaz comporte le même nombre de molécules, quelque soit le gaz.

Qu’un volume d’air humide contient autant de molécules que l’air sec. Ceci est important car la molécule d’eau a une masse molaire de 18 g/mol, et celles de l’air de 28,9 g/mol.
On voit donc que l’eau gazeuse est environ 30% plus léger que l’air : quand l’eau s’évapore du sol, il est plus léger que l’air et grimpe.

L’humidité qui monte finit alors par se condenser en altitude, là où il fait plus froid : le nuage à proprement parler se forme et devient visible. À ce stade, il est est toujours moins dense que l’air, et il flotte sur les couches d’air en dessous de lui. En plus de cela, de l’air humide continue d’arriver en dessous et le pousse vers le haut, l’empêchant là aussi de tomber.

Pour conclure : le nuage ne tombe pas pour deux raisons : le nuage flotte sur des couches d’air plus denses que lui et l’air humide continue de le pousser vers le haut, l’empêchant de tomber.

Combien pèse un nuage ?

Un nuage est plus léger que l’air : s’il se trouvait au niveau du sol et que vous pouviez vous y accrocher, il vous soulèverait comme le ferait une montgolfière. Le nuage ne peut donc pas être pesé au sens habituel.
En revanche, on peut bien-sûr estimer combien d’eau est contenu dans un nuage, et c’est ce que je vais faire.

Tous les nuages ne sont pas identiques : certains contiennent plus d’eau que d’autres et ils ont des tailles variables. Pour le calcul, prenons on nuage typique : un cumulus (photo), ou « nuage de beau temps ».

Ces nuages se forment lorsque quand il fait beau et un peu humide mais pas excessivement chaud non plus. Le cumulus ne produit généralement pas de pluie et ne fait que passer au dessus de nos têtes. Il s’étendent sur plusieurs centaines de mètres en hauteur et autant (voire plus) en largeur. Leur teneur en eau est d’environ 0,30 grammes d’eau par mètre cube.

Pour simplifier les calculs, prenons un cumulus en forme de cube de 500 mètres de côté.

Son volume est donc de $v = 125 millions m^3$

La teneur en eau d’un cumulus est d’environ 0,30 grammes par mètre cube. Ce n’est pas beaucoup : il faut 10 mètres cube pour remplir une cuillère à café, mais notre nuage, si immense qu’il est, contient une masse d’eau de :

$$m_{eau} = 37,5 tonnes$$

Ça représente 37,5 mètre cubes d’eau liquide contenus dans un seul cumulus de taille moyenne et flottant au dessus de votre tête. Ce n’est pas mal, non ?

Certains nuages peuvent être beaucoup plus gros et plus massifs : les cumulonimbus font partie des plus gros d’entre eux et sont responsables des gros orages estivaux, avec grêlons, vent, foudre et fortes pluies. Leur hauteur peut atteindre 15 km et leur étalement en forme d’enclume s’étale sur plusieurs kilomètres à la ronde. Pour ne rien arranger, leur taux d’humidité est environ 10 fois plus forte que le cumulus.
La quantité d’eau contenue dans un tel nuage est par conséquent énorme : un cumulonimbus peut transporter jusqu’à 50 000 tonnes d’eau, soit autant que 20 piscines olympiques !

Ressources :

image de Ellen M

Pourquoi voyons nous nos veines bleues ?

$
0
0

taches de sang
Bien que le sang de certains animaux, comme les crabes ou certaines araignées, soit bleu, celui des vertébrés (et donc des humains) est rouge. Pourtant, nos veines nous apparaissent bleu.

Que se passe-t-il ?

Pour commencer, il y a quelques théories clairement fausses :

C’est la concentration en oxygène élevée dans les artères et faible dans les veines qui fait apparaître les premières en rouge et les dernières en bleue.

Ceci est faux : même pauvre en oxygène, le sang n’est pas bleu : il est certes d’un rouge-ocre un peu moins vif, mais il est toujours d’une teinte rouge et pas bleue.

Le sang est bleu, et c’est seulement au contact de l’air — par exemple quand on saigne — que le sang devient rouge.

Ceci n’est pas vrai non plus : lors d’une prise de sang, ce dernier n’entre pas en contact avec l’air et il est rouge. D’ailleurs, quand le sang entre en contact avec l’air, il a tendance à s’enrichir en oxygène, et il devrait alors rougir d’avantage…

Bon, à présent la vrai raison.
Il y a deux effets à voir :

  • premièrement l’optique physique avec la colorimétrie et l’absorption/diffusion des couleurs par la peau et les vaisseaux sanguins.
  • deuxièmement le rôle du cerveau sur la perception des couleurs.

Les phénomènes d’optique

La lumière du jour contient toutes les couleurs. Or en traversant le sang, le bleu ou le vert sont totalement absorbés, tandis qu’une partie seulement du rouge l’est aussi. La partie restante est quant à elle renvoyée et c’est ce qui rend le sang rouge foncé.

La peau maintenant. On considère une peau dénuée de mélanine, donc claire : elle diffuse et réfléchit toutes les couleurs : elle apparaît blanche.

En revanche, toutes les couleurs ne pénètrent pas à la même profondeur dans la peau : le rouge, de longueur d’onde plus grande, pénètre plus profondément avant d’être diffusée puis réfléchie. Le bleu, lui, est réfléchi bien plus en surface.
Un bout de peau observé par transparence apparaît rouge par transmission : le rouge a le temps de traverser alors que le bleu est bloqué bien avant :

du blanc est renvoyé mais du rouge est transmi
↑ de la lumière blanche est réfléchie, mais seul le rouge est transmis par la peau.

Quand une veine se trouve entre 0,5 mm et 2,0 mm de profondeur environ : c’est là qu’elle semble bleue (plus en surface elle prend la couleur du sang, donc rouge, et plus en profondeur elle est invisible).

Parmi toute la lumière qui revient vers l’observateur, la composante bleue provient de la peau. Souvenez-vous : le bleu ne pénètre pratiquement pas dans la peau et est renvoyé sans jamais avoir atteint la veine.
Pour le rouge c’est différent : cette longueur d’onde est plus pénétrante et atteint le vaisseau sanguin : ce dernier en absorbe une grande partie et réfléchit le reste.

Ce qui se passe est ensuite est une illusions d’optique produite par le cerveau : c’est une question de balance des couleurs entre le rouge et le bleu :

  • Sans veine : la couleur observée contient autant de rouge que de bleu, car la peau a fini par tout réfléchir.
  • Avec la veine : la veine absorbe pratiquement tout le rouge tandis que la peau a déjà renvoyé le bleu : on observe donc les mêmes couleurs, à l’exception du rouge qui est absorbée par la veine.

Il n’y a donc pas plus de bleu, seulement moins de rouge.

Le rôle du cerveau

Donc il n’y a pas de bleu : pourtant on voit du bleu. Ceci est une illusion d’optique : c’est le cerveau qui voit ça de cette façon.
Il interprète cette absence plus prononcée de rouge comme une présence plus importante des autres couleurs, et en particulier le bleu. Ceci est suffisant pour faire apparaître les veines comme bleues.

En réalité la veine est juste légèrement plus foncée qu’ailleurs, à cause de plus grande absorption, mais elle reste majoritairement rose/beige :

couleur bleue-rouge de la peau
↑ la veine n’est pas bleue, juste « moins rouge ». C’est le cerveau qui interprète ça comme du bleu.

Références :

image de Ray4389

Les fonctions hyperboliques

$
0
0
i
↑ Tracé de la fonction demi-exponentielle (jaune), cosinus hyperbolique (rouge) et sinus hyperbolique (vert) qui convergent toutes en $+\infty$ (outil de traçage)

En maths, peut-être avez-vous déjà rencontrés les fonctions hyperboliques : cosinus hyperbolique (cosh), sinus hyperboliques (sinh).
Et peut-être comme moi, vous est-il venu à l’esprit qu’il faut être tordu pour appeler une fonction ainsi. Et bien en fait le nom de ces fonctions n’est pas choisit au hasard (mais les profs n’en parlent pas en cours).

Cet article ne vous donnera pas toutes les propriétés des fonctions hyperboliques, mais vous permettra de comprendre d’où elles viennent.

Les fonctions circulaires

Avant de parler de sinus hyperboliques et de cosinus hyperbolique, parlons de sinus et cosinus. Ces deux fonctions sont connues depuis le collège. Elles tirent leur origines des cercles et des triangles comme on va le montrer : commençons par tracer un cercle. Puis, en plaçant un point quelconque sur le cercle, on peut constituer un triangle formé par ce point et par le diamètre du cercle :

le cercle unitaire avec un triangle inscrit
Le cercle étant alors circonscrit au triangle voit son diamètre être également un des côtés du triangle : ce triangle est rectangle (ceci est valable quelque soit la position du point sur le cercle !).

On peut alors utiliser les fonctions sinus et cosinus, qu’on retrouve dans le cercle :

cosinus et sinus
Le point peut-être placé n’importe où, l’angle qu’il forme avec l’origine permettra toujours de calculer un sinus et un cosinus.

Pourquoi tout ça ? Vous allez comprendre.

Pour trouver le sinus et le cosinus, on a pris un cercle et un point sur ce cercle. Les fonctions sinus et cosinus dans ce cas là sont appelés sinus circulaire et cosinus circulaire, en référence à la figure du cercle que l’on a pris.

Les fonctions hyperboliques

Je pense que vous voyez où je veux en venir : dans le cas des fonctions hyperboliques, ce n’est donc pas un cercle qu’on a pris, mais une hyperbole (d’équation $x^2–y^2=1$) :

fonctions hyperboliques
Les fonctions hyperboliques (co)sinus hyperbolique, (co)tangante hyperbolique, leur inverses et bien d’autres sont issues de cette géométrie là, où on a remplacé le cercle par une hyperbole.
Ces fonctions sont similaires à leurs homologues circulaires, avec des propriétés qui leur sont propres.

Vous pouvez observer les fonctions cosinus-hyperbolique et sinus-hyperbolique dans l’image d’en-tête. Vous pourrez constater qu’elles n’ont rien à voir avec les fonctions trigonométriques circulaires.
Pour les tracer, rendez-vous sur cet outil : Tracer des graphiques, utilisez les fonctions $cosh(x)$, $sinh(x)$ ou $tanh(x)$ (constatez par exemple que $sinh(x)+cosh(x)$ est égal à $exp(x)$).

À la place du cercle ou de l’hyperbole, on pourrait aussi prendre n’importe quelle figure : en plaçant un point sur cette dernière il sera tout à fait possible de trouver une fonction qui donne les coordonnées de ce point, en fonction de l’angle avec l’origine. Ça n’a juste pas tellement d’intérêt : le cercle et l’hyperbole (toutes les deux la famille des coniques) sont des figures particulières avec de nombreuses propriétés mathématiques.

Tout comme pour les fonctions trigonométriques circulaires, il y a des tas d’applications pratiques. Par exemple en astronomie et en astronautique : quand un astéroïde frôle la planète Terre, si sa vitesse est suffisante, sa trajectoire décrit une hyperbole. Les forces gravitationnelles entre la Terre et l’astéroïde peuvent nécessiter des fonctions hyperboliques. Même chose pour le lancement d’un satellite ou d’une sonde spatiale : leur trajectoire est parfaitement calculée et ce calcul a nécessité des fonctions hyperboliques.

Liens

  • Les fonctions trigonométriques : article détaillant les fonctions trigonométriques qui existent en plus de sinus et cosinus, qui ne sont que deux fonctions parmi plein d’autres !

Et mes deux autres articles de vulgarisation mathématique :

Comment fonctionne un miroir sans tain ?

$
0
0

des miroirs
Un miroir sans tain est une vitre qui permet de voir à travers dans un sens mais pas dans l’autre.

On les a tous déjà vu dans les séries policières : dans les salles d’interrogatoire, l’agent de police et le suspect sont placé de part et d’autre du miroir sans tain de telle sorte que l’agent peut observer le suspect mais pas l’inverse.

Le fonctionnement de ces « miroirs » n’est absolument pas intuitif, même si comme on va le voir, il est très simple.

Le miroir sans tain est recouvert d’une pellicule métallique non pas opaque comme sur un miroir normal, mais semi-transparent. Ceci est obtenu par un film ou un verre incrusté de micro-particules opaques. Le verre est donc d’avantage un verre sombre qu’un miroir. Les vitres teintées fonctionnent exactement sur ce principe.

Pour obtenir un effet de « vision à sens unique » entre deux pièces séparées par une vitre sans tain, c’est très simple : il suffit que le suspect soit dans une pièce bien éclairée et que le policier soit dans une pièce très sombre :

miroir sans tain police suspect
C’est tout !

Ce qui se passe est uniquement une question d’éclairage.
Si il y a un éclairage des deux côtés, on verrait une superposition de l’image réfléchie avec l’image transmise. En effet, le verre laisse passer une partie de la lumière dans les deux sens.

miroir sans tain éclairage
Si on éteint la lumière d’un côté, celui où se place le policier, il n’y a plus de lumière (porteuse de l’image que l’œil perçoit) qui va du policier vers le suspect. Ce dernier ne verra plus qu’une seule image : sa réflexion.
Le policier, lui ne verra plus que l’image du suspect par semi-transparence. Sa propre image n’existant pas car il se trouve dans l’obscurité :

miroir sans tain police suspect
Maintenant, il on éteignait la lumière autour du suspect et qu’on l’allumait du côté du policier, les perceptions seraient inversées : le suspect verrait le policier, mais plus l’inverse.

La même chose se produit pour une voiture à vitres teintées : vu qu’il fait sombre dans la voiture, aucune lumière ne peut en sortir et personne ne voir ce qui se passe dedans. De l’intérieur, on voit la route normalement car la lumière peut y entrer.

Pour voir dans une voiture à vitres teintées, on se colle contre la vitre et on place généralement ses mains autour de son visage : ce que l’ont fait inconsciemment c’est isoler ses yeux de la lumière extérieure de façon à faire une région plus sombre que l’intérieur de la voiture. À ce moment là lumière ne pourra que sortir de l’habitacle et vous pouvez voir dedans.

Il est aussi possible d’obtenir l’effet inverse : avoir une voiture dans laquelle on peut regarder mais de laquelle on ne voit rien : il faut être la nuit et vous devez allumer une lumière dans la voiture. La seule lumière de la scène se trouve alors dans l’habitacle et ne peut traverser la vitre que dans un seul sens.

photo d’illustration de Philippa McKinlay

La spirale d’Euler, ou le tracé des routes

$
0
0

une route
Vous ne vous êtes jamais posé la question sur l’origine du tracé d’une route ou d’un chemin de fer ?

Le tracé d’une route est loin d’être une chose simple : si dans certains cas on se contente de routes parfaitement droites (c’est le cas si le relief le permet, comme c’est très souvent le cas en Hollande ou en Belgique), il faut généralement éviter les collines, vallées ou forêts, tout en minimisant la création de ponts et tunnels en faisant faire à la route des courbes et des virages.

Dans ce qui suit on va prendre le cas précis de tracé d’une courbe de raccordement entre deux portions de ligne droite :

relier deux routes entre elles
Comment faut il relier ces deux routes ?

  • avec une ligne droite ?
  • avec un arc de cercle ?
  • avec une autre courbe ?

La ligne droite est définitivement exclue : si le but est de garder une circulation fluide et uniforme, on évite les routes parfaitement anguleuses nécessitant un ralentissement.

La route en arc de cercle semble bien tentante ici. Pourtant, cette solution pose problème. En effet, dans une ligne droite, le volant est droit, dans sa position de « repos ». Dans une route en cercle, comme sur un rond-point, le volant est tourné vers la gauche d’un angle fixe dépendant du rayon de courbure du cercle.
Pour passer d’une ligne droite à une route circulaire, il faut passer d’un angle nul à un angle non nul de façon immédiate. Il en résulte un besoin de ralentir pour tourner et pour réduire la force centrifuge imposée brusquement au véhicule.

La solution ici est d’utiliser un autre type courbe : il s’agit d’une courbure qui passe progressivement d’une ligne droite à un cercle.
De cette façon, pour prendre le virage, le volant n’aura pas besoin d’être braqué d’un coup mais progressivement. Par ailleurs, les passagers ne subiront pas de force centrifuge violente, mais une force appliquée de façon progressive là aussi linéairement, ce qui est tout de même beaucoup plus confortable. En pratique, roulant à allure fixe, il faudra tourner le volant avec une vitesse constante.

Une courbe dont le rayon de courbure varie de fonction linéaire avec la position sur la courbe, se nomme la spirale d’Euler, également connue sous le nom de spirale de Cornu, ou Clothoïde.

Le rayon de courbure d’une ligne droite est infinie : la ligne droite est considérée comme un cercle infiniment grand. Pour changer de direction, il faut donc diminuer ce rayon de courbure de façon progressive (et non brusque), de façon à avoir un tracé faiblement courbé au début et dont la courbure devient progressivement de plus en en plus importante :

Animation de la création d’une spirale d’Euler (source)

Bien-sûr, dans le cas d’une route, on ne pratique que les premiers pas de cette spirale, jamais la spirale entière.
La route doit également présenter une telle courbure dans les deux sens de circulation : ce que l’on fait, ce sont deux spirales d’Euler se rejoignant sur un cercle :

découpage géométrique d’une trajectoire d’une route en virage à 180°
(source)

D’un point de vue pratique, il faut tourner le volant progressivement et linéairement dans le sens du virage, puis arrêter de le tourner — on est alors sur une trajectoire purement circulaire — puis reprendre la rotation dans l’autre sens, à la même vitesse jusqu’à être enfin revenu au point de repos.

La spirale d’Euler ne représente qu’une petite partie de la courbure, mais elle est des plus importantes car la transition se faire de façon progressive. Sur un chemin de fer, c’est grâce à la spirale d’Euler que le TGV peut prendre des virages à 300 km/h sans que vous vous en rendiez compte. Une force appliquée de façon progressive évite une usure prématurée à la fois des rails et des roues.

Pour finir sur les routes, sachez que la spirale d’Euler n’est pas la seule utilisée. Pour les virages faiblement incurvés, les courbes elliptiques ou circulaires et les courbes de Bézier remplacent souvent la spirale d’Euler. Néanmoins, un virage tracé selon la spirale d’Euler est celui qui mathématiquement offre le meilleur confort et la plus grande facilité à prendre.

Pour conclure sur la spirale d’Euler, sachez que la même propriété — le rayon de courbure croissant de façon constante, donc linéairement — a d’autres applications. On les retrouve dans le design des montagnes russes, dans la sidérurgie (pour donner forme à l’acier : la distorsion de l’acier doit se faire de façon progressive pour conserver sa performance mécanique) ainsi que la trajectoire des satellites, lorsque ces derniers doivent emprunter une orbite de transition entre deux altitudes différentes. Dans chacun de ces cas, les fonctions à la base de la spirale d’Euler sont utilisées.

image de European Roads


À quoi servent les « aimants » sur les câbles d’ordinateur ?

$
0
0
câbles d’alim avec des aimants
↑ photo de câbles avec les sortes « d’aimants ».

Sur la photo ci-dessus, on voit le câble, le connecteur ainsi que des éléments un peu plus plus gros sur le câble : parfois ces éléments sont mobiles, souvent ils ne le sont pas. Parfois même on peut les enlever. À quoi servent-ils ?

On peut en ouvrir un pour voir ce qu’il y a dedans et on observe alors ceci :

un module en ferrite visible
Un petit cylindre, creux, placé autour du câble. Il n’est pas du tout aimanté. Déjà, contrairement à ce qu’on pouvait croire : ce ne sont pas des aimants.

En fait, ces blocs sont des filtres en ferrite : ils servent à réduire les signaux parasites dans les câbles.
Ils sont fabriqués en moulant de l’oxyde de fer (de la rouille, quoi) avec d’autres éléments (magnésium, manganèse…) sous de très fortes pressions. C’est la même méthode utilisée pour mouler des aimants en céramique (auxquelles ces filtres en ferrite ressemblent étrangement).

Quand on relie un câble de données à un ordinateur ou une imprimante, il est là pour transporter de l’information, sous la forme d’un signal électrique. Il se trouve que tous les appareils électrique et électroniques émettent involontairement des ondes électromagnétiques (c’est un simple phénomène d’induction électromagnétique), y compris dans les câbles, qui se comportent alors comme des antennes.
Ces ondes « parasites » peuvent perturber le signal que l’on souhaite transmettre : par exemple, si on utilise un câble sans filtre sur une TV, l’image peut clignoter, certaines pixels peuvent changer de couleur ou le son peut grésiller.
Dans certains cas extrêmes, sur un ordinateur, ces ondes parasites peuvent planter le système ou corrompre des données.

Le bloc de ferrite atténue ces parasites : il réduit le bruit électromagnétique dans les câbles de données.
Dans un câble d’alimentation, il permet également d’empêcher certaines ondes de partir dans les circuits ! Par exemple, quand on tape sur le clavier d’un ordinateur, un signal est envoyé dans un câble : normal, le clavier doit communiquer avec l’ordinateur. Mais il se peut que ce signal se perde dans le circuit d’alimentation et parte dans le réseau EDF : ceci est plus embêtant (en vrai le signal finit par s’atténuer rapidement et ça ne devrait pas arriver, mais dans l’idée c’est ça).

D’un point de vue physique, le filtre augmente l’impédance du câble. Étant donnée que ce sont des signaux de tension (5V / 0V, binaire) qui transitent par les fils, il faut réduire l’intensité du courant, responsable de l’induction électromagnétique dans le câble et donc de la production d’ondes parasites.
L’induction électromagnétique se fait alors dans le filtre de ferrite, qui dissipe les ondes parasites sous forme de chaleur.

Ces filtres sont assez simples à ajouter sur un câble : un bête cylindre creux moulé et placé autour du câble. D’autres façons existent pour filtrer les signaux parasites dans les câbles ou éviter que le signal ne soit parasité : découplage des circuits, blindage du câble, etc. mais ces solutions sont plus chères, pour un résultat, certes très bon, mais pas toujours nécessaire.

Ah, la science… 10 !

$
0
0

le barrage des trois gorges en Chine
De nouveau un petit article avec quelques chiffres impressionnants !

21,9 µs

C’est ce que les années durent de plus depuis 2006, l’année de la mise en service du Barrage des Trois Gorges, en Chine.

Le Barrage des Trois Gorges retient 39 milliard de mètre cube d’eau au même endroit. Or, tout comme un patineur tourne moins vite lorsqu’il écarte les bras et plus vite quand il les ramène contre lui, la Terre tourne moins vite quand de la masse se trouve plus loin de l’axe de rotation (où des pôles si on considère la surface terrestre comme ici).

La quantité d’eau retenue par ce barrage, le plus grand du monde, est tellement grande que la rotation terrestre s’en trouve affectée. Évidemment, 21,9 microsecondes par an, c’est très peu, mais c’est assez pour être estimé et pour représenter quelque chose.

70 kg

C’est pour un humain de poids moyen la quantité d’adénosine-5′-triphosphate (ATP) produite par jour.
Plus généralement, un humain produit en moyenne son poids en ATP, chaque jour.

L’ATP est la molécule qui sert de pile énergétique des cellules : est elles composée de 3 groupements phosphate sur un noyau d’adénosine. Le détachement successif des groupements phosphate libère de l’énergie sous une forme exploitable par l’organisme.
Tout comme une batterie de téléphone est continuellement chargée puis déchargée, les molécules d’ATP sont sans cesse décomposées (décharge) puis recomposées (recharge).

Le corps ne produit donc pas réellement 70 kg de produit, mais si on compte le nombre de cycles de charge-décharge, c’est comme si le corps voyait passer 70 kg d’ATP au cours de la journée. L’énergie nécessaire à la « recharge » de la molécule est fournie par le brûlage du sucre que l’on mange par l’oxygène que l’on respire.

60 %

60 %, c’est le ralentissement subit par la lumière quand elle entre dans un diamant. L’indice de réfraction du diamant est élevé ($n=2,4$) et correspond au facteur de ralentissement de la lumière par rapport à sa vitesse dans le vide.

Un effet de bord de cela est que les rayons de lumière qui entre dans un diamant sont fortement déviés. En taillant un diamant d’une façon spéciale, il est possible de faire ressortir toute la lumière par les faces du dessus : c’est pour ça que les diamants des bijoux ont une formes si spécifiques : cette forme permet de diriger la lumière vers la face du dessus pour être observé, donnant leur éclat « adamantin » si particulier.

Sources :

(Épisode 9, 8, 7, 6, 5, 4, 3, 2, 1.)

photo de Bill Hertha

L’origine géométrique de la couleur des plumes de paon

$
0
0
un paon
(photo de Benjamin Ellis)

Un blog a récemment dévoilé de magnifiques clichés d’une plume de paon vues sous microscope : voir The Extraordinary Iridescent Details of Peacock Feathers Captured Under a Microscope :

photo macro de plumes de paon
Comme on peut le constater, les couleurs sont intenses, brillantes et d’un aspect métallique. Et bien comme vous vous en doutez, la science derrière ces couleurs est également surprenante et inattendue car ces plumes hautes en couleur ne contiennent pas de pigments colorés.

En fait, si on s’en tenait aux pigments, le paon serait noir. Il y a donc quelque chose en plus qui lui donne ses couleurs.

Alors d’où vient la couleur des plumes de paon ?

Si ces couleurs ne sont pas pigmentaires, elles tirent leur origine dans un processus géométrique appelé la réfraction de Bragg dans la structure cristalline d’un revêtement à la surface des plumes de paon. C’est ensuite un phénomène d’interférences lumineuses qui donne ses couleurs à la plume.

En effet, en l’absence de cette pellicule cristalline très fine, la lumière est absorbée ou réfléchie selon la couleur des pigments :

absorption et émission de couleurs
Si on avait une surface blanche, toutes les longueurs d’ondes serait réfléchies, et un objet noir lui, absorbe toutes les couleurs.

Dans un réseau cristallin, les atomes sont organisés au sein d’un maillage géométrique très régulier.
On peut considérer la structure cristalline comme formant une succession de couches atomiques transparentes :

interférences à réseau cristallin de Bragg
Dans ce qui va suivre, on ne prendra comme exemple que le cas avec une seule couche d’atomes dans le cristal. C’est donc comme on avait une simple épaisseur transparente, une lame mince transparente. La réalité d’une plume de paon est faite d’une multitude de couches (la toute dernière étant noire, la couleur naturelle de la plume), ce qui complique un peu le résultat, mais pas le principe physique, qui est identique.

Avec la couche mince transparente, on se retrouve donc non pas avec un rayon réfléchi, mais deux rayons identiques qui vont alors interférer, c’est à dire agir l’une sur l’autre.

Et là, il y a tout un tas de possibilités dépendant du déphasage entre les deux rayons. Quand les crêtes de l’onde sont en phase, les deux ondes s’ajoutent (on parle d’interférences constructive) et quand les crêtes sont en opposition, les ondes s’annulent (interférences destructives) :

interférences de deux ondes
(image)

La façon dont deux ondes s’ajoutent ou s’annulent dépend de plusieurs facteurs, dont :

  • la longueur d’onde du rayon
  • la structure et la nature du cristal
  • l’angle d’incidence du rayon lumineux

Ainsi, quand plusieurs rayons arrivent sur la plume de paon, certaines couleurs sont amplifiées et d’autres sont diminuées. La plume agit donc comme un miroir filtrant, qui ne réfléchit que certaines longueurs d’ondes et pas d’autres.

La lumière naturelle est constituée de toutes les longueurs d’onde de l’arc-en-ciel et arrive de toutes les directions, et différentes zones de la plume ayant des cristaux spécifiques, chaque zone a une couleur dominante particulière. De nombreuses interférences se produisent donc sur la plume.

En plus de l’interférence de Bragg, on assiste également au phénomène d’iridescence, c’est à dire une variation du déphasage entre les deux ondes en fonction de l’inclinaison de la plume. C’est pour ça qu’on observe des couleurs continues : les zones bleues s’étendent en fait du bleu au turquoise et le jaune passe de l’orange au jaune-vert selon l’orientation.

Pour conclure, les plumes de paon ne sont pas les seuls cas où on observe tout ceci. Les phénomènes d’interférences à couche mince, de réfraction de Bragg et d’iridescence permettent d’expliquer de très nombreux phénomènes colorés, des couleurs des bulles de savon à celles d’un résidu d’essence sur une flaque d’eau. On les retrouve aussi pour la couleur des scarabée ou de certains papillons, de poissons, d’oiseaux ou encore de sur des minéraux et bijoux.

Photographie : le phénomène de repliement de spectre, ou l’illusion de la roue qui tourne en sens inverse

$
0
0

On a tous déjà vu ça : quand on filme une voiture, on a parfois l’impression que les roues tournent en sens inverse. Cette impression est présente en filmant n’importe quel objet en rotation, comme les pales de cet hélicoptère, qui semblent s’être arrêtés :

youtube screenshot helicopter aliasing
(Cliquez sur l’image pour ouvrir la vidéo sur Youtube)

Alors, hélicoptère anti-gravité ou vaisseau extra-terrestre ?

Ce qui se passe ici est très purement mécanique : la caméra ne capture pas le mouvement dans son intégralité, mais elle prend des photos à intervalles réguliers qu’il met ensuite bout à bout. Généralement, elle prend 24 images par secondes. On dit que l’échantillonnage de la caméra se fait à 24 Hz. Chaque image est donc censée couvrir 1/24e de seconde dans la vidéo finale, soit 41 ms.
Ceci est nécessaire pour donner au cerveau l’illusion qu’une série de 24 photographies prises les une à la suite des autres constituent un mouvement fluide pendant 1 seconde.

41 millisecondes est une durée assez courte pour faire croire à notre cerveau qu’un mouvement est fluide, mais ça reste suffisamment long pour que les objets continuent de se déplacer. Ainsi, pour un hélicoptère dont les pales tournent à 500 tours par minutes, cet intervalle de temps permet à chaque pâle de faire le tiers d’un tour complet, ce qui est loin d’être négligeable.

Il suffit alors que la vitesse de rotation de l’hélice soit une fraction exacte de la cadence de capture d’image de la caméra pour donner l’impression que les pales tournent étrangement.

Pour comprendre, prenons la trotteuse d’une pendule, qui bouge toutes les secondes.
Imaginons que nous prenions une photo toutes les 59 secondes en commençant à minuit, soit à 00:00:00. Les photos seront donc prises aux horaires suivantes :



Imageheure
100:00:59
200:01:58
300:02:57
400:03:56
500:04:55

Pour le moment il n’y a rien d’extra ordinaire, mais si on observe seulement les secondes, alors on a l’impression que la trotteuse recule :

pendule
Si on avait pris une photo toutes les 60 secondes, alors on aurait eu des photos où la trotteuse se trouvait toujours au même endroit (sur le 12).
Et si on avait pris une photo toutes les 15 secondes, alors on aurait eu des photos où la trotteuse serait uniquement sur le 12, 3, le 6 et le 9.

Il se passe la même chose en filmant une roue qui tourne à une vitesse proche de la cadence de prise d’images de la caméra : les figures sur la roue (enjoliveurs, par exemple) prennent des positions spécifique sur chaque photo, qui donnent alors l’illusion de tourner à l’envers.

Mathématiquement, cet effet est observé à chaque fois que deux phénomènes périodiques sont superposés : celui qui est observé (le mouvement de la roue) et celui qui observe (la cadence de capture d’images de la caméra). Les deux phénomènes périodiques n’étant pas en phase, il apparaît un décalage qui est ensuite mal interprété par le cerveau.

On l’a vu sur des images avec l’hélicoptère ; on l’observe également en audio.
Sur le graphique suivant, le son à enregistrer (en rouge) a une fréquence de 9 Hz. L’enregistrement (en bleu) se fait à une cadence de 10 Hz :

sinus aliasing
(source)

Bien-sûr, les points de captures effectués tous les 0,1 s (en noir) sont présentes sur les deux courbes, mais le système de traitement logiciel ne saura reconstituer que la courbe rouge. Pour lui, les deux signaux (rouge et bleu) apparaissent de la même façon, et il ne garde par défaut que celle de plus basse fréquence, même si c’est la mauvaise. Le son aiguë apparaît donc grave, ce qui est à l’audio ce que la roue tournant en sens inversé est à l’image.

Cette transformation des sons aiguës en son graves, c’est ce qu’on appelle le repliement du spectre : les hautes fréquences sont divisées et devienne des fréquences plus basses.

Pour capturer convenablement un signal d’une fréquence donnée, l’échantillonnage doit se faire à une fréquence supérieure au double de celle du signal (théorème de Nyquist-Shannon).

Pour l’enregistrement audio (en MP3, par exemple), on utilise en général une capture à 41 kHz, à 44,1 kHz ou 48 kHz, pour pouvoir inclure tout le spectre jusqu’à 20 kHz voire un peu plus, ce qui constitue la limite audible pour les humains. On enregistre donc bien à plus du double de la fréquence maximale qu’on veut enregistrer, et donc aussi de toutes les fréquences en dessous.

Pour enregistrer convenablement 3 pales d’hélicoptère tournant à 500 tours/minute (8 tours par seconde), il faut une cadence de capture supérieure à $8\times3\times2 = 48$ images par seconde. En prenant une cadence de 50 FPS, alors on n’aura plus l’impression d’avoir des pales tournant dans le mauvais sens.

Un siècle commence t-il à 0 ou à 1 ?

$
0
0

une horloge celeste
Il y a de vifs débats à ce sujet, mais historiquement il n’y a qu’une réponse valable : un siècle commence à 1.
Le siècle et le millénaire actuels on donc débutés en 2001, et non pas en l’an 2000.

Pour comprendre d’où ça vient, il faut remonter à l’origine de notre calendrier. Ce calendrier a été fixé par l’Église à l’époque où elle était la référence en matière de… tout.
Aussi, notre calendrier n’a pas débuté le jour de la naissance de Jésus-Christ. En fait, durant un bon moment après sa naissance, les années n’étaient pas comptées car ce n’était pas ce qui importait. Pour l’Église, il fallait surtout savoir quand avaient lieues les fêtes annuelles telles que Pâques, qui étaient définies selon des cycles lunaires et saisonniers (ce qui posait de temps en temps quelques problèmes).

Quand le Pape Jean 1er demandait un jour à Denys le Petit de calculer la date de pâques de l’année en cours, ce dernier se rendit compte qu’il pouvait étudier la bible et connaître la naissance du christ, et donc en déduire quand ça avait eu lieu.
Après quelques recherches et calculs (sans internet et sans calculatrice) il arrive à la conclusion qu’il se trouvait en l’an 525 après la naissance de Jésus, qu’il décida de placer en l’an 1.

On va arrêter ici pour l’histoire et passer sur les math : Denys le Petit a placé la naissance de Jésus en l’an 1, et non l’an 0. Ceci est très simple à expliquer : le nombre « 0 » n’avait pas encore été admis en occident (pire, les grecs et les romains le rejetaient car il était symbole du vide et du mal, chose évidemment reprise par l’église). D’ailleurs, les nombres se notaient encore en chiffres romains, exempt de zéro.

Or, si notre calendrier commence en l’an 1 plutôt que l’an 0, ça signifie que tout est décalé.

Imaginons qu’un enfant soit né le premier janvier de l’an 1. Son premier anniversaire — celui où il aura 1 an — aura lieu le premier jour de l’an 2. Ses 2 ans seront fêtés en l’an 3, ses 3 ans en l’an 4 et ainsi de suite. En l’an 99, il a alors 98 ans et en l’an 100 il ne n’a que 99 ans.

Maintenant, imaginons que ce « enfant » soit un siècle. Or, un siècle, c’est 100 années et un siècle qui passe, c’est donc le passage de cent années.
Par définition, le siècle aura, de même que l’enfant, 99 ans en l’an 100. Pour que le siècle soit révolu il faut attendre le premier janvier de l’an 101 (date à partir de laquelle débute le second siècle).

Le second siècle commence donc en l’an 101. Le troisième siècle commence en l’an 201, etc.
Le 19e siècle commence en l’an 1801, et le 20e siècle commence en l’an 1901.

En tout logique donc, le 21e siècle commence en l’an 2001 (qui est également le début du 3e millénaire).

Ceci n’a empêché personne de fêter le passage à l’an 2000, ou n’empêchera de fêter le passage de 2099 à 2100, mais ces dates ne sont pas le passage d’un siècle ou millénaire à un autre. C’est juste le passage d’un compteur rempli de « 9 » à un nombre rond, plus symbolique.

Références

  • Zero, the Biography of a Dangerous Idea, Charles Seife, ISBN 0-965-001423 (chapitre 2).

image de Daxis

Viewing all 335 articles
Browse latest View live