Quantcast
Channel: Couleur Science
Viewing all 335 articles
Browse latest View live

Le problème de la courbe brachistochrone : le chemin le plus court n’est pas toujours le plus rapide !

$
0
0

Question : pour faire rouler une balle sur une rampe, quelle forme doit avoir cette rampe pour que la descente par simple gravité soit la plus rapide ? (On exclu les forces de frottements.)

quelle courbe est le plus rapide ?
On aurait tendance à dire que la rampe doit prendre une forme de ligne droite : c’est le chemin le plus court, donc intuitivement aussi le plus rapide.

Un contre-exemple simple permet de montrer que ce n’est pas le cas. Regardons la trajectoire que je propose, en rouge ci-dessous :

la ligne droite n’est pas la plus rapide
Dans le cas de la ligne droite (en noir), la vitesse est acquise progressivement. En effet, l’énergie cinétique est obtenue par conversion de l’énergie potentielle de position grâce à la force de gravité. L’acquisition de vitesse dans ce cas là est donc progressive. La vitesse initiale $V_i$ est nulle. La vitesse maximale $V_{\text{max}}$ est atteinte seulement à la fin. La vitesse moyenne sur le trajet est donc $\frac{V_{\text{max}}}{2}$ : la moitié de la vitesse maximale. Ce n’est pas mal, mais il y a mieux.

Pour ma solution (courbe rouge), le raisonnement est le suivant.
Dès lors qu’on néglige les frottements, si le ballon est sur le plat, il conserve sa vitesse tant qu’il ne rencontre pas d’obstacles. L’idéal selon moi est donc d’acquérir toute la vitesse au départ : le trajet en entier est donc parcouru à la vitesse $V_{\text{max}}$. La vitesse moyenne est égale à $V_{\text{max}}$ et on arrive à destination deux fois plus vite.

On peut pousser l’astuce encore plus loin en descendant la courbe à une altitude plus basse que le point d’arrivée. On parcourt alors l’essentiel du trajet à grande vitesse et ont finit par remonter à la fin. Cela fonctionnerait, mais il y a une limite. En effet, en plus de la durée du trajet, il faut tenir compte de la durée de descente et de remontée : durant ces phases, on n’avance pas. Si on choisit de tomber vraiment très bas pour avoir vraiment beaucoup de vitesse, il arrivera à un moment où la phase de chute prendra plus de temps que sur la ligne droite simple.

Il y a nécessité de trouver un compromis : une courbe permettant de descendre assez vite pour prendre de la vitesse tout en avançant dans la direction du point d’arrivée pour ne pas perdre trop de temps.

Ce problème de détermination de la courbe idéale pour le déplacement d’une masse le long d’une courbe est un problème mathématique célèbre appelé problème de la courbe brachistochrone (du grec brakhistos, « le plus court » et chronos, « temps »).

Le problème a été étudié dès le XVIIe siècle par Jean Bernoulli, son frère Jacques (les Bernoulli étaient une grande famille de scientifiques : leur nom est très connu, mais ce n’est pas toujours à la même personne que l’on réfère) et même Isaac Newton.

Sa solution de Jean Bernoulli (que je ne vais pas démontrer ici, mais vous pouvez la voir sur Wikipédia) est une courbe bien particulière : une cycloïde.

La cycloïde est une courbe qui représente par exemple le trajet d’une valve de roue de vélo (attention, ne vous y méprenez pas : ce n’est pas un arc de cercle) :

une cycloïde
La courbe de cycloïde utilisée pour notre problème passe donc par le point d’arrivée et le point de départ. Le rayon de la cycloïde est déterminé à partir de la distance entre les deux points :

cycloïde et ballon
Il y a une infinité de possibilités de faire rouler le ballon entre le point de départ et d’arrivée, mais celle qui permet d’aller le plus rapidement est l’arc de cycloïde. Avec une animation :

i
(source)

Dans la réalité, bien-sûr, il faut tenir en compte des frottements (du ballon sur la route, résistance de l’air…) et ça devient un peu compliqué : en général, la forme générale de la courbe est la même, mais la pente est plus accentuée au début et un peu moins à la fin, afin de gagner un peu plus de vitesse au départ pour compenser les frottements sur tout le trajet. C’est dans tous les cas plus près d’une cycloïde que de toute autre courbe.

Conclusions

Je pense qu’il y a deux leçons à tirer de tout ça.

Premièrement, celle écrite dans le titre : le chemin le plus court n’est pas toujours le chemin le plus rapide.
C’est tout bête, mais cette notion (j’y reviendrai dans d’autres articles) devient très intéressante quand on utilise la relativité d’Einstein où l’espace et le temps ne forment plus qu’un : l’espace-temps. On se retrouve alors à discuter de choses profondes telles que : « plus on va se déplace vite dans l’espace, plus on se déplace lentement dans le temps ».

Et deuxièmement, on le voit sur la cycloïde : une partie de la courbe est située en dessous du point d’arrivé : la balle est descendue plus bas qu’elle ne devrait, simplement pour gagner de la vitesse et avoir assez d’élan pour pouvoir remonter rapidement. Je le vois comme un rappel qu’il faut parfois accepter de descendre un peu pour pouvoir remonter de plus belle.
Cette leçon est prouvée ici avec un ballon qui descend une pente, mais elle est applicable à bien des choses. Je vous laisse méditer par vous même.


Quel est le principe de fonctionnement du GPS ?

$
0
0

un satellite
Le système GPS permet de se situer où qu’on soit dans le monde.

Le GPS fonctionne avec une constellation de 30 satellites en orbite autour de la Terre. Chaque satellite envoie sur Terre des signaux qui comportent :

  • la position dans l’espace du satellite
  • l’heure et la date d’émission du signal

Votre puce GPS, qu’elle soit contenue dans un smartphone ou un boîtier GPS, se contente de capter ces signaux.
Quand votre appareil a reçu les signaux d’un minimum de 4 satellites, il est alors en mesure de calculer sa propre latitude, longitude et altitude, et donc de vous dire où vous êtes.

Comment ça fonctionne ?

Le positionnement GPS fonctionne grâce à un moyen que vous connaissez sûrement : la triangulation.

Dans ce qui suit, pour simplifier, on se place dans le plan, et non dans l’espace : ça simplifie les dessins mais le principe reste parfaitement identique dans les deux cas.

Imaginons que le boîtier reçoive le signal d’un premier satellite. Il connaît la date d’émission du signal et la date de réception : il connaît donc la durée de parcourt du signal. Le signal voyageant à la vitesse de la lumière, on en déduit qu’on se trouve à une distance $d$ du satellite. Autrement dit, sur un cercle centré sur celui-ci :

sur un cercle autour du satellite
Ajoutons un second signal, provenant d’un second satellite :

sur deux cercles de deux satellites
On sait désormais qu’on se trouve en même temps sur les deux cercles, autrement dit, sur l’un des points où les cercles se coupent.
Pour savoir lequel, il nous faut le signal d’un troisième satellite :

sur trois cercles de trois satellites
Maintenant, il n’y a plus qu’un seul point qui se trouve à la bonne distance des 3 satellites à la fois : il correspond à notre position.

Dans le cas réel, on se trouve dans l’espace, pas dans un plan. On utilise donc des sphères à la place des cercles : à l’intersection de deux sphères correspond à un cercle, et l’intersection de 3 sphères correspond à deux points. En théorie il nous faut donc un quatrième satellite pour savoir où on se trouve.
En pratique on élimine l’un des deux points car il ne se trouve pas sur Terre mais à une position absurde (à l’extérieur de la constellation des satellites GPS ou dans les profondeurs de la Terre, par exemple). Trois satellites suffiraient donc pour connaître notre position sur le globe.

Cependant, pour la synchronisation de l’horloge du boîtier GPS, il faut la précision d’une horloge atomique. Votre boîtier GPS et votre téléphone n’en ont évidemment pas. Ils vont donc utiliser l’horodatage produite par une horloge atomique à bord d’un quatrième satellite.
Pour pouvoir utiliser le GPS, il faut donc un minium de quatre satellites : trois pour la position, et un supplémentaire pour la synchronisation.

La nécessité des horloges atomiques vient du fait qu’on cherche à avoir une précision très importante sur la position : de l’ordre de quelques mètres sur la surface de la Terre. Il faut donc une très grande précision dans les informations transmises à votre boîtier GPS. Pour donner une idée : une différence d’une microseconde correspond à une erreur de 300 mètres sur la position !

Mieux, la précision demandée est telle que des phénomènes relativistes (d’habitude négligées) sont à prendre en compte !
Il y en a deux principaux :

  • le premier est dû à la vitesse de déplacement très grande (14 000 km/h) des satellites : leurs référentiels de temps et d’espace sont différents du nôtre (sur Terre). Leurs horloges sont ainsi retardées de 7 ms par jour.
  • le second provient la différence dans le champ gravitationnel terrestre auquel les satellites sont soumis, du fait de leur altitude élevée (20 200 km). La relativité implique que l’écoulement du temps est accéléré si le champ gravitationnel diminue. On parle ici de 45 ms par jour pour le satellite.

Ces deux effets cumulés produisent donc un décalage de 38 ms quotidiennement. Ça semble peu, mais ça suffit à induire une erreur sur la position supérieure à 11 km par jour.
Les corrections relativistes sont donc obligatoires pour que le système GPS soit fonctionnel. Il s’agit là également une preuve que la théorie d’Einstein fonctionne : sans correction relativiste, le GPS serait constamment déréglé et inopérant.

image d’illustration de la AIRS/Nasa

Quelques mots à propos de rien

$
0
0
mire no signal
(source)

Rien. Le vide. Le « zéro », le « néant ». Quand on y pense, c'est une notion compliquée à comprendre, même en maths.
Les chiffres romains, par exemple, ils n’avait pas de zéro. Les égyptiens n’en avaient pas besoin et les grecs refusaient voire s’interdisaient de s’en servir. Le zéro que l’on utilise aujourd'hui, dans les chiffres arabes, est apparu bien plus tard que les autres autour du IIIe siècle après J.-C.

Le zéro désigne aujourd’hui la quantité d’éléments dans un ensemble vide. Parler de « quantité » dans ce cas n’a pas trop de sens : quand vous faites votre liste de courses, vous mettez « 6 bouteilles de lait, 2 pains… » mais vous n’indiquez pas tous les articles dont il vous faut zéro de chaque. Avoir zéro objets revient donc à ne pas avoir de ces objets, mais également de nier la quantité elle-même.
Il n’y a pas de piège ici pour « zéro » : ce n’est que sa définition et ce à quoi il sert.

On peut noter que cette définition du zéro et de l’ensemble vide nous fait parvenir un concept intéressant : le vide.

C’est quoi le vide ? C’est quoi « rien » ?
Pour essayer de comprendre et de répondre à cette question, on peut tourner le problème dans l’autre sens.

« Rien », par définition, c’est l’absence de toutes les choses. Il faut donc, pour n’avoir plus rien, définir ce qu’on entend par « les choses », puis s’en affranchir.
Et là ça devient très intéressant car le concept de « chose » dépend du contexte. Vous allez comprendre.

Selon Lord Kelvin (1824‑1907), « le vide est ce qui reste quand tout ce qui peut être retiré, a été retiré ».
Si l’on parle d’une bibliothèque, alors les choses sont les livres. Lorsque l’on retire les livres, alors la bibliothèque est vide. Le bibliothécaire a donc créé un vide à ses yeux.

Maintenant si on dit que les choses sont des atomes, alors l’armoire de bibliothèque, n’est plus vide : il est rempli d’air !

Ok, donc si on place l’armoire de bibliothèque dans le vide sidéral, il n’y aura plus d’air.
Là elle sera vide, non ?

Et bien… encore une fois, en cherchant on peut trouver des choses : de l’énergie, des photons, des neutrinos…

Si vous avez compris ce raisonnement, alors vous avez compris le problème : le néant, le vide n’est définit que par ce que l’on considère.

C’est sur cet aspect là des choses que je vais tenter de m’attarder : jusqu’où peut-on aller pour atteindre quelque chose qui est véritablement « rien du tout » ?

Dans le vide

Dans le vide de l’espace, malgré le nom « le vide », il y a plein de choses, y compris quelques atomes !

Dans l’atmosphère terrestre, le libre parcourt moyen d’un atome (distance qu’une particule peut parcourir avant de heurter une autre particule) est de 10 nanomètres.
Dans le vide intersidéral, le libre parcourt moyen est supérieur à 10 000 km. Ça peut sembler beaucoup (ou très vide) mais il reste tout de même environ $10$ atomes par décimètre cube. Le vide n’est donc pas si vide que ça.

Imaginons qu’on arrive à vider le vide plus que le vide n’est lui-même vide ; en gros, si on retire tous les atomes, il reste quoi ?

Dans le vide, sans les atomes

Si on va sur la station spatiale internationale (ISS), qu’on sort dehors, qu’on prend un bol de vide et qu’on retire tous les atomes, alors il reste plein de choses. Le Soleil nous envoie des flux de rayonnement : des particules chargées (protons, électrons…) à très haute vitesse : on en trouve beaucoup dans l’espace (suffisamment pour qu’une fraction d’entre elles produise les aurores polaires visibles sur Terre). On trouve aussi quelques neutrinos émis par le Soleil : 65 milliards de neutrinos traversent chaque centimètre cube de l’espace chaque seconde. Le vide, disions-nous ?

Dans le vide, sans les protons et les neutrinos

Ok, donc on a retiré les 10 atomes par litre et les 65 milliards de neutrinos par cm³. Il reste quoi ?

Le vide n’est pas infiniment froid : il est à 2,725 Kelvin au dessus du zéro absolu, soit à −270,425 °C. Cette température trahit ce qui reste du Big Bang. À cause de l’expansion de l’univers, ce dernier s’est peu à peu refroidit, jusqu’à 2,725 K aujourd’hui.

Selon la thermodynamique, tout corps noir chauffé à une certaine température émet des rayonnements, et inversement, tout corps qui émet un rayonnement de corps noir a une température. On observe ce rayonnement, c’est le rayonnement diffus cosmologique, et des mesures permettent d’en déduire que l’univers est à 2,725 Kelvin en moyenne.

Ces photons ayant été émis à haute température lors du Big Bang, ils ont refroidit à force de l’expansion de l’univers : la longueur d’onde de ces photons s’est elle aussi étirée et l’univers s’est refroidit.
Une des hypothèses pour l’avenir est que l’univers va tendre de façon asymptotique vers une température de 0 K. Ce sera comme si les photons du fond diffus cosmologique n’étaient plus là non plus.

Donc si y a plus de photons dans le vide, on a le vide ?

Et non ! Il reste quand même des choses…

Et la matière noire ?

En dehors de nos particules de matière et des photons, on sait que 80% de la gravitation de l’univers est d’origine inconnue. On ne sait pas si elle est la conséquence de la présence d'une véritable matière, mais on appelle « matière noire » la source de cette gravité inconnue.
L’idée d’une particule pour la matière noire semblerait assez logique (même si elle son existence n’est pas prouvée à ce jour). Il faudrait donc la retirer aussi, dans notre quête du vide parfait.

Je ne peux en dire plus pour la matière noire, tout simplement parce qu’elle constitue encore aujourd’hui un grand mystère pour la science…

Quoi qu’il en soit, sautons ce « détail » et passons à un vide sans matière, noire ou pas, quelle qu’elle soit, donc.

Le vide quantique

Si on est dans l’espace et qu’on retire toutes les particules et tous les photons, il ne reste plus rien… Mais ce n’est pas pour ça qu’il ne se passe plus rien !

Si des particules ne s’y propagent plus, on trouve toujours des champs : le champ électromagnétique, le champ de gravitation, etc.
En fait, quantiquement parlant, une masse représente une excitation du champ de gravitation ; un aimant ou une charge électrique représente une excitation du champ électromagnétique. À l’inverse, loin d’une masse ou d’un aimant, ces champs sont au repos.

Mais même sans masse ou aimant, ces champs ne sont pas 100% au repos : il y a des fluctuations, comme il y a toujours quelques petites vagues à la surface d’une étendue d’eau calme.

Si l’on reprend notre analogie de l’étendue d’eau et des micro-vagues à sa surface, on voit des bosses et des creux. Dans notre champ quantique, on peut voir les fluctuations comme des particules de matière et d’anti-matière respectivement. Le vide crée et détruit des couples de particules/anti-particule, de façon incessante.

On appelle ces fluctuations les fluctuations quantique du vide. Elles sont toujours là et sont prévues par la physique quantique.

Ok, poursuivons et faisons comme si on pouvait se passer de ces fluctuations du vide.

L’énergie de point zéro

Imaginons que les champs quantiques soient nuls, sans fluctuations ni formation de paires particule/anti-particule. Que reste-t-il ? Il reste l’énergie du point zéro.

L’énergie du point zéro, c’est l’énergie possédée par un système quantique dans son état fondamental (son état d’énergie le plus bas possible). L’état fondamental d’un système ne correspond pas à une énergie nulle, que l’on qualifierait en physique classique de « égale à zéro » : au contraire, il correspond juste à un niveau de référence sous lequel on ne peut pas aller. C’est donc le dernier barreau d’une échelle : on ne peut pas descendre plus bas, mais ce n’est pas pour ça qu’on n’est pas en hauteur.

Pour notre énergie du point zéro, l’univers serait ainsi un « océan d’énergie » dont nous ne pouvons exploiter que la force des fluctuations à la surface, sans pouvoir puiser dessous.
En retirant les fluctuations quantique « à la surface », ce qui reste est une « mer » complètement calme : l’énergie du point zéro.

Jusqu’à maintenant, nous avons retiré les objets solides, les gaz, les atomes et les particules isolées, la matière noire, les fluctuations quantiques, pour se retrouver avec seulement l’énergie du point zéro, cet océan d’énergie qui constitue le niveau d’énergie fondamental du vide.

Retirons-la.

Les champs quantiques

On se retrouve maintenant avec une énergie de point zéro totalement nulle : plus d’énergie, du tout. Notre univers ne contiendrait plus rien physiquement. A-t-on atteint le vide ? Non, pas tout à fait.

Si physiquement il ne reste plus d’énergie ni de particules ni rien, mathématiquement il est encore possible de décrire un tel vide.

On peut en effet parler des champs quantiques eux-mêmes : un champ quantique, même-vide, reste un champ quantique. Il est juste nul.
C’est comme si on avait une feuille avec un graphique et une courbe : si on retirait la courbe : il resterait alors l’échelle, le repère et le bout de papier : ce n'est pas rien.

Le champ de gravitation ou le champ électromagnétique sont des champs quantiques. Ils seront là même en l’absence de masse ou d’un aimant.

Ok, retirons les champs quantiques alors et poursuivons.

Les dimensions

Un univers sans les champs quantiques ne ferait pas grand chose.

Si vous placez un aimant et que vous supprimez le champ magnétique de l’univers, alors l’aimant sera juste un bout de métal ordinaire, sans aucune propriété particulière : pas d’attraction sur les autres aimants : juste un morceau de métal inerte.

Que reste-il sans ces champs quantique ? Il reste les dimensions : le haut, le bas, le devant, le derrière… On pourrait toujours se promener et se repérer dans l’univers. Les coordonnées de l’espace et du temps sont toujours là, elles.
La définition d’un tel « vide » n’est plus que mathématique, on est d’accord, mais ça suffit pour pouvoir le définir.

Il faut donc supprimer les dimensions aussi…

Le néant absolu ?

Il ne nous reste plus rien : plus de particules, plus d’énergie. On a même retiré l’énergie du vide et les dimensions spatiales et temporelles.

Un tel objet, si on voulait le décrire, serait un objet sans aucune dimension spatiale, donc un point. Il n’aurait pas non plus de dimension temporelle : il serait un simple point dans le temps, sans durée de vie. Ce serait juste un événement ponctuel, petit et court à l'infini, et ne contenant aucune énergie ou matière.

Il se trouve que la physique quantique définit l’espace et le temps comme une suite d’instants et de longueurs. Les instants les plus petits possibles sont le temps de Planck ($5,39×10^{−39} s$) et les distances les plus petites possibles sont celles de la longueur de Planck ($1,62×10^{−35} m$).
Avec ce modèle théorique, on suppose que rien ne peut être plus court dans le temps ou plus petit dans l’espace que le temps et la longueur de Planck.

Le vrai vide selon moi, serait donc quelque chose qui décrit ce qui se passe à un niveau plus petit que ça : rien ne peut se produire, se trouver ou simplement « être » à ce niveau. Un objet (imaginaire) aussi petit serait donc le vide, le néant absolu, où il n’y a rien, même pas de dimensions ou de durées et encore moins de particules ou d’énergie.

Comment fonctionne un airbag ?

$
0
0

Mars rover landing airbags
Les airbag sont des sacs qui se remplissent de gaz pour amortir les chocs en cas d’accident. Leur déclenchement est extrêmement rapide : 150 millisecondes, entre le début d’une collision et le sac gonflé ! Sachant que le système centralisé doit en plus détecter l’accident, décider s’il doit déclencher les airbags ou pas (si c’est réellement un accident) et organiser le déploiement des airbags (frontaux, latéraux…).

C’est sur le gonflement des airbag que je vais m’attarder ici : la plupart des airbags sont en effet gonflés par un processus purement chimique qui libère du gaz, et non un système de compresseur, qui serait loin d’être suffisamment rapide.

La réaction qui a lieue doit être rapide et les gaz produits doivent être inertes : un gaz toxique ne ferait pas l’affaire et un gaz combustible ou comburant serait également une mauvaise idée. Un gaz de choix est le diazote, le même gaz qui est naturellement présent dans l’atmosphère à hauteur de 78 %.

Le diazote est produit par réaction de l’azoture de sodium sous l’effet de la chaleur :

$$2\text{NaN}_3 = \text{2Na} + \text{3N}_2$$

Parfois on utilise le nitrate d’ammonium, qui se décompose aussi sous la chaleur mais produit d’autres gaz : du protoxyde d’azote et de l’eau (également des gaz ininflammables et non-toxiques) :

$$\text{NH}_4\text{NO}_3 = \text{N}_2\text{O} + 2\text{H}_2\text{O}$$

L’un des problèmes de ce système encore très utilisé est que ces réactions chimiques sont très exothermiques : ils libèrent beaucoup de chaleur et l’airbag est alors chaud et peut parfois produire des brûlures superficielles.

De nouvelles méthodes existent aujourd’hui : certains systèmes ajoutent désormais une source de gaz liquides (argon, hélium…) qui viennent réduire la température des gaz. On voit aussi des voitures avec une réserve de gaz comprimés qui se vide dans les sac au moment du gonflage (système à gaz froid « cold gas »). En raison de la rapidité nécessaire pour les gonfler, la pression de ces réserves de gaz est conséquente : entre 200 et 1000 bars. Ces dispositifs ont l’inconvénient de pouvoir présenter des fuites, et nécessites un contrôle et un entretien régulier.

Dans les cas où un gonflement rapide des airbags n’est pas important, on utilise composés (parfois sous pression) qui sont brûlés pour libérer du gaz. C’est le cas par exemple sur les airbags utilisés par le Rover Martien lors de son atterrissage.

Image de Nasa

D’où viennent les symboles « lb » et « £ » pour la livre et la livre sterling ?

$
0
0

une pièce d’une livre
La livre est une unité qui peut désigner :

  • une monnaie, en particulier celle du Royaume-Uni, la livre sterling, dont le symbole est £.
  • une masse dans le système impérial, environ équivalente à 453 grammes, dont le symbole est lb.

Dans les deux cas, les anglophones la désignent par le terme pound.
Ceci nous laisse comme question l’origine des symboles « lb » et « £ » pour une unité appelée pound là où elle est utilisée.

Déjà, pour la livre sterling, le symbole £ provient bien d’un L. Il s’agit du même L que dans le symbole lb.

L’origine de ce L (et même du b) se trouve dans le mot latin libra, qui désignait une unité de masse utilisée dans l’empire Romain. Cette unité a été importée en Angleterre, mais le terme libra a finie disparaître au profit de pound, dérivant de l’expression libra pondo qui signifie « le poids d’une livre ».

Par la suite, la monnaie anglaise a pris le nom de Livre par métonymie : une livre (la monnaie) était à l’époque le coût d’une livre (la masse) d’argent (le métal).

C’est pour cette raison que la livre sterling a aujourd’hui le symbole £, et porte le même nom qu’une unité de masse.

Et concernant le nom de « sterling », l’étymologie est obscure et n’a pas de rapport avec la science, je vous laisse donc lire ça sur Wikipédia.

Références :

Image de Sergio Barbieri

Corn Flakes, aimants et diamagnétisme

$
0
0

Parmi les expériences scientifiques qu’on peut faire à la maison, il y a celle d’un corn flakes qu’on place sur un bol d’eau et qu’on attire avec un aimant. La conclusion à ce phénomène est que la céréale contient du fer.
Bien-sûr, il y a du fer métallique dedans : on le montre assez simplement à l’aide d’un mixeur et d’un aimant :

du fer dans les céréales
↑ Mise en évidence du fer dans des corn flakes mixés (vidéo sur Youtube)

Si vous faites l’expérience vous-même, vous verrez : si votre aimant est assez puissant, ça marche très bien. Néanmoins, deux remarques peuvent être faites.

La première est que le fer dans cette nourriture est clairement du fer métallique : de la poudre de fer est ajoutée dans la nourriture. Mais dans la nature, les aliments riches en fer (amandes, haricots, cacao, foie…) ne sont pas attirés par un aimant. Le sang des vertébrés ne l’est pas non plus. La raison est que le fer n’est magnétique que sous sa forme métallique. Dissout, comme dans l’hémoglobine du sang, il n’est pas magnétisable (la raison est expliquée dans cet article, prenant le cas de l’hémoglobine sanguin).

La seconde remarque concerne l’usage du corn flakes. En effet, on peut refaire l’expérience avec d’autres matériaux : on constate alors assez vite que l’aimant attire également du papier, du polystyrène, du liège, du plastique. Or ces matériaux ne contienne pas du tout de fer, ni aucun autre composé magnétique.

Alors qu’est-ce qui se passe ?

L’objet à la surface de l’eau n’importe pas : on peut mettre n’importe quoi et ça marchera, car le responsable du phénomène est l’eau, qui est diamagnétique.
Un matériau diamagnétique, c’est un matériau qui, quand il est soumis à un aimant, développe son propre champ magnétique, opposé au premier.

Pour l’eau, ça se traduit par sa tendance à légèrement fuir l’aimant :

diamagnétisme de l’eau
Comme vous le voyez, il se forme un léger creux à la surface de l’eau, matérialisé par la déformation de l’image.
Avec cette propriété, n’importe quel objet placé sur l’eau donnera l’illusion d’être attiré par l’aimant, alors qu’en réalité il ne fait que tomber dans le creux à la surface de l’eau.

Cette propriété de diamagnétisme, poussé à l’extrême avec des champs magnétiques très intenses permet de faire léviter des gouttes d’eau : la force de répulsion de l’eau est alors plus forte que le poids de la goutte d’eau. Mieux encore, vu que l’eau compose l’essentiel des tissus vivants, on arrive à faire léviter de petits animaux comme des grenouilles !

L’eau n’est pas le seul matériau à être diamagnétique et à produire son propre champ magnétique quand il se trouve près d’un aimant : le carbone pyrolytique est le matériau le plus diamagnétique connu : il lévite au dessus d’un aimant !

Conclusion

Dans cette expérience, on sait que les céréales contiennent du fer et on attribue l’attraction de l’aimant à cette teneur en fer. Mais si on pousse l’expérience un peu plus loin, on s’aperçoit qu’il y a autre d’autres phénomènes en jeu : comment l’aimant peut-il attirer du papier ? du plastique ?

Dans ces cas là, l’usage d’un aimant ne permet pas de mettre en évidence du fer dans les céréales : une céréale n’en contenant pas serait également attirée. Il a donc fallu trouver une autre expérience : il s’agit de celle dans la vidéo au début de l’article, avec un mixeur.

Des explications contre-intuitives ou des expériences aux résultats surprenants ne sont pas rares en science : c’est ce qui fait la science.
En voici quelques autres : si les arbres puisent ses ressources dans le sol, pourquoi ne voit-on pas de creux au pied des arbres ? Si le thermomètre de Galilée contient des capsules en verre, comment se dilatent-elles ? Pourquoi le radiomètre de Crookes tourne-t-il dans le sens inverse de ce qu’on avait prévu ?

6 faits intéressants sur Jupiter

$
0
0

Jupiter
À l’heure où la sonde Juno de la Nasa entame sa descente pour approcher la planète Jupiter, regardons quelques faits intéressants sur cette planète géante, la plus grosse du système solaire.

Sa taille

On ne peut pas parler de Jupiter sans évoquer sa taille. Jupiter est la plus grande et la plus massive planète du système solaire.
Son diamètre est dix fois celui de la Terre et son volume est tel qu’il pourrait contenir 1 321 Terre. Il y a des tempêtes et des cyclones sur Jupiter qui sont plus grandes que notre planète entière.

Jupiter est également la plus massive des planètes : elle est plus massive que toutes les planètes réunies, et même plus que tous les autres lunes, astéroïdes, comètes qu’on ajouterait à tout ça.
Jupiter a une masse qui est loin d’être aussi importante que celle de notre Soleil, mais elle est en revanche suffisante pour que le barycentre Jupiter-Soleil soit situé à l’extérieur du Soleil. Ceci signifie que même si Jupiter tourne autour du Soleil, le Soleil tourne aussi un peu autour de Jupiter (en réalité, les deux tournent autour de leur barycentre).

Sa rotation

Jupiter est la planète à la rotation la plus rapide : elle fait un tour sur elle-même en moins de 10 heures. Avec sa taille, cette rotation importante a un effet non négligeable sur la forme de la planète : elle est clairement aplatie aux pôles et bombées sur l’équateur. La matière à l’équateur voyage donc tellement vite que la force centrifuge déforme la planète.

Son influence gravitationnelle

Toutes les planètes ont une influence gravitationnelle sur les autres astres, mais Jupiter, à cause de sa masse si importante, influe beaucoup plus. On pense que Jupiter a protégé et continue de protéger la vie sur Terre, en attirant vers lui les comètes et astéroïdes qui auraient autrement pu endommager la Terre (et la vie) et le reste du système solaire interne.

L’influence de Jupiter est également ce qui aurait attiré la planète Neptune dans le système solaire. Les planètes se sont formées à partir de restes de poussière et de gaz qui n’ont pas formé le Soleil. Sauf que pour Neptune, on pense que la quantité de gaz disponible sur son orbite n’aurait jamais été suffisante pour former une planète en plus d’Uranus. Neptune se serait donc formée bien plus loin et finalement dévié par Jupiter pour s’approcher du Soleil.

Jupiter est en résonance orbitale avec toutes les autres planètes géantes : quand Jupiter fait cinq révolutions, Saturne en fait deux, et quand Uranus et Neptune font une révolution, Jupiter en fait respectivement 7 et 14. Cette régularité permet de stabiliser certaines orbites autour du Soleil et est responsable de la précision de cette mécanique céleste. Elle a aussi d’autres effets, par exemple sur les astéroïdes.

les lacunes de Kirkwood

La ceinture d’astéroïde s’étend entre les orbites de Mars et de Jupiter. Ceci est une région très vaste qui s’étend sur presque 2 fois la distance Terre-Soleil. La distribution des astéroïdes sur cette plage de possibilité pourrait être uniforme, mais il y a Jupiter et son influence gravitationnelle.
Du coup, la distribution des astéroïdes se fait selon un schéma particulier :

les lacunes de Kirkwood
Les lacunes de Kirkwood, zones vides de la ceinture d’astéroïdes (image)

On constate des zones « vides » dans la ceinture d’astéroïdes à des endroits bien précis. Ces zones correspondent aux orbites qui sont en résonance avec l’orbite de Jupiter et sont appelées lacunes de Kirkwood.

À chaque passage d’un astéroïde au plus près de Jupiter, il est très légèrement dévié de sa position d’équilibre sur l’orbite. L’astre passera alors tout le reste de l’orbite à essayer de se recentrer dessus en oscillant. Sur certaines orbites, la période orbitale est un multiple entier de la période d’oscillation : les deux phénomènes entrent donc en résonance. Du coup, la déviation de l’astéroïde est accentuée à chaque passage devant Jupiter jusqu’à ce que l’astéroïde est éjecté de son orbite.
À terme, il y a des régions entières où les astéroïdes ont été éjectés, et on voit apparaître des lacunes très précisément localisées sur la ceinture d’astéroïdes.

Pour le dire autrement, la présence de ces lacunes indique sur la présence d’une planète très massive, et leur observation permet de déterminer la position de l’orbite de cette planète.

Toutes les planètes ont une influence sur les autres, et Mars a naturellement aussi une influence gravitationnelle sur les astéroïdes, mais comme cette planète est bien plus petite, cette influence est invisible et négligeable devant celle de Jupiter.

Les astéroïdes Troyens

Parmi les astéroïdes déviés, certains sont totalement éjectés de la ceinture d’astéroïdes, et finissent ailleurs dans le système solaire. On peut les voir s’écraser sur une planète, ou simplement capturées dans leur force de gravité : une grande partie des ~70 lunes de Jupiter sont des débris rocheux de forme « patatoïde » qui seraient d’anciens astéroïdes.

D’autres astres se retrouvent sur la même orbite que la planète, généralement décalés d’un angle de 60° avec le Soleil, avant ou après avec la planète. On parlent alors d’astéroïdes troyens : Jupiter en dénombre pas loin de 6 000 (presque la totalité des astéroïdes troyens) et la Terre en possède un également.

astéroïdes troyens de Jupiter
Vue d’artiste des astéroïdes troyens de Jupiter (source : Nasa/JPL)

Ces astéroïdes troyens se trouvent en fait dans une région gravitationnellement stable, appelé « point de Lagrange » : l’attraction du Soleil et de la planète se stabilise et l’astéroïde reste où il est : il existe 5 points de Lagrange pour chaque doublet de corps célestes (nommés L1, L2, L3, L4 et L5) mais seuls les points L4 et L5 sont stables et ce sont eux qui accueillent les astéroïdes troyens.

Le tore de plasma d’Io

Jupiter, comme la Terre présente une magnétosphère : le cœur métallique (et donc conducteur) de la planète est en rotation et génère un champ magnétique. Celui de Jupiter est 14 fois plus puissant que celui de la Terre.
La magnétosphère est la région où cette influence magnétique est prépondérante sur les autres forces et influences : c’est elle qui dévie les particules chargées qui seraient autrement attirées par gravité vers la planète.

Une des lunes de Jupiter, Io, se trouve au milieu de cette magnétosphères, et cette configuration est responsable de plusieurs structures des plus spectaculaires du système solaire. L’une est le tore de plasma d’Io.
Le champ magnétique de Jupiter, en rotation de 10 h avec la planète tourne beaucoup plus vite que la lune Io. Il en résulte que ce champ magnétique arrache environ 1 tonne de matière ionisé de l’atmosphère d’Io chaque seconde. Une ceinture de ces ions apparaît alors autour de Jupiter, piégé dans la magnétosphère et en rotation avec elle.
Ces ions chargés voyagent à des vitesses indécentes de 45 000 km/h et quand ils repassent à proximité de l’Io, provoquent une énorme différence de potentiel électrique avec Jupiter, de l’ordre de 400 000 V. Cette différence de potentiel est alors responsable d’un déplacement de charges (d’ions) entre la lune et la planète. Ce flux chargé suit les lignes de champ magnétique jovien entre les deux astres, formant un courant électrique de plusieurs millions d’ampères dont la puissance émise est de l’ordre de 2,5 térawatt (soit environ toute la puissance électrique installée dans le monde) :

tore de plasma d’Io
Le tore de plasma est en rouge, et le flux d’ions entre Io et les pôles de Jupiter est matérialisé en vert (image)

La sonde Juno, qui va passer au plus près de Jupiter, va analyser, entre autre, cette magnétosphère. Les sondes précédentes avaient déjà fait des mesures d’un important champ magnétique, mais leurs instruments n’étaient pas prévus pour résister à l’importance de celle-ci.
On attend de Juno tout un tas d’informations qui nous en apprendra beaucoup sur Jupiter, le système solaire en général et également la Terre.

Image d’en-tête de la Nasa

D’où viennent les couleurs des feux d’artifice ?

$
0
0

des feux d’artifice
En ce 14 Juillet, jour de fête nationale française, on aura la joie (ou pas) d’assister à des feux d’artifices.

Les feux d’artifices sont des explosions pyrotechniques de toutes les couleurs. C’est là qu’intervient la science : comment fait-on les couleurs des feux d’artifices ?

Les feux d’artifices ont été inventés il y a plus de 1 000 ans an Chine, mais on ne les explique que depuis l’arrivée de la théorie de la physique quantique.

L’origine de la couleur est la même que la couleur bleue à la base d’une flamme de bougie, là où se fait la réaction chimique. C’est ici que la cire vaporisée et l’oxygène réagissent pour produire du $\text{CO}_2$ et de l’eau :

candles
↑ des bougies (photo de Gabriela Gordon

Cette réaction n’étant pas complète, il reste des micro-particules de suie, qui, chauffées, se mettent à rayonner de la même façon qu’un fer placé dans le feu devient rouge lumineux. La partie rouge-orangée d’une flamme correspond à un rayonnement de température seulement : on peut obtenir le même effet sans réaction chimique.

La couleur bleue de la base — la même que sur la flamme d’un gazinière ou d’un chalumeau — est de la même nature que celles des feux d’artifices : elle provient de la désexcitation des électrons lors de formation des produits de la combustion.
En effet, quand la réaction a lieue, les atomes passent d’un état de haute énergie (les réactifs) à un état de plus basse énergie (les produits) plus stables. La différence d’énergie est émise sous la forme de rayonnement lumineux, dont l’énergie correspond exactement à cette différence.

Si vous avez compris, vous savez donc que la vraie couleur de la combustion du gaz, de la cire de bougie ou même du bois, c’est le bleu. Le rouge-orangé ne correspondant qu’au rayonnement des particules de suie (dite rayonnement du corps noir).

Selon les éléments chimiques, la différence d’énergie n’est pas la même et l’énergie des rayons lumineux change aussi. Dit autrement : chaque élément chimique brûle en produisant ses propres couleurs.

Pour obtenir une couleur, il suffit donc de choisir le composé chimique approprié :



CouleurÉlément
VioletPotassium
BleuCuivre
VertBaryum
JauneSodium
OrangeCalcium
RougeStrontium
BlancMagnésium, aluminium
OrFer, carbone, soufre
ArgentTitane, aluminium

Pour aller plus loin, sachez que l’association entre une couleur et une molécule est ce qui permet aux astronomes de déterminer la composition chimique d’une étoile ou d’une planète à partir de la lumière qu’elle émet :

i
Spectre de la lumière solaire. Les bandes sombres sont celles des éléments chimiques : D pour le sodium, E pour le fer, F pour l’hydrogène, etc. (source)

C’est aussi grâce à ça que l’on peut déterminer la composition d’un produit quelconque à l’aide d’un spectromètre. Chaque produit présente sa propre signature spectrale, son propre mélange de couleurs.

Références / Liens

photo d’en-tête de LHG Creative Photography


D’où vient le vent ?

$
0
0

i
Il y a beaucoup de vent ici aujourd’hui, ce qui m’emmène à me demander d’où vient tout ce vent, tout cet air ?

Le vent, c’est une circulation d’air dans l’atmosphère : quand on se trouve sur le trajet d’une masse d’air en déplacement, l’air s’écoule autour de nous et on ressent le vent.
Ces déplacements d’air proviennent d’un équilibrage de pression atmosphérique entre deux régions (parfois très distantes).

La pression atmosphérique c’est le poids de l’atmosphère : l’air étant attiré par la gravité terrestre. Quand une région se trouve être plus haute pression qu’une autre région, on mesure un différence de pression entre deux régions et l’air tend à s’écouler naturellement des régions à haute pression vers les zones à plus basses pressions.

La principale origine de la différence de pressions est la température. En fonction de la météo, du relief, de la végétation (ou son absence) et de la l’attitude, le Soleil chauffe l’air de façon différente. Certaines régions de l’atmosphère sont ainsi d’avantage chauffées que d’autres. Or, quand l’air est chauffé, il se dilate : il tend à occuper un volume plus grand et il repousse les masses d’air alentours : ceci constitue un premier déplacement d’air, donc une première source du vent

Par ailleurs, les différences de température provoquent une réorganisation verticale des couches de l’atmosphère : l’air chaud monte en haute altitude, aspirant l’air plus froid en dessous, comme sur cette démonstration avec de l’eau, où on distingue nettement des courants d’eau (similaire au vents dans l’air) :

Visualisation du mouvement naturel de masses de fluides à des températures différentes. (source)

Là aussi, du vent apparaît à cause de la circulation d’air.

Le vent pourrait se faire de façon rectiligne et rapide, pour aller directement des régions à haute pression vers les régions à basse pression, mais il doit faire face à un phénomène très important : la rotation de la Terre sur elle-même !

Cette rotation a deux conséquences sur le vent : la première est que le Soleil ne reste jamais au dessus du même point (le zénith varie au cours de la journée). Les régions chauffées varient donc en permanence, ce qui empêche l’atmosphère d’atteindre un équilibre en pression : il y a donc toujours des différences de température, et donc de pression, et donc du vent quelque part.

Le second effet, bien plus important ici, concerne la force de Coriolis. Cette accélération pousse les masses d’air en déplacement à amorcer un virage dans le sens inverse de la rotation terrestre. Techniquement parlant, il s’agit en fait de la Terre qui tourne sous la fluidité de l’atmosphère, et non réellement les masses d’air qui se mettent à tourner au dessus du sol sans raison apparente (c’est une question de référentiel d’observation en fait).

C’est elle qui est responsable de la forme en tourbillons des cyclones, des tempêtes et des anti-cyclones (régions à forte pression atmosphérique).

La conséquence de la force de Coriolis est alors que les vents sont déviés de leur courses, ce qui retarde la remise à l’équilibre de la pression atmosphérique au sein de l’atmosphère. Mieux, si les courants d’air sont déviés de toute part, cela accentuent localement les déséquilibres de pression et donc provoque d’autres courants d’air venus rééquilibrer tout ça.

Ceci complique pas mal la réorganisation des masses d’air au sein de l’atmosphère en provoquant des vents de forces et direction variables.

Il faut ajouter à cela le relief : quand les courants atmosphériques passent entre plusieurs chaînes de montagne, ils sont dirigés par le relief (en leur forçant parfois à faire des détours).

Il existe ainsi des régions où le vent souffle régulièrement dans le même sens avec une certaine force. C’est le cas par exemple du Mistral, qui est en vent du nord rencontré dans la vallée du Rhône au sud-ouest de la France : les masses d’air venant d’Europe du nord sont refroidies par l’altitude de la chaîne des Alpes, coulent dans la vallée et sont canalisées entre les Alpes et le Massif Central, jusqu’en mer Méditerranée.

Dans le sud et le sud-est de la France, on assiste à un effet similaire : les courants d’air venant du nord-ouest sont canalisés par les Pyrénées et le Massif Central, jusque vers la Méditerranée. Ce vent porte le nom de Tramontane.

Des vents locaux de ce type, accéléré par le relief sont présents un peu partout dans le monde.

On peut distinguer en plus de tout ça, les courants atmosphériques en haute altitude, comme le courant-jet (ou jet-stream en anglais), qui sont également la conséquences des déséquilibre thermiques au sein de l’air. Ces derniers sont beaucoup plus réguliers et constants. On les trouve dans l’hémisphère nord et dans l’hémisphère sud, symétriques par rapport à l’équateur.

Enfin, pour terminer, le vent étant produits à l’origine par le réchauffement des couches d’air par le Soleil, ce que nous appelons « énergie éolienne » est en réalité une énergie d’origine solaire (l’énergie du soleil est quant à elle une énergie de source nucléaire).

photo d’illustration de Gary Enderson

Le paradoxe de Braess : ou comment aller plus vite en ralentissant

$
0
0

panorama de la ville de Paris
Je viens de tomber sur cet article qui explique qu’en ayant réduit la limite de vitesse sur le périf parisien de 90 à 70 km/h, la nombre de bouchons a diminué de 40 %, et qu’au final la circulation est plus fluide.

Ceci est un exemple du paradoxe de Braess appliquée au réseau routier. Ce paradoxe dit que pour accélérer le trafic d’un réseau il faut en retirer les portions les plus rapides.

Comment c’est possible ?

Pour l’expliquer, il faut conjecturer que tous les automobilistes adoptent un comportement « égoïstes » en pensent d’abord à arriver à leur point de destination plutôt que s’occuper de la fluidité du trafic : chaque automobiliste va donc prendre les voies rapides, même si elle sont bouchées par le trafic et que d’avantage de monde bouchera encore plus le trafic. En effet, les gens prennent généralement l’autoroute, mais s’ils préfèrent les petits chemins, ce n’est jamais pour que les autoroutiers aient moins de bouchons, n’est-ce pas ?

Regardons cet exemple avec des routes et des villes notées A, B, C, D :

situation paradoxe breass
Le but est d’aller de la ville A à la ville D.
Les chiffres indiquent la durée qu’il faut pour aller d’un bout à l’autre de la rue :

  • la route jaune est une voie rapide : il faut 1 minute pour aller d’un bout à l’autre.
  • la route verte est une voie lente : il faut 6 minutes pour y aller
  • la route rouge est une voie rapide, mais très étroite et dangereuse : il faut autant de minutes pour y aller qu’il y a de voitures dessus en même temps.

Si vous êtes tout seul sur la route, il faudra emprunter le chemin A-B-C-D, et vous mettrez alors $1+1+1 = 3$ minutes pour faire le trajet. Ceci est effectivement plus rapide que de passer par le chemin A-C-D, où vous mettriez $6+1 = 7$ minutes.

À présent, imaginons qu’il y a beaucoup de trafic : 4 voitures doivent emprunter la route pour aller de A à D.
Évidemment, ils vont tous passer par le chemin ABCD, pensant que le passage sur la voie rapide jaune va les aider à aller beaucoup plus vite. Or, avec 4 voitures sur la route rouge, il faudra 4 minutes pour aller d’un bout à l’autre. Le trajet complet prendra donc $4+1+4 = 9$ minutes.

Ceci est plus long qu’avec une seule voiture, mais ça sera toujours plus rapide que passer par la voie verte (où il faudra 6+4 minutes = 10 minutes).

On se dit que la voie rapide jaune, même par fort trafic, aide tout le monde à aller plus vite. En réalité, il s’agit d’une fausse impression.

Regardons ce qui se passe quand on bloque la voie rapide et qu’on oblige les voitures à prendre un autre chemin :

situation paradoxe breass après
Dans cette configuration, si vous êtes le seul sur la route, il vous faudra $6+1 = 7$ minutes pour effectuer le trajet entier. Ceci est beaucoup plus long que les trois minutes.

Maintenant ajoutons les autres voitures et revenons à un trafic important. On peut supposer que vu que les chemins A-C-D et A-B-D sont symétriques, les automobilistes voyant qu’une des routes est déjà congestionnée vont emprunter l’autre route. Pour une partie des voitures il faudra donc $2+6 = 8$ minutes et pour l’autre partie des voitures il faudra $6+2 = 8$ minutes pour faire le trajet de A à D.

On remarque qu’avec un fort trafic, cela prend plus de temps d’emprunter la voie rapide qu’être forcé à prendre les petits chemins.

Ceci est très intéressant : en supprimant les voies rapides les plus utilisées, le trafic routier est plus fluide !
Non pas vraiment à cause de la voie rapide, mais plutôt parce que les voies menant à la voie rapide sont lentes (mais tout aussi empruntées).

Ceci a été remarqué par hasard à Séoul en Corée du Sud (qui est une mégapole six fois plus grande que Paris) : la ville avait 3 tunnels en 2002 et il passait 168 000 véhicules chaque jour. Lorsqu’ils ont fermé un des tunnels pour remettre une rivière à cette endroit, le trafic des autres tunnels à diminué, le trafic s’est dilué dans toutes les routes partout autour et les tunnels n’accueillaient plus que 30 000 véhicules par jour.

À l’origine, le paradoxe de Braess a été établit pour la congestion des nœuds du réseau pour Internet : si on met un gros câble en fibre optique très rapide entre deux points, toutes les données l’emprunteront. Ça se fera sans problèmes pour le gros câble, mais pas pour tous les petits câbles tout autour ! Au final on se retrouverait avec un trafic plus perturbé qu’avant.
La solution est donc de ne pas construire de « voie rapide », mais plutôt de faire plein de voies « normales » en parallèle.

C’est également pour ça que le partage de gros fichiers via la technologie P2P est si rapide par rapport à des solutions centralisées de téléchargement direct comme Mega ou 4Shared : si un fichier est très demandé, les sites seront saturés, mais avec le P2P, le fichier étant partagé directement d’un internaute à un autre sans passer par un point central, c’est tout le réseau qui est utilisé.

Notes

  • L’exemple et le schéma de cet article sont inspirés de cette vidéo de la Royal Institution of Science.

(Cet article a initialement été publié sur Le Hollandais Volant. J’ai décidé de le déplacer ici, avec ses commentaires)

image d’entête de Moyan Brenn

Un autre puzzle sur la plage : la ligne droite n’est toujours pas le chemin le plus rapide !

$
0
0

Dans une récente vidéo, Physics Girl nous donne une énigme : on doit faire un chemin entre deux villages et qui passe par un point situé au bord de la mer. Il s’agit de placer ce point de façon à ce que la distance totale du chemin soit la plus courte possible.

Alors qu’il est bien-sûr possible de se lancer dans les calculs, elle arrive à une solution très élégante qui ne prend que quelques secondes à comprendre et à mettre en place.

Je vous laisse découvrir ça dans sa vidéo (en anglais) :

Je vous propose un second problème, dont l’énoncé ressemble au précédent, mais dont la résolution est tout de même un peu moins simple.

Imaginez la situation suivante : vous êtes toujours sur la plage à quelque mètres de la mer et vous jouez au ballon. Soudainement, le ballon est envoyé dans l’eau et vous voulez le récupérer le plus rapidement possible. Sachant que vous vous déplacez plus rapidement sur la plage que dans l’eau, quelle chemin devez-vous suivre pour récupérer le ballon ?

le ballon est dans l’eau
Quel chemin est le plus rapide ? (photo)

On peut aller en ligne droite, mais avec un peu de réflexion, on se dit que l’on doit minimiser le temps passé dans l’eau, vu que c’est là qu’on est le plus lent. Il est alors préférable de prendre le chemin rouge : on maximise le temps passé sur la plage à courir et on minimise le temps passé dans l’eau à nager.

Or, bien qu’on passerait plus de temps sur la plage, on doit aussi minimiser le temps passé sur la plage (on veut minimiser le temps total). En réalité, il existe un point $x$ au bord de l’eau vers où on doit se diriger qui minimise ce temps total.

Le problème ainsi posé peut être résolu avec le principe de Fermat.
Pierre de Fermat définit ce principe pour la lumière quand elle changeait de milieu :

La lumière se propage d'un point à un autre sur des trajectoires telles que la durée du parcours soit minimale.

En effet, quand la lumière change de milieu (passant de l’air à l’eau par exemple), elle ralenti également. On voit que sa trajectoire forme un angle, et la trajectoire dans son ensemble n’est pas une ligne droite :

réfraction d’un rayon laser dans du verre
↑ Réfraction (déviation) de la lumière dans un verre d’indice différent de l’air (source)

La lumière suit une trajectoire optimisée : l’angle est de telle sorte que la durée totale du trajet est la plus courte possible.

Revenons à notre ballon sur la plage.
Si on considère les valeurs numériques de la situation suivante :

ballon loi de snell principe de fermat
↑ Le chemin le plus court est le chemin jaune, tenant compte des différences de vitesse sur le sable et dans l’eau (photo)

Alors le temps passé à récupérer le ballon se note ainsi :

$$f(x) = \frac{\sqrt{x^2+5^2}}{v} + \frac{\sqrt{(10-x)^2+5^2}}{2\times v}$$

En différenciant cette expression (ou en la traçant), on trouve que temps de parcourt est minimal quand on se trouve à $2,35 \text{m}$ du ballon. $x$ se trouve donc significativement plus près du ballon que du joueur.

Le Principe de Fermat est utilisé pour la lumière et pour le joueur qui changent tous les deux de milieu de propagation. Ce principe permet de démontrer la Loi de Snell-Descartes sur la réfraction : la loi relie les angles de réfraction au rapport des indices optiques des deux milieux.

Ce principe, très important en physique, est généralisé avec le principe de moindre action. On retrouve ses effets en optique comme ici, mais aussi en mécanique, en électronique, en relativité et même en mécanique quantique.
C’est lui qui explique également pourquoi le problème de la courbe brachistochrone n’a pas pour solution une ligne droite mais un arc de cycloïde.

Enfin, pour l’anecdote finale, il semble que ce principe soit également utilisé dans le monde animal. Si vous jetez un bâton dans l’eau, votre chien appliquera le principe de Fermat : il aura tendance (au possible après plusieurs essais) a suivre une courbe comme notre joueur et non pas une ligne droite. Des études montrent que c’est également le cas pour les fourmis.

L’électron-volt

$
0
0

an electron
En physique, il est probable que vous ayez rencontré « l’électron-volt », de symbole $eV$.

L’électron-volt (ou électronvolt) est une unité d’énergie. Ce n’est pas l’unité d’énergie du système international, qui est le joule. On définit de façon usuelle :

$$1\text{ }eV = 1,602\times10^{-19}\text{ }J$$

Une valeur plus précise est donnée sur Wikipedia.
On remarque que l’électron-volt représente une quantité d’énergie très faible, aussi cette unité n’est donc utilisé que dans un domaine qui s’y prêtent le mieux : la physique des particules.

La définition de l’électron-volt est la suivante :

L’électron-volt est définie comme étant l'énergie cinétique acquise par un électron accéléré depuis le repos par une différence de potentiel d'un volt.

En gros, vous prenez deux plaques métalliques parallèles, que vous soumettez à une différence de potentiel d’un volt. Un électron qui se détache de la plaque négative va alors accélérer vers la plaque positive, et l’énergie cinétique acquise par l’électron au cours de l’accélération est alors égale à un électron-volt :

electron-volt
Si vous voulez une analogie plus simple à comprendre, imaginez une pomme que vous lâchez d’une hauteur d’un mètre. Quand la pomme touche le sol, elle a accéléré d’une vitesse $v$. L’énergie cinétique de la pomme sera alors égale à ce qu’on peut appeler « 1 pomme-terre », c’est à dire l’énergie cinétique acquise par une pomme, tombant dans le champ gravitationnel terrestre, d’une hauteur d’un mètre : pour une pomme de 200 grammes, ça fait environ 1,96 joule, et la vitesse d’impact est de 4,43 ms⁻¹.

L’électron-volt est parfois utilisée pour désigner une masse : on dit ainsi que la masse de l’électron est de 511 kiloélectronvolt (keV), ou que celle du proton est 938 mégaélectronvolt (MeV). La raison à cela est l’équivalence masse-énergie, selon la célèbre équation $E=mc^2$ : la masse d’un corps est équivalente à une énergie à une constant près ($c^2$). En effectuant un changement de variable, on peut alléger l’écriture et on dit que la masse de la particule vaut 511 keV (la constante étant sous-entendue).

De la même façon, avec d’autres constantes (de Planck, de Boltzmann…) on peut exprimer températures, durées, longueurs, quantité de mouvements… en utilisant l’électron-volt.

photo d’illustration de Peter Zuco

Ceinture d’astéroïdes, ceinture de Kuiper, et autres régions méconnues du système solaire

$
0
0

schéma du système solaire
En parlant du système solaire on fait généralement référence au Soleil entouré de ses 8 planètes (et parfois de Pluton). Ceci est pourtant une vision très réductrice de la chose car même si les planètes sont les objets les plus gros qui entourent le Soleil, ils ne sont pas les seuls.

Planètes & Lunes

Huit planètes (Mercure, Vénus, Terre, Mars, Jupiter, Saturne, Uranus, Neptune) tournent autour du Soleil. En plus de cela, on confirme l’existence de plus de 220 lunes. Ces corps célestes de taille variable ne gravitent autour d’un astre lui-même gravitant autour du Soleil. 173 d’entre eux gravitent autour de planètes (et notre Lune en fait partie). Les planètes gazeuses comme Jupiter et Saturne en possèdent jusqu’à soixante.
Les autres lunes gravitent autour de planètes naines (Pluton, Cérès…) ou d’astéroïdes.

Notons pour l’anecdote que les lunes du système solaire sont nommées d’après des divinités grecques ou romaines… sauf les lunes d’Uranus, qui portent des nom de personnage de Shakespeare et de Pope, deux auteurs anglais de l’époque de la découverte d’Uranus !

Les astéroïdes

Les astéroïdes sont des débris rocheux qui ne se sont pas accrétés pour former une planète et qui ne sont pas non plus des lunes. Ils sont souvent difforme et de petite taille (inférieur à 1000 km de diamètre). Dans le système solaire, on les trouve majoritairement entre les orbites de Mars et de Jupiter, où ils forment la ceinture principale d’astéroïdes, composée de plus de 520 000 corps confirmés (et certainement des millions d’autres).

Ces blocs rocheux ne se sont pas accrétés pour former une planète à cause de l’influence gravitationnelle de Jupiter qui se trouve dans le voisinage cosmique : Jupiter, du fait de sa masse très importante, déstabilise toute la région, et les astéroïdes sont alors déviés voire éjectés de la ceinture d’astéroïde.
Une partie finissent ailleurs dans le système solaire : certaines se retrouvent sur des orbites elliptiques, croisant celles d’autres planètes. Un astéroïde qui croise l’orbite de la Terre est appelé astéroïde géocroiseur : ils sont sous haute surveillance car une collision avec la Terre n’est pas exclue.

Certains peuvent aussi être capturés par une planète : soit ils s’écrasent dessus, soit ils se mettent en orbite autour (devenant des lunes). C’est le cas d’un petit rocher qui a récemment été découvert et qui constitue, le temps de quelques siècles, une petite seconde lune pour la Terre.
D’autres astéroïdes finissent sur la même orbite qu’une planète. S’ils y restent, c’est généralement sur des points appelés « point de Lagrange », situés de part et d’autre de la planète à un angle de 60° avec le Soleil : ces points de l’orbite sont gravitationnellement stables et les astéroïdes y restent. On les nomme alors des astéroïdes troyens.
Dans le système solaire, la quasi-totalité des astéroïdes troyens se trouvent près de Jupiter, mais la Terre en a également.

Pour les astéroïdes aussi, leur noms constitue un fait amusant.
Il faut savoir que quand quelqu’un découvre quelque chose, c’est à lui de le nommer : ça vaut pour les nouvelles espèces animales, aux recettes de cuisines, en passant par les éléments chimiques et les astres.
En astronomie il y a des règles strictes à respecter pour le nommage des corps, mais pour les astéroïdes, en raison de leur nombre très important, l’union d’astronomie internationale est plus laxiste sur les règles. On trouve dès lors des noms comme Eureka, Monty Python, Mr. Spock, James bond ou encore Wikipédia.

La Ceinture de Kuiper

En plus de la ceinture d’astéroïdes entre Mars et Jupiter, on trouve la Ceinture de Kuiper contenant des débris rocheux. Ces débris se trouvent au delà de l’orbite de Neptune, d’où leur nom d’objets transneptuniens (ou TNO en anglais) et dont l’ex-planète Pluton est un membre important :

objets transneptuniens
Quelques objets transneptuniens (source : Wikimedia)

Il est question ici de millions de petits corps épars, dont la totalité dépasse de plusieurs dizaines à plusieurs centaine de fois la ceinture d’astéroïdes. La ceinture de Kuiper, bien plus lointaine la ceinture principale, est également bien plus large : elle s’étend de une à deux fois la distance Soleil-Pluton.

Ici, ces corps en présence y sont depuis le début du système solaire. Ils ne se sont pas tous accrétés pour former des planètes. Selon certaines théories, les planètes comme Neptune se sont constitués avec des éléments de la ceinture de Kuiper. La planète aurait ensuite été attiré plus près du Soleil à cause de l’influence gravitationnelle de Jupiter (oui, encore) et de Saturne.

Si les corps de la ceinture principale sont principalement rocheux ou métalliques, dans la ceinture de Kuiper, on suppose qu’ils sont également composés de gaz gelés (méthane, ammoniaque…) et d’importantes quantités d’eau.

Les comètes

Ce sont des astres qui ont une orbite très elliptique autour du Soleil, à tel point qu’ils passent rapidement très près du Soleil pour ensuite s’en éloigner très fortement. Elles sont caractérisées par une « queue » de gaz et poussières qui s’échappent de la comète au fur et à mesure de leur approche du Soleil. Cette queue est extrêmement longue (plusieurs millions de kilomètres) et largement visible depuis la Terre :

comete hale boop
La comète de Hale-Boop, vue depuis la Croatie en 1997 (source : Wikimedia)

Les comètes sont en partie des objets de la ceinture de Kuiper qui ont subi une importante déviation à un moment (dû à un choc ou une attraction d’un autre corps) et qui finissent par se diriger vers le Soleil.
Certaines comètes sont connues depuis longtemps et ont désormais une orbite périodique, comme la très célèbre Comète de Halley, dont on connaît des traces écrites depuis plusieurs millénaires, et qui permit à Halley de valider les lois de gravitation de Newton, en prédisant son retour 40 ans par avance, ce qui au XVIIe siècle faisait grande sensation dans le monde scientifique.

D’autres comètes vont trop près du Soleil et brûlent, comme Ison en 2013. Enfin, certaines finissent capturés par l’incroyable attraction de Jupiter et finissent « mangés » par la géante, comme c’était le cas de la comète Shoemaker-Levy 9, en 1994.

Les nuages de Hills et d’Oort

L’autre source possible pour des comètes sont des nuages de rochers encore plus lointains, plus grands et plus massifs. Le Nuage d’Oort est un nuage situé entre 300~3000 et 20 000~30 000 fois la distance Terre-Soleil de notre étoile et même au delà de 100 000 fois la distance Terre-Soleil. Contrairement au plan de l’écliptique, qui contient les planètes, les astéroïdes et dans lequel on peut également inclure la ceinture de Kuiper, le Nuage d’Oort est sphérique, centré sur le Soleil.

Le nuage de Hills, parfois appelé « nuage d’Oort interne » est la partie du nuage d’Oort la plus proche du Soleil et qui s’est placé sur le plan de l’écliptique.

Ces deux nuages contiennent des milliards de corps rocheux. Leur nombre extrêmement important ne signifie pourtant pas que le nuage est dense : la sphère qui les contient est tellement grande (jusqu’à une ou deux année-lumière de rayon) que chaque corps reste éloigné des autres de millions de kilomètres.

le nuage d’oort
Schématisation du Nuage d’Oort (source : Wikimedia)

Le nuage d’Oort marque la limite du système solaire et de l’influence gravitationnelle et électromagnétique (par le biais des vents solaires) de notre étoile sur les autres corps plus petits.

Et la ceinture de Van Allen ?

On rencontre parfois le nom de ceinture de Van Allen dans la littérature d’astrophysique.
Cette entité n’a rien avoir avec la ceinture de Kuiper ou la ceinture d’astéroïdes, n’étant en rien une ceinture de rochers autour du Soleil.

La ceinture de Van Allen représente un tore de particules chargées qui sont piégées dans la magnétosphères de la Terre, au niveau de l’équateur magnétique, entre 700 et quelques milliers de kilomètres d’altitude (la station ISS se trouve sous cette ceinture). L’interaction des particules qui s’y trouvent avec l’atmosphère et les vents solaires est responsable des aurores polaires.

Autres Articles :

image d’entête de Image Editor

Comment fonctionnent les tubes luminescents au tritium ?

$
0
0

Les sources lumineuses au tritium gazeux (ou GTLS de l’anglais gaseous tritium light source) sont des tubes en verre ou en plastique renfermant du tritium. Quand la nuit tombe ou que la luminosité baisse, ces tubes émettent une lumière continue sans pile, branchements, ou autre source externe d’énergie :

des tubes au tritium
↑ des tubes au tritium (image)

Ils sont utilisés comme gadget en porte clé, sur les aiguilles de montres ou d’autres cadrans, et pour un usage plus sérieux dans certains vieux signes « Sortie de Secours » qui doivent être allumés constamment, y compris la nuit et surtout en cas de coupure de courant. Ces sources lumineuses fonctionnent durant plusieurs dizaines d’années de façon autonome (même si elles perdent 50 % de luminosité tous les quinze ans).

Le fonctionnement est relativement simple et est permis grâce à la radioactivité du tritium.

Le tritium (symbole ${^3}\text{H}$, ou $\text{T}$) est un gaz qui se désintègre selon la radioactivité bêta en libérant un électron. Les parois du tube sont recouverts d’une surface phosphorescente qui émet de la lumière quand il est frappé par l’électron du tritium.

Ce principe utilisant du tritium existe depuis les années 1970, mais la luminescence à partir d’une source radioactive, ou radio-luminescence, existe depuis plus longtemps. Certains vieilles montres du début du 19e siècle et avec les aiguilles lumineuses utilisaient du radium comme source radioactive.
Les personnes, souvent des femmes, chargées d’appliquer cette peinture sur les cadrans développaient à la longue des cancers et mourraient prématurément. C’était avant que la nocivité de la radioactivité avait été découverte, à l’époque où on pensait que manger du radium ou du thorium (dans du chocolat au radium ou de la pâte dentifrice au thorium) donnait de l’énergie. Ces peintures ont depuis été interdites et les maladies liées à elles reconnues, non sans procès et scandales, connus sous le nom de Radium Girls

Plus conscient de la radiotoxicité de ces matériaux, et même si les tubes au tritium ne sont pas mangés et contiennent des quantités infimes de gaz, la plupart des signes « sortie de secours » sont désormais remplacés par des lumières alimentées par des piles à longue durée de vie.

Ces tubes lumineux au tritium gazeux sont un de ces quelques objets du « presque-quotidien » qui contiennent une source radioactive pour fonctionner. Un autre exemple est le détecteur de fumée, dont les anciens modèles contiennent tous une source d’américium 241, un autre élément radioactif (là aussi, les nouveaux modèles utilisent un système à LED).

Qu’est-ce que l’eau lourde ?

$
0
0

piscine nucléaire avec radiation de cherenkov
Tout le monde sait que l’eau est une molécule qui se note $\text{H}_2\text{O}$ : deux atomes d’hydrogène pour un atome d’oxygène.

L’hydrogène est l’élément le plus simple, constitué d’un proton et d’un électron. Certains atomes d’hydrogène sont différents : ils ont un neutron en plus. Les éléments avec plus ou moins de neutrons sont appelés des isotopes. L’isotope de l’hydrogène est appelée deutérium — symbole $\text{D}$ ou $^2\text{H}$. Le deutérium est un atome stable qui possède globalement les mêmes propriétés chimiques que l’hydrogène (ce qui est normal car ça reste de l’hydrogène). Il peut donc se retrouver dans les molécules ordinaires, comme l’eau.

Ainsi, en formant une molécule d’eau avec deux atomes de deutérium, soit du $\text{D}_2\text{O}$, la molécule possède deux neutrons en plus et elle pèse donc plus lourd : on parle alors d’eau lourde. La différence en de masse par rapport à une molécule d’eau normale est tout de même de 10 %.

Cette différence est suffisante pour être visible : par exemple, un glaçon d’eau lourde coule dans de l’eau normale (alors que les glaçons normaux flottent).

Dans la nature, seulement 0,015 6 % de l’hydrogène est du deutérium. Statistiquement, donc, une molécule d’eau sur 41 000 000 est de l’eau lourde, et une molécule d’eau sur 3 200 voit un seul hydrogène remplacé par du deutérium. On appelle cette dernière eau semi-lourde.

Des procédés, existent pour extraire l’eau lourde à partir d’eau normale : la température d’ébullition de l’eau lourde est très légèrement supérieure à l’eau normale et on peu le distiller ainsi. On utilise aussi des systèmes de centrifugeuses.
Pour finir sur le deutérium et vous donner une idée, sachez que vous trouverez un peu moins de deux grammes d’eau semi-lourde dans un pack d’eau de source. Et votre corps, constitué majoritairement d’eau, contient également 5 à 10 grammes d’eau semi-lourde (et seulement quelques milligrammes d’eau lourde) !

Maintenant, de même qu’il existe des isotopes d’hydrogène, il existe des isotopes d’oxygène, eux aussi plus lourds que la normale : par exemple l’oxygène 18 avec deux neutrons supplémentaires.
Si on a deux hydrogènes normaux sur un atome de $^{18}\text{O}$, on obtient de l’eau lourde aussi, mais pas pour les mêmes raisons et elle n’est pas vraiment considérée comme de « l’eau lourde » (en fait on le désigne sous le nom « eau à oxygène lourd »).

Vous l’aurez compris : il est également de faire de l’eau super-lourde : avec deux atomes de deutérium sur un atome $^{18}\text{O}$. Cette molécule d’eau possède 4 neutrons supplémentaires et pèse 20 % de plus que l’eau normale.

Enfin, il se trouve que l’hydrogène a un second isotope naturel, beaucoup plus rare (et instable) : le tritium — symbole $\text{T}$ ou $^3\text{H}$ — avec deux neutrons en plus.
Là aussi, il est imaginable d’avoir une molécule contenant un atome $^{18}\text{O}$ et deux atomes de tritium. Une telle molécule serait excessivement rare dans la nature : statistiquement, on a seulement une chance sur 50 milliard de milliard de milliard. Cette molécule a un excès de masse de 30 %

Il est impensable de produire des quantités d’eau super-super-lourde avec du tritium et un isotope d’oxygène. Mais l’eau lourde classique, le $\text{D}_2\text{O}$ n’est pas un produit rare (tout est relatif, hein) et est utilisé dans le domaine médical et l’industrie nucléaire.

image du Oak Ridge National Laboratory

(Cet article a initialement été publié sur Le Hollandais Volant. J’ai décidé de le déplacer ici, avec ses commentaires)


Comment vole un avion ? Et non, ce n’est pas (juste) Bernoulli !

$
0
0

two USAF fighters
J'ai découvert que cette question faisait de gros débats sur le net, et qu'en plus l'explication courante, sur la différence de vitesse de l’écoulement de l’air, était fausse.
Voici donc une explication qui, j’espère, remettra un peu les pendules à l’heure.

Pour commencer, il y a principalement quatre forces qui s’exercent sur un avion en vol :

  • La traction des hélices (ou la poussé des réacteurs) qui tire (ou pousse) l'avion vers l'avant ;
  • La traînée, résultant des frottements avec l'air sur la surface de l'avion, qui freine l'avion ;
  • Le poids de l'avion, qui attire l'avion vers le bas ;
  • La portance, qui permet à l'avion de se maintenir en l'air.

En jouant sur la portance et la traction, on peut faire monter et avancer l’avion comme on veut.
De ces quatre forces, c'est la portance qui est la moins facile à comprendre : comment une aile peut-elle générer une force dirigée vers le haut ?
Il y avait plusieurs théories et évidemment, l'explication populaire est fausse (du moins, elle n’explique pas tout).

L'explication fausse et courante : l'air accélère et crée une dépression sur la partie bombée de l’aile

Cette explication, on l’a tous entendu. Voici son énoncé :

Une aile d'avion est bombée sur le dessus, donc la distance à parcourir en passant au dessus est supérieure à celle à parcourir en dessous.

aile d'avion
L'air allant plus vite en haut à cause du trajet plus important à parcourir produire une dépression au dessus de l’aile, ce qui aspire l’avion vers le haut. C’est le théorème de Bernoulli.

Alors, oui, l’effet de Bernoulli existe et ses effets sont observés et largement mis en pratique dans tout le monde de l’aéronautique (par exemple dans le tube de Pitot, qui permet de mesurer la vitesse de l’avion en vol).

L'ennui, c'est que cet effet d'aspiration dû à la vitesse ne suffit pas : même pour un avion de ligne volant à 800 km/h, la différence de pression est beaucoup trop faible pour soulever un avion entier. Un simple calcul montre qu’il faudrait une distance à parcourir au dessus de l’aile de l’ordre de 50 % plus grande qu’en dessous, soit largement plus que les 1 à 2 % mesurés sur un avion.

Par ailleurs, il a été constaté que l’air passant au dessus et l’air passant en dessous ne se rejoignent pas du tout en même temps : en fait, l’air passant au dessus de l’aile arrive avant celui passant en dessous ! Et même si ceci accentue l’effet de Bernoulli, cela ne suffit toujours pas à soulever un avion. Il faut autre chose pour expliquer le vol d’un avion.

Enfin, et pour donner le coup de grâce à cette théorie, certains avions sont munis d’ailes à profil symétrique et même plans (comme un avion en papier)… Et ils volent très bien, y compris parfois sur le dos !

Une explication plus crédible

La principale raison à la portance s'explique avec la troisième loi de Newton et l’effet Coandă.

L’effet Coandă, c’est quand vous prenez une cuillère et que vous en présentez la partie bombée sous le filet d’eau du robinet, comme sur cette image : le filet d’eau est dévié dans le sens du creux, car elle épouse les courbes de la cuillère. En réaction, la cuillère est aspirée dans l’autre sens.

Il se passe la même chose avec une aile d’avion : une aile d'avion est inclinée (si ce n’est pas tout l’avion qui l’est). De cette manière, elle imprime au courant d'air un changement de direction. Le flux d'air va avoir un mouvement descendant et l’aile aura un mouvement ascendant, par réaction.

L’effet Coandă intervient car l’air suit le profil de l’aile.
Tout le monde n’est pas d’accord avec ça : certains auteurs préfèrent ne pas évoquer cet effet en le réservant pour des situations plus spécifiques. À la place, ils invoquent un principe de cause à effet entre Bernoulli et la troisième loi de Newton : la faible pression juste au contact de l’aile force l’air à coller à l’aile et se retrouve dévié vers le bas.
Ce problème de terminologie ne change rien car le résultat est le même, à savoir que l’écoulement de l’air épouse le profil de l’aile, vers le bas :

écoulement de l’air sur une aile
↑ L’air au dessus de l’aile suit la courbe de l’aile (image)

La 3e loi de Newton dit qu’à toute force exercée dans un sens, il y a une force associée s'exerçant dans le sens opposé avec la même intensité. C'est le principe d'action-réaction. Donc, quand l’air est poussée vers le bas, l’avion est poussée vers le haut.

Dans le cas des ailes qui sont effectivement asymétriques, l’air passant au dessus est le seul qui est dévié, et poussé vers le bas (l’air en dessous continue pratiquement en ligne droite). Ceci permet de réduire la portance pour les avions supersoniques : la vitesse produisant d’elle-même une portance suffisante. Le même avion à faible vitesse doit en revanche utiliser des ailerons lors du décollage et de l’atterrissage, pour compenser.

Pour les hélicoptères et les hélices en général, c’est la même chose. Lorsque l’hélicoptère est au sol et que les palles tournent sans soulever l’appareil, leur profil est parallèle au sol : les palles ne font que passer dans l’air sans le dévier (la palle étant placée parallèle au flux d’air, on dit que l’hélice est mis en drapeau). Quand le pilote décide de décoller, les palles sont inclinées, l’air est poussé vers le bas et l’hélicoptère s’élève. Ceci permet de modifier la portance sans avoir à toucher à la vitesse de rotation de l’hélice et à celui du moteur, qui est généralement prévu pour fonctionner à régime fixe et constant.

Le même principe est utilisé pour le gouvernail des navires : il s’agit en simplifiant d’une planche qui dévie l’écoulement de l’eau dans un sens, provoquant un virage du bateau dans l’autre sens. Le profil du gouvernail n’est pas tellement important pour obtenir cet effet.

Enfin, un dernier truc : sur l’image ci-dessus, on voit que le flux d’air commence à monter bien avant l’aile. Ceci est dû à la compression de l’air au dessous de l’aile et qui repousse l’air jusqu’à plusieurs mètres autour de la surface inférieure de l’aile. Cette compression est due à l’avancement de l’avion, et elle participe également de façon directe (en poussant l’aile vers le haut) et indirecte (en forçant l’air sous l’aile à dévier vers le bas) à la portance de l’avion.

Conclusion

La principale raison de la portance d'un avion est que l'aile pousse le flux d'air vers le bas, et que par réaction l'aile est poussée vers le haut haut

En pratique, il y a beaucoup d’effets d’aérodynamique qui interviennent. Le débat reste ouvert car la théorie qui se base sur l’effet Coandă et la loi de Newton n’expliquent toujours pas tout, comme par exemple l’effet de sol, qui a besoin de théories beaucoup plus compliquées issues de la dynamique des fluides.

Il reste néanmoins des constantes dans tous les cas :

  • l’effet de Bernoulli existe et est un effet réel. Néanmoins, l’explication populaire qui l’évoque ne suffit pas à expliquer ce qu’on observe. De plus, les hypothèses de départ invoquées dans cette théorie sont fausses.
  • l’explication évoquant l’effet de Bernoulli requiert un profil d’aile asymétrique, or certains avions ont des ailes à profil symétrique (et même plats).
  • l’aérodynamique est compliquée et il faut prendre en compte beaucoup d’effets combinés pour expliquer toutes les situations. Tout n’est pas encore expliqué non plus.
  • dans certains cas, il existe des conditions limites pour que les effets Coandă et celui de Newton puissent soutenir l’avion en l’air.

Liens

Références

Deux autres articles en français sur le sujet :

Voir aussi

photo d’entête de NMK Photography

(Cet article a initialement été publié sur Le Hollandais Volant. J’ai décidé de le déplacer ici, avec ses commentaires, et de le compléter)

L’échelle de Kardashev : quel type de civilisation sommes-nous ?

$
0
0

i
Dans beaucoup de films de science fiction faisant intervenir des aliens, ce sont les aliens qui viennent sur Terre pour nous envahir, et non les humains qui vont envahir une autre planète peuplée d’extra-terrestres. C’est le cas par exemple de Independence Day, ou encore plus récemment d’Avengers.

Ceci suppose que les extra-terrestres soient en mesure de voyager à travers la galaxie pour venir nous voir, typiquement à bord d’un vaisseau spatial, et très certainement, en empruntant des trous de ver (voir ça plus loin pour savoir pourquoi).

Une remarque peut donc être faite : étant donnée que sur le plan de l’exploration spatiale nous ne sommes allées (en dehors de la Terre) que sur la Lune et nul part ailleurs, ça signifie que les aliens sont techniquement beaucoup plus avancés que nous !

On peut se demander : comment classer le niveau d’avancement technologique d’une civilisation ?

Une façon parmi d’autres de poser le problème est de voir quelle quantité d’énergie peut être produite, consommée et exploitée par la civilisation.

Ceci n’est pas si stupide : la production d’énergie de notre espèce ne fait que croître depuis toujours. De la maîtrise du feu, à l’emploi de chevaux, d’esclaves, puis de poudre à canon, de machines à vapeur, à charbon, puis à explosion, électriques et enfin à l’énergie de fission nucléaire, nous consommons toujours plus d’énergie.

Une partie de l’énergie est utilisée pour l’exploration spatiale : aujourd’hui on utilise des fusées et des sondes à propulsion chimique, ionique ou solaire pour explorer d’autres planètes. L’exploration spatiale demande énormément de ressources, et on imagine très bien que voyager à travers la galaxie pour envahir une planète va en demander beaucoup, beaucoup plus encore.

L’échelle de Kardashev

Partant de cette base, il a été proposé de mesurer la quantité d’énergie mise en jeu par toute une civilisation, de la quantifier, et de classer une civilisation sur une échelle. C’est ce qu’a fait en 1964 l’astrophysicien Nikolaï Kardashev.
Il est parti du principe qu’une civilisation peut « récolter » l’énergie disponible dans l’univers, et il classe les civilisation en se basant sur l’ordre de grandeur de la quantité d’énergie captée.

Kardashev définit 3 types de civilisations : le Type I, le Type II et le Type III.

Le Type I

Une civilisation de Type I est capable de capter et d’utiliser toute la puissance d’une planète.
Pour nous, ça veut dire la puissance disponible sur Terre. Ceci inclut le vent, les cyclones, les marrées, la chaleur, les volcans, les orages, les énergies fossiles (charbon, gaz, nucléaire…) et les énergies du vivant (bois, biocarburant…).

Quantitativement, ceci correspond environ à $10^{16}$ à $10^{17}\text{ watts}$.

Le Type II

Cette civilisation est capable de capter toute la puissance de son étoile (pour nous, ça serait donc le Soleil).
Le Soleil tire son énergie de la fusion thermonucléaire, et cette énergie rayonne dans toutes les directions autour du Soleil (nous ne recevons sur Terre qu’une minuscule partie de ce rayonnement). Une façon de faire serait de placer des panneaux solaires partout autour du Soleil et de canaliser toute l’énergie vers la Terre, les vaisseaux spatiaux, ou quoi que ce soit qui puisse utiliser cette énergie.

Le Soleil émet $3,86\times10^{26}\text{ watts}$. Kardashev proposait de mettre la barre à $10^{26}\text{ watts}$.
Le Type II consomme donc environ un milliard de fois plus de puissance qu’un Type I.

Au passage, l’idée d’une sphère de panneaux solaires autour d’une étoile pour en capter la totalité de l’énergie, se nomme une sphère de Dyson.

Le Type III

Plus fort encore, une civilisation de Type III est capable de récolter la puissance de toutes les étoiles de sa galaxie, et de l’utiliser à sa convenance.
Notre galaxie comportant environ 100 milliards d’étoiles de toute sortes, cela représente la quantité énorme de $10^{37}\text{ watts}$.

Là encore, le rapport de puissance énergétique entre un Type III et un type II est de l’ordre du milliard (10 milliards pour être précis).

Pour résumer :

l’échelle de Kardashev
↑ Consommations énergétiques des trois types de l'échelle de Kardashev (image : wiki-commons)

Le Type IV

Plus tard, il est parfois ajouté à la liste un Type IV.
Une civilisation de ce type est, vous l’aurez compris, en mesure de capter toute la puissance de toutes les galaxies, ainsi que le rayonnement intergalactique. Une telle civilisation aurait également la capacité de traiter l’information à l’échelle galactique, donc beaucoup, beaucoup d’information.

L’astrophysicien Carl Sagan a modifié l’échelle de Kardashev pour l’affiner, et permettre de situer des civilisations intermédiaires. Ainsi, il considère qu’une civilisation de type 1,1 serait capable de capter l’équivalent de 10 planètes comme la Terre, tout en restant très loin de l’énergie d’une étoile.

Où se situe l’espèce humaine ?

Selon la formule de Carl Sagan :

$$K = \frac{log_{10}W - 6}{10}$$

Le niveau intermédiaire $K$ (le chiffre après la virgule) et donnée à partir de la puissance consommée $W$. L’humanité se trouverait alors autour de 0,75 sur l’échelle de Kardashev (la puissance consommée par les humains représentant autour de 12 000 millions de TEP par an), soit aussi environ un millième de la puissance de notre planète Terre.

Sachant que notre économie (et notre énergie) est en bonne partie basée sur le pétrole et le charbon, il faudrait des ressources en énergies fossiles 1000 fois plus importantes que ce qu’on a actuellement pour atteindre le Type I.
Ceci étant improbable, il est absolument nécessaire de se tourner vers d’autres sources d’énergie, plus durables et plus puissantes. On pense en particulier l’énergie solaire, la fusion nucléaire, et pourquoi pas l’énergie des cyclones, volcans ou tremblements de terre.

Enfin, pour finir sur les humains, si nous parvenons au Type I et que nous souhaitons continuer à évoluer, nous devrons conquérir d’autres planètes pour avoir plus d’énergie, d’où le rapport avec l’exploration spatiale et les extra-terrestres.

Où se situent les extra-terrestres ?

Si l’on prend l’exemple des extra-terrestres dans le film Avengers, ceux-ci envahissent New-York en passant par un trou de ver.

La simple mention du trou de ver suffit ici à donner une idée de l’énergie mise en œuvre par cette civilisation.

Un trou de ver, c’est un court-circuit dans la structure de l’espace-temps, qui permet de passer d’un endroit de l’univers à un autre plus rapidement que ne le ferait la lumière, typiquement en franchissant quelque chose comme une porte.

Ces « objets » sont théoriquement possibles et largement décrit, comme par exemple le pont d’Einstein-Rosen. En pratique, on pense qu’ils existent à l’échelle de Planck, c’est à dire de la taille incroyablement petite de $10^{-35}\text{ m}$ (soit 20 d’ordres de magnitude plus petit qu’un noyau atomique) et d’une durée de vie de $10^{-43}\text{ s}$, mais on ne les observe pas, ni en petit, ni en grand.

Il n’est pas exclu non plus, par la théorie, que ces « portes spatio-temporelles » existent à d’échelles plus grandes, mais il faudrait une énergie faramineuse pour arriver à les agrandir et surtout à les maintenir ouvertes. Or, cette énergie est, selon les sources, de l’ordre de celle d’une galaxie entière et ses milliard d’étoiles.

Une civilisation capable de produire un trou de ver est donc au minimum une civilisation de type III.

Pourquoi évoluer ?

En tant que civilisation, on a historiquement toujours conquis et exploré le monde. Il a pris par exemple 1 500 ans après l’ère de César pour traverser l’océan et découvrir un nouveau continent. Et il a pris 450 ans de plus pour voyager jusqu’à la Lune. Certains visionnaires convoitent désormais l’idée d’aller sur Mars, soit ~50 ans après la Lune.

En tant qu’espèce vivante, et représentant de « la Vie », nous ne pouvons nous permettre de rester sur Terre : tôt où tard, notre planète sera détruite, et si ce n’est pas par nous même, ça sera par le Soleil, dont la durée de vie est limitée. Il nous reste environ 50% d’autonomie, soit 4~5 milliards d’années avant que le Soleil explose. Il nous faudra donc partir d’ici là (et bien avant en fait, car le Soleil gagne en luminosité au fil des éons) si nous voulons survivre.

Partir où ? Comment ?

Si on considère que si on veut voyager librement dans l’univers (par exemple comme dans Stargate, avec des portes), alors il nous faudra obligatoirement maîtriser la technologie des trous de ver.

En effet, avec les fusées actuelles, il faut 9 mois pour voyager sur la première planète possiblement habitable de notre propre système solaire — Mars — (et c’est déjà un problème non résolu à ce jour…). Pour arriver à la première étoile, il faut compter quelques dizaines de milliers d’années.

Si on arrivait à voyager à la vitesse de la lumière, la première étoile serait encore à 3 années de voyage, et traverser la Voie Lactée nous prendrait toujours 100 000 ans. Voyager à la vitesse de la lumière serait bien trop lent : un aller simple vers les exo-planètes les plus proches découvertes aujourd’hui aurait déjà la durée de l’ordre d’une vie humaine !

Dit autrement : sans trous de vers, nous n’irons nul part.

À ces échelles de temps, si nous n’évoluons pas, et si nous restons toujours au stade d’une civilisation de Type 0,7, ou même de Type 1, alors nous n’existerons plus dans quelques milliards d’années.
Alors non, pas la peine de se presser, mais il ne faut pas s’asseoir sur nos acquis pour autant : comparé à d’éventuelles autres civilisations, il est possible que nous ne soyons que des êtres primitifs ayant encore tout à découvrir et à inventer.

Image d’entête de Tama Leaver

13 produits chimiques les plus puissants ou instables

$
0
0

bechers en chimie
Ils sont instables, explosifs, corrosifs ou oxydants : certains produits chimiques sont tellement puissants qu’ils nécessitent d’importantes précautions d’emploi, même pour les professionnels.

L’hydrogène

Composant des 3/4 de l’univers connu, l’hydrogène est sur Terre un gaz explosif, détonnant et très combustible. Il s’associe avec l’oxygène de l’air pour former de l’eau et libérer une importante quantité d’énergie (mise à profit dans les boosters des fusées).
Dans la bombe à hydrogène (bombe H), la plus puissante bombe créée par l’homme, ce n’est pas sa réactivité chimique qui est utilisée, mais un mécanisme de fusion thermonucléaire.

La nitroglycérine

Classique : ce composé liquide de formule $C_{3}H_{5}(NO_{3})_{3}$ explose en formant plusieurs gaz, dont le dioxyde de carbone, le diazote, du dioxygène et l’eau. Si son explosion est si importante c’est en partie à cause de la grande quantité de gaz produits : plus de 1000 fois le volume de gaz par rapport au volume liquide.
La nitro est également très instable mécaniquement : un choc peut détruire la fragile molécule et libérer de la chaleur pour produire une réaction en chaîne. En revanche, des bâtons de sable ou du carton imbibé de nitro sont stables : sous cette forme, c’est de la dynamite. Il peut alors être transporté et même jeté au feu sans que ça n’explose. Pour le faire péter, il faut une onde de choc, telle qu’une étincelle. Ce procédé, breveté par Alfred Nobel, à la fin du 19e siècle, lui permis d’acquérir une immense fortune, dont les seuls intérêts suffisent encore aujourd’hui à distribuer les fameux prix Nobels.

L’oxygène liquide

L’oxygène est un comburant : il permet une combustion. Sa forme gazeuse pure est déjà suffisamment concentrée pour réactiver instantanément la flamme d’une allumette simplement incandescente. L’oxygène liquide est chimiquement 1 485 fois plus concentré et a donc un pouvoir oxydant plus important. Certains produits explosent à son contact, comme ce coton imbibé d’où l’on approche une flamme.
L’ozone, ou tri-oxygène, est encore plus corrosif que le dioxygène normal.

Le tri-iodure d’azote

Ce produit, sous sa forme solide, est des plus instables : un simple effleurement par une plume suffit à produire sa détonation. Sous sa forme dissoute dans l’eau il ne pose pas de problèmes, mais l’endroit où il sèche sera forcément l’endroit où il va exploser. Il est impossible de le transporter, car le moindre choc provoque son explosion : même une particule cosmique ou un bruit un peu fort peuvent déclencher l’explosion.

Le difluore

La plupart des produits chimiques sont conservés dans du verre car ce dernier est assez peu oxydable. Le difluor est un des gaz si corrosifs qu’il attaque le verre. Le fluor est ce qu’on appelle « électronégatif » ce qui signifie qu’il est en manque d’électron. Attaquer un matériau pour lui prendre un électron est sa façon de se stabiliser.

Le fluor attaque l’intégralité du tableau périodique à la seule exception des deux éléments les plus stables : l’hélium et le néon. Même le platine ou l’or ne sont épargnés.
Une des façons de le stocker est d’utiliser un récipient en nickel oxydé : la couche d’oxydation arrive à stopper la corrosion par le fluor.
N’importe quel matériau s’enflamme instantanément au contact de ce gaz : papier, coton, bois, acier.

On trouve du fluor dans le dentifrice ou le sel de table, mais il n’est pas pur. Car une fois que le fluor a trouvé un électron, il est stable et ne présente aucun danger. Dans le dentifrice, il oxyde les dents pour se fixer dessus, empêchant les bactéries de le faire et protégeant ainsi la dent.

L’eau régale

L’eau régale est le seul acide (sauf les superacides) capable de dissoudre l’or. C’est un mélange d’acide chlorhydrique de d’acide nitrique concentré. L’acide nitrique arrive à retirer un atome d’or, et l’acide chlorhydrique arrive à le prendre à l’acide nitrique, pour qu’il en retire un autre, et ainsi de suite.
Les deux acides pris de manière séparée n’arrivent pas à dissoudre l’or, ce qui est d’autant plus intéressant d’un point de vu chimique.

L’acide fluoroantimonique

C’est le superacide le plus fort connu à ce jour. Il est dix mille million de milliard de fois plus puissant que l’acide sulfurique à 100 % ! L’étudier est assez difficile en raison de ça, vu qu’il dissout tout ce qui entre en contact avec lui. Il est par ailleurs très difficilement conservable, et seul le téflon peut s’en charger.

La thermite et la thermate

La thermite est un mélange d’aluminium et d’oxyde de fer tous les deux en poudre. Sa particularité est de générer une chaleur plus qu’intense atteignant les 2500°C. Cette vidéo le montre à l’œuvre en train de fondre à travers un bloc moteur, en quelques secondes. La thermate contient en plus du souffre par rapport à la thermite, qui augmente encore plus ses effets.

Le potassium solide

Le potassium, comme le sodium ou le césium et tous les éléments solides de la première colonne du tableau périodique réagissent violemment au contact de l’eau : ils s’enflamment et explosent, libérant de l’hydrogène qui va lui aussi exploser. Le produit qui reste est, dans ce cas, une solution d’hydroxyde de potassium : un agent très corrosif.

L’octonitrocubane

C’est une belle molécule en forme de cube avec à chaque coin un groupe nitro $NO_2$. Il s’agit de l’explosif non-nucléaire le plus puissant au monde, mais qui malgré cela est extrêmement résistante et stable : il peut être chauffé à 200 °C et percuté avec un marteau sans qu’elle explose. Sa synthèse est cependant difficile, et la production à grande échelle n’est pas encore possible.

Le trifluorure de chlore

Ce produit est corrosif, toxique (il dissout la chair et les os), explose au contact de l’eau, entre en ébullition exposé à l’air et brûle à plus de 2 400 °C. Il a été mis au point par les Nazis avant la seconde guerre mondiale, mais fut rapidement abandonné car trop dangereux et délicat à manipuler.
Il est tellement instable qu’il dissout le béton et réagit vivement si le récipient qui le contient n’est pas propre.

Le diazide de (5-azido-1H-tétrazol-1-yl)-carbamimidoyle

Souvent, une molécule carbonée qui contient beaucoup d’atome d’azote est aussi un puissant explosif. C’est le cas de la nitroglycérine, ou de l’octonitrocubane vu ci-dessus. La présente molécule (azidoazide azide en anglais, et dont j’ai dû recréer le nom français avec un peu d’aide) contient quatorze atomes d’azote pour deux atomes de carbone, ce qui en fait l’un des explosifs les plus puissants au monde, mais contrairement à l’octonitrocubane et à l’instar du tri-iodure d’azote, il est très instable ! Il explose au chocs, au bruit, quand on allume la lumière, le place en solution et même… sans aucune raison particulière.

Le tétraazidométhane

Prenez un atome de carbone et collez-lui 4 groupes d’azoture instable $\text{N}_3$ : vous avez formé du tétraazidométhane, la molécule organique avec la plus haute concentration en azote, et l’une des plus denses en énergie !
Il est dit qu’une seule goutte de ce produit peut faire péter le récipient qui le contient, en plus de la hotte de protection sous laquelle on le manipule.

Lien :

(Cet article a initialement été publié sur Le Hollandais Volant. J’ai décidé de le déplacer ici, avec ses commentaires)

image de Kingway School

La dimension 4, hypercube et compagnie

$
0
0

hyperspace
C’est à partir de la discussion sur SCMB que j’avais envie de faire un petit article ici, à propos des objets en dimension 4.

C’est quoi une dimension au sens mathématique ?

La dimension d’un espace c’est le nombre de coordonnées qu’il faut pour repérer un point dans cet espace.
Ainsi, en dimension 1 (une demi droite donc) il suffit d’une seule coordonnée pour repérer un point de cette demi-droite par rapport à l’origine.

Dans un plan, un point est repéré par deux coordonnées X et Y :

un plan cartésien XY
Un plan cartésien en XY (image)

Dans un espace en 3D, comme le monde dans lequel on vit, il faut 3 coordonnées pour se repérer : X, Y et Z généralement.
Dans un espace en 4D, il faut donc en toute logique 4 coordonnées, que je prendrais à W, X, Y, Z.

La dimension 4

Déjà, je vous dis que ce dont je parle n’est pas le temps.
Oui, en physique le temps est une dimension mais ce n’est pas pour cela que c’est le quatrième. Dans certaines théories des cordes, on utilise un espace-temps à onze dimensions, il y en aurait une de temps et dix d’espace.
Ce dont je parle ici, c’est réellement un espace à quatre dimensions spatiales, où chaque point est repéré par quatre coordonnées, et où le temps vient s’ajouter à tout ça.

Ceci étant posé, la quatrième dimension, c’est quoi ? Comment le dessiner ? Le voir ?

Notre espace étant en 3D, il n’est pas possible de faire une représentation rigoureuse d’un espace en 4D.
Il n’est pas possible de le dessiner, car un tel espace ne fait pas parti de notre monde. Pour autant, ce n’est pas pour ça qu’on ne peut pas faire des calculs avec. En mathématiques, on peut faire des calculs avec des objets ayant autant de dimensions que l’on veut. C’est difficile voire impossible à se représenter, mais les calculs, soient-ils abstraits, restent possibles.

Pour essayer de s’imaginer ce qu’est la dimension 4, on peut partir de la dimension 2.
Prenons un papier avec un plan XY. On repère un point sur ce papier avec ses coordonnées X et Y. Maintenant, prenons plusieurs feuilles munies de repères et faisons un livre : le numéro de la page correspond alors à une nouvelle coordonnée Z.

Un ver qui se trouve sur la première page et qui traverse le livre passe alors d’un plan à un autre. Pour le plan sur la première page, le ver possède une coordonnée au début, mais comme il traverse le livre, le ver finit par ne plus avoir de coordonnées sur le premier plan. Dit autrement, en dimension 2 sur la feuille, le ver est là à un moment (matérialisé par X et Y) puis il disparaît (il n’a plus de coordonnées du tout).

Nous, qui observons le ver, voyons le ver passer d’un plan à un autre. Sa coordonnée Z évolue.

Maintenant prenons plusieurs livres éparpillées sur une table. Chacun étant un empilement de plusieurs feuilles. Pour repérer le ver, il faut donc un X, un Y, ainsi qu’un Z, mais aussi une nouvelle coordonnée — W — qui renseigne sur l’identité du livre.

Le ver ne peut évoluer que dans des livres, il ne peut donc pas passer sur la table et rejoindre un autre livre. Il est, comme nous, prisonnier des trois dimensions de l’espace. S’il pouvait évoluer dans la dimension 4, alors il disparaîtrait d’un livre pour se retrouver au milieu d’un autre.

Tout comme il disparaissait d’un plan XY quand il évoluait selon l’axe Z, ici, il disparaît d’un espace XYZ quand il évolue dans la quatrième dimension W.
En gros, pour nous, un être de dimension 4 est capable de se téléporter d’un endroit à un autre : il disparaît un moment de notre espace puis revient ailleurs et un peu plus tard, sans qu’on puisse le voir se déplacer.

Ce n’est pas de la science fiction, c’est simplement que nous, humains, sommes dans un espace à 3 dimensions et incapables de changer ça.
Selon certaines hypothèses et théories (dont les théories des cordes), étant données que la matière (atomes…) évolue dans nos 3 dimensions, s’il en existe d’autres, alors elles sont plus fines que la dimension des atomes, empêchant la matière de passer d’un endroit à un autre de l’espace par téléportation.

On ne sait pas si d’autres dimensions existent, ni à quelles échelles. De grandes théories existent, mais il est difficile, et peut-être même impossible de les prouver… pour le moment.

Segment, carré, cube, hypercube !

Le segment, est la base en dimension 1.
Le carrée est la figure la plus régulière en base 2 : il est obtenu par duplication du segment puis en les reliant.
Le cube est la figure de base de la dimension 3 : on prend deux carrés parallèles qu’on relie point à point.

L’hypercube ? Facile : on prend deux cubes et on les relie, sommet à sommet aussi.

Comment s’imaginer ça ?

Si on regarde un carré depuis un côté, alors un voit une simple arête : un segment.
En regardant un cube depuis un côté, on voit un carré.

Maintenant, il faut imaginer qu’un cube c’est simplement un « côté » d’un hypercube. En faisant tourner (en dimension 4) l’hypercube, on peut voir un autre côté, donc un autre cube. Aussi, tout comme le cube est un assemblage de 6 carrés, l’hypercube est l’assemblage de 8 cubes :

le patron du tesseract
↑ Un hypercube déplié en 8 cubes (image)

Cependant… Ce que vous voyez là sur l’image, c’est bien un segment, c’est bien un carré mais ce n’est pas un cube et encore moins un hypercube.

On voit une représentation en 2D (à plat) d’un cube.
Pourquoi est-ce différent ? Parce que par définition, le cube a ses faces de même forme et de même surface. Ce n’est pas le cas sur ce dessin. La perspective permet de mieux se représenter un objet d'une dimension supérieure dans une dimension inférieure, mais cette représentation n’est pas l’objet en lui-même.
Pour obtenir un vrai cube, il faut le sculpter et non plus le dessiner.

L’hypercube ici, c’est encore pire : c’est un objet en 4D dessiné dans un plan en 2D. Si on essaye de faire une représentation en 3D, on obtient quelque chose comme l’Arche de la Défense, à Paris.
Mais cela reste encore une simple représentation : l’hypercube réel n’est pas comme ça : si on arrivait à voir en 4D, tous les cotés, faces, cubes seront de même longueur, surface, volume.

Cet hypercube n’est qu’une représentation en 3D du véritable hypercube.
Tout comme on pourrait imaginer l’ombre d’un cube sur un plan (on verrait alors quelque chose comme le cube sur l’image ci-dessus), on peut voir l’Arche de la Défense comme la forme 3D représentant une ombre tridimensionnelle d’un hypercube.

Comment voir en 4D ?

Il n’est pas impossible de s’imaginer des choses en 4D voire en 5D, 6D… Je pense que la puissance de l'imagination est infinie de ce côté là. L’évolution ne nous a juste pas doté d’un besoin de voir en 4D, et donc rien de la 4D n’est intuitif. Ceci dit, il y a bien des choses qui ne soient pas innées et qu’on arrive à faire. Voir en 4D n’en est donc qu’une de plus.

Si vous voulez vous y tenter, je vous propose le film réalisé par l’ENS de Lyon : Dimensions. C’est un film en licence CC et téléchargeable gratuitement. Il est aussi possible de commander un DVD.

Vous pouvez aussi lire le livre Flatland, d’Abbott : il trace la vie d’un personnage vivant dans un plan 2D et qui est amené à passer quelques temps en 3D. L’auteur y invite finalement le lecteur, habitant d’un monde en 3D, de s’imaginer un univers en 4D.
Le livre date de 1884 et est donc tombé dans le domaine public depuis longtemps. Je vous en partage une édition ici : abbot_flatland.pdf. Je vous préviens quand même que le livre peut aussi être vu comme une critique de la société Victorienne (ce n’est donc pas juste un manuel de math).

Flatland a aussi été adapté en deux films : Flatland et Flatland the film, ce dernier est en ligne sur Youtube.

Je n’ai pas de méthode directe pour apprendre à imaginer un 4D, mais les deux méthodes décrites ici (dans Flatland et dans Dimensions) sont similaires : se mettre à la place de créatures en 2D voulant apprendre la 3D, puis transposer tout ça à nous : se mettre en 3D et voulant apprendre la 4D.

Voilà d’autres explications (en anglais et en vidéo) :

image de Procsilas Moscas


(Cet article a initialement été publié sur Le Hollandais Volant. J’ai décidé de le déplacer ici, avec ses commentaires)

C’est quoi l’effet Casimir ?

$
0
0

des miroirs
L’effet Casimir (du nom de Hendrick Casimir, pas du dinosaure) est une mystérieuse force produite par le vide entre deux plaques parallèles.
Le travail de cette force est parfois décrite comme l’énergie du vide. Cette dénomination n’est totalement fausse, mais il ne semble pas possible de pouvoir en faire une source d’énergie pour autant.

Pour comprendre l’effet Casimir, il faut visualiser le vide.
Comme je l’expliquais dans mon article sur « Rien », même dans un vide dénué de tout atomes, il reste des fluctuations dans le champ électromagnétique (et tous les autres champs quantiques). Ces fluctuations, présentes dans le vide, prennent la forme de photons. Ces photons sont caractérisés par leur longueur d’onde.

Maintenant, plaçons nous dans le vide prenons deux plaques parallèles (des miroirs) que l’on sépare d’une distance $l$ très faible, de l’ordre de grandeur de la longueur d’onde des photons .

Entre les deux plaques, seuls les photons de longueur d’onde égale à un multiple entier de $l$ peuvent exister (comme la corde d’une guitare, qui ne peut vibrer qu’à une fréquence égale à un multiple entier de la fréquence fondamentale). L’intérieur des plaques ne voit donc apparaître que certains photons spécifiques.

À l’extérieur des plaques, par contre, il n’y a pas de contrainte : si les plaques sont dans un espace supposé infiniment grand (au moins devant la distance $l$), des photons de toute longueur d’onde peuvent exister :

l’effet casimir
↑ l’Effet casimir (source : Zero, The Biography of a Dangerous Idea, Charles Seife, ISBN 0-965-001-001424)

Si l’on considère maintenant la pression radiative (pression des photons) exercée sur les plaques, on voit que la somme totale de la pression à l’extérieur des plaques est plus importante que celle produite dans l’espace entre les deux plaques, tout simplement par ce qu’il y a plus de photons à l’extérieur.

L’effet Casimir se manifeste alors : sous l’effet de la différence de pression, les deux plaques vont se rapprocher.

Vous avez bien lu : le vide peut déplacer des choses. Si maintenant on arrive à capter l’énergie produite lors du déplacement de ces plaques, on peut capter un peu d’énergie du vide.
Cette force de Casimir entre deux plaques parallèles placées dans le vide a depuis été mesurée expérimentalement à plusieurs reprises.

Mais le vide n’est pas le seul endroit où l’on peut rencontrer ce phénomène.
Si on place deux plaques dans l’eau, des vagues (ondes) arrivent également de tous les côtés. Là aussi, toutes les ondes ne sont admises entre les deux plaques et l’on observe une différence de pression et donc une force qui finit par coller les deux plaques entre elles.

Ce phénomène avait déjà été observé en 1836 par P. C. Caussée, dans son livre l'Album du Marin : deux bateaux voguant de façon parallèle finissent par se rapprocher, à cause de l’absence de certaines vagues dans l’espace entre les deux navires. Ce phénomène a été expliqué en 1996 seulement, et constitue un effet analogue à l’effet Casimir hors du cadre de la physique quantique.

Image d’en-tête de Trixi Skywalker

Viewing all 335 articles
Browse latest View live