- Éditorial
mediachimie

Le grand K va disparaître ?

Le 16 novembre dernier à Versailles la Conférence générale des poids et mesures (CGPM) a voté la condamnation du « grand K ». À partir du 20 mai 2019 la définition du kilogramme sera basée sur une constante fondamentale
...

Le 16 novembre dernier à Versailles la Conférence générale des poids et mesures (CGPM) a voté la condamnation du « grand K ». À partir du 20 mai 2019 la définition du kilogramme sera basée sur une constante fondamentale de la physique : la constante de Planck h en kg.m2/s ; le « grand K » n’a donc plus que six mois à vivre.

C’est toute l’histoire du système international d’unités (SI) qui bascule. La création du système métrique décimal remonte à la Révolution française. Les définitions du kilogramme, basé sur le poids d’un décimètre cube d’eau pure à 4°C, et du mètre, correspondant au dix millionième de la distance du pôle Nord à l’équateur sur le méridien de Paris, n’étaient plus satisfaisantes.

Dès 1799 deux étalons furent forgés en platine (1) : un cylindre d’un kilogramme et une barre d’un mètre de longueur. Afin d’accroître la stabilité des étalons, deux nouveaux étalons furent forgés en 1889 dans un alliage de platine iridium (2). Le cylindre de 39 mm de haut fut alors enfermé sous trois cloches de verre dans un coffre-fort au Bureau international des poids et mesures (BIPM) à Sèvres près de Paris : c’est « le grand K », qui a servi de référence pendant près de 130 ans. Plusieurs répliques ont été faites dès 1875 lorsque le système international d’unités (SI) fut adopté par plus de soixante pays. Le « grand K » n’a quitté sa chambre forte que trois fois pour le comparer à ses « enfants », on s’aperçut alors qu’au fil du temps la masse du « grand K » était inférieure de 50 microgrammes à celles de ses répliques (5.10-8 kg, un grain de sable).

Lors de la 21e Conférence générale des poids et mesures en 1999, il fut demandé aux laboratoires nationaux d’affiner les expériences pour relier l’unité de masse à des constantes fondamentales. En France les chercheurs du CNAM, du LNE (Laboratoire national de métrologie et d’essais) et de l’Observatoire de Paris unirent leurs efforts pour confronter leurs résultats avec ceux du NRC (National Research Council) au Canada et du NIST (National Institute of Standards and Technology) aux États-Unis, ce qui aboutit en 2017 à la détermination de la valeur de la constante de Planck h avec une incertitude de moins de 5.10-8. Les chercheurs ont utilisé pour cela une balance de Kibble, une balance un peu particulière car elle ne comporte qu’un seul plateau, l’autre étant constitué d’une boucle magnétique au centre de laquelle on fait passer un courant précis dans un conducteur qui développe une force électromagnétique que l’on relie à la constante de Planck. Une seconde méthode utilisée par des chercheurs allemands consiste à fabriquer une sphère parfaite en silicium cristallisé très pur (3) d’un kilogramme. En comptant le nombre d’atomes de cette sphère, on calcule le nombre d’Avogadro avec une grande précision que l’on relie aussi à la constante de Planck. Grâce à ces méthodes et à la confrontation des résultats en 2017 la valeur de la constante a été fixée à h = 6,626 070 15 × 10−34 kg.m2.s-1 (J.s en SI).

Dans la foulée et en cascade à partir de mai 2019, la seconde, le mètre, le kilogramme, le kelvin, l’ampère (4), le candela et la mole (5) auront des définitions actualisées. Donnons quelques exemples :

  • la seconde, calée sur la fréquence de transition hyperfine du césium 133 égale à 9 192 631 770 Hz équivalent à s-1
  • le mètre à partir de la vitesse de la lumière dans le vide c = 299 792 458 m.s-1
  • le kilogramme à partir de sa relation avec h = 6,626 070 15 × 10-34 kg.m2.s-1
  • la mole, unité de matière, qui contient 6,022 140 76 × 1023 entités élémentaires, correspondant à la valeur de la constante d’Avogadro NA en mol-1

Toutes ces valeurs sont issues des quatre constantes h (constante de Planck), e (charge élémentaire), k (constante de Boltzmann) et NA (nombre d'Avogadro) qui ont nécessité un travail long à l’échelle internationale depuis plusieurs dizaines d’années, avec de multiples expérimentations. Elles ont permis la convergence des résultats, entérinés par CODATA (Committee on Data of the International Council for Science).

On peut se poser la question de savoir si ces précisions sont vraiment utiles ? En fait, pour la seconde et la mesure du temps, on connait la précision des horloges atomiques qui ont permis la définition étonnante des GPS. Pour la médecine et la pharmacie la définition exacte des doses et micro-formulations a besoin de références. Pour nos balances de ménage et nos pèse-personnes ce n’est pas 50 microgrammes après la retraite du grand K qui changera nos vies. En revanche, c’est une nouvelle ère qui s’ouvre pour la métrologie où l’on change de paradigme. En effet, les constantes ne reposent plus sur des objets matériels mais sur des facteurs physiques de nature fondamentale universelle.

Jean-Claude Bernier et Catherine Vialle
novembre 2018

Pour en savoir plus
(1) Produit du jour de la Société chimique de France
(2) Le mètre de 1889
(3) Toujours plus petit ! (Chimie et… junior)
(4) Ampère et la chimie
(5) La constante d’Avogadro (vidéo)

Voir aussi sur le site du LNE (Laboratoire national de métrologie et d’essais)
Le kilogramme
Introduction au système international d’unités

 

 
Réplique du Grand K. © National Institute of Standards and Technology. 

Usine de produits explosifs, Toulouse. CC BY-SA 2.0
- Éditorial
mediachimie

14/18 : démarrage de l’industrie chimique française ?

En 1914, l’industrie chimique organique en France est quasi inexistante, elle ne représente que 2 % du marché mondial alors que celle de l’Allemagne approche les 85 %. La chimie minérale et l’électrochimie avec la
...

En 1914, l’industrie chimique organique en France est quasi inexistante, elle ne représente que 2 % du marché mondial alors que celle de l’Allemagne approche les 85 %. La chimie minérale et l’électrochimie avec la production de soude, de chlorates et de phosphates (1) est un peu plus vaillante avec des sociétés comme Saint-Gobain, Air Liquide ou Kuhlmann. Malgré les avertissements des chimistes alsaciens qui avaient fui leur province pour Paris après 1870, inquiets de voir l’hégémonie industrielle allemande s’appesantir sur la France sans sursaut de la part du gouvernement et des investisseurs. Albin Haller (2), qui avait réformé l’enseignement à Paris et à Nancy des ingénieurs chimistes, déplorait le manque de liaison entre l’université et l’industrie tout comme Lebon qui disait : « Les laboratoires étaient des sanctuaires de science pure, où ne parvenait pas le bruit de l’usine, et l’usine vivait d’empirisme et de routine » (3). Un autre chimiste, Charles Moureu, affirmait : « Il est certain que sans la puissance de son industrie, et tout particulièrement de son industrie chimique (…), jamais l’Allemagne ne nous eût déclaré la guerre ».

Cette faiblesse française apparait dès 1914 lors de l’erreur stratégique du haut commandement militaire qui escomptait une guerre courte et un approvisionnement de 10 000 obus par jour. Or, dès octobre 1914, c’est 100 000 obus par jour qui seront nécessaire. Le manque d’explosifs et la prise des mines de charbon et de fer du Nord et de l’Est privent de plus l’approvisionnement en benzol et en coke. Le gouvernement réagit et dès 1914 crée l’Office des produits chimiques et pharmaceutiques et nomme en 1915 un comité de direction de chimistes dont Albin Haller sous la présidence d’Auguste Béhal. Très vite, sous l’impulsion des ministères du Commerce et de l’Armement nait la Commission des matières colorantes qui initie le Syndicat national des matières colorantes (SNMC) qui deviendra très vite la Compagnie nationale des matières colorantes (CNMC). Celle-ci, avec le Service des poudres, contribue à la fabrication de tous les produits explosifs, composés chimiques et colorants. Fin 1915, un ambitieux programme soutenu financièrement par l’État se met en place, la chimie devient un but essentiel de l’économie de guerre.

La guerre chimique déclenchée par les Allemands par les attaques au chlore en 1915 (4) illustre la réaction française. En France la production de chlore était quasi nulle. Seules trois usines étaient capables d’en produire dont celle de la Motte-Breuil dans l’Oise sous séquestre car appartenant à Hoechst. Un contrat américain avec Dupont de Nemours apporte quelques tonnes. Mais l’État permet au groupe industriel de Alexandre Giros et de Louis Loucheur de construire à Pont-de-Claix près de Grenoble une usine qui dès mars 1916 produira des tonnes de Cl2. Dans la foulée près de dix usines électrochimiques sont équipées et financées. Deux usines construites en Tunisie approvisionneront en brome. Après 1917, une même réaction et collaboration en recherche et industrielle permettra de produire un autre gaz toxique, l’ypérite, qui avait été employé par les forces allemandes.

Pour les explosifs, le benzol, l’acide sulfurique et surtout l’acide nitrique et les nitrates manquaient. Il fallait s’approvisionner avec difficulté en nitrates du Chili, alors qu’en Allemagne, grâce au procédé Haber-Bosch, ammoniac (5) et nitrates étaient produits à partir de l’azote et des milliers de tonnes d’engrais peu coûteux s’amoncelaient pouvant aussi bien servir comme explosifs. C’est pourquoi après l’armistice de 1918 les diverses usines de l’IG Farben dont l’immense site d’Oppau furent occupés et les services chimiques français réclamèrent la divulgation de l’ensemble des procédés utilisés pour les armes de guerre. Les sociétés allemandes s’y refusèrent et réclament l’arbitrage de la Commission d’armistice. Celle-ci sous l’influence des Anglais et des Américains déclara que la « synthèse des nitrates revêt[ait] un caractère commercial et non militaire ». Nos chimistes de la délégation ne s’avouèrent pas vaincus et lors des pourparlers en 1919 et dans la rédaction du Traité de paix il y eut bien sûr une référence à l’industrie chimique allemande coupable de l’initialisation de la guerre chimique et l’exigence de l’anéantissement des usines de l’IG Farben où les gaz toxiques et les nitrates avaient été produits de 1914 à 1918.

C’est alors que se place en juin 1919 une rocambolesque négociation. Carl Bosch, qui était le chimiste de la délégation allemande, fut aperçu nuitamment franchissant les murs d’enceinte du parc où résidait la délégation pour rencontrer en secret un conseiller du ministère de l’Armement et des fabrications de guerre qui faisait partie de la Commission de contrôle des usines chimiques outre-Rhin. C’était le frère du futur directeur de la CNMC qui regroupait toutes les industries chimiques françaises soutenues par l’État. Bosch qui savait (et pour cause) que les brevets avaient été conçus pour les rendre inintelligibles aux étrangers de la chimie organique allemande et que la destruction des usines de l’IG Farben ne serait d’aucun secours à l’industrie chimique française négocia un accord avec les chimistes qui remonta au plus haut niveau. Cet accord stipulait la sauvegarde des usines chimiques outre-Rhin contre la révélation du procédé Haber-Bosch et l’aide des chimistes allemands pour la construction sur le territoire hexagonal d’usines de synthèse de NH3 et de nitrates. Dès 1920 le gouvernement français suscita un groupe d’industriels intéressés par la mise en application des brevets et des procédés. L’Office national industriel de l’azote (ONIA) fut créé en 1924 et plusieurs usines s’installèrent sur le site de l’ancienne poudrerie de Toulouse. Dès 1927 l’ONIA devint le premier producteur et exportateur de nitrate d’ammonium, maintenant connu sous le nom AZF (6).

L’économie de guerre avec un dirigisme étatique fort va changer l’industrie. Les entreprises chimiques comme celles des autres secteurs manquaient d’innovation et de capital pour l’investissement, les commandes de l’État entre 1914 et 1918 vont modifier largement le panorama. L’industrie chimique trop éparpillée va évoluer à marche forcée. La SCUR (Société chimique des usines du Rhône) bénéficiant de marchés captifs sur le phénol et les explosifs (7) multiplie son chiffre d’affaire par quinze, les bénéfices de la société Saint-Gobain augmentent de 70 %, la CNMC absorbe plusieurs compagnies et profite du rebond de la chimie organique. Michelin qui fournit les pneus des camions va accumuler un capital qui lui permettra, dès 1919 et l’essor de l’automobile, d’investir et de devenir une des toutes premières industries.

Après 1918, plusieurs écoles d’ingénieurs chimistes se créent sur le modèle de l’ESPCI, de Nancy de Mulhouse, la recherche universitaire dialogue avec l’industrie d’autant que Saint-Gobain, Air liquide, la SCUR, Michelin… ont la taille et les besoins en compétences pour jouer un rôle international. Cette évolution industrielle se double d’une évolution sociétale où, après la saignée de plusieurs millions d’hommes, les femmes prennent une place essentielle dans l’économie. La jeune industrie automobile et la naissante industrie aéronautique comme l’industrie chimique vont croître, sans faire oublier l’hécatombe et le sacrifice de millions d’hommes jeunes et de civils.

Jean-Claude Bernier
Novembre 2018

Pour en savoir plus
(1) Données industrielles, économique, géographiques sur les principaux produits chimiques, métaux et matériaux; L'élémentarium
(2) Solvay et la France. Un partenariat pour la chimie : Ernest Solvay – Albin Haller
(3) La chimie française dans la seconde moitié du XIXe siècle
(4) Il y a cent ans : la guerre chimique
(5) The Synthesis of Ammonia from Its Elements
(6) Enquête technique après accidents industriels
(7) L’industrie chimique française pendant la guerre : matières premières servant à la préparation des poudres et explosifs

Image d'illustration. CC BY 2.0 Zappys Technology Solutions/flickr
- Éditorial
mediachimie

Des nouveaux véhicules automobiles pas très verts !

Le dernier rapport alarmiste du GIEC coïncide presque avec le Salon mondial de l’automobile à Paris en cette mi-octobre. Bonne occasion pour voir si les nouveaux véhicules vont aider à rester sous 1,5 °C de réchauffement
...

Le dernier rapport alarmiste du GIEC coïncide presque avec le Salon mondial de l’automobile à Paris en cette mi-octobre. Bonne occasion pour voir si les nouveaux véhicules vont aider à rester sous 1,5 °C de réchauffement d’ici 2030 (1) ! Alors que la progression des ventes d’automobiles de l’ordre de 2,6 % annuels n’a pas été ralentie depuis l’accord de Paris de 2015, constructeurs et gouvernements dans un grand élan « médiaticologique » ont banni les véhicules thermiques (2) de leur vente, routes et villes d’ici 2030 ! D’où la floraison porte de Versailles et place de la Concorde de véhicules hybrides, hybrides plug-in, électriques, à hydrogène… Au-delà des annonces « green business » reprises par tous les media politiquement corrects, quelques voix de techniciens s’élèvent mettant en doute leur vocation de sauveurs de la planète à l’encontre de l’opinion moutonnière. Qu’en est-il ?

Faisons d’abord un sort aux hybrides avec ou sans plug-in qui rechargent leurs batteries avec le moteur thermique ou une prise dans le garage, ils n’ont d’électrique que le nom sur le catalogue. En général de gros SUV alourdis par une batterie et un moteur électrique annexe fleurissent aux abords des écoles où les parents hauts perchés montrent leur sentiment écologique aux têtes blondes. Quelques élus de la nation veulent qu’ils accèdent à une prime de 2000 € alors qu’ils ont une autonomie de 1000 km grâce à leur réservoir de gasoil en émettant à tout va du CO2 (3) et ne peuvent parcourir que 40 km au moteur électrique. Ce sont à l’évidence à 90 % des véhicules thermiques, ils n’ont rien d’électrique !

Les véhicules tout électrique vus au salon sont-ils différents ? Ils sont très beaux et tentants avec des autonomies comprises maintenant entre 250 et 450 km grâce à des packs de batteries ion–lithium (4) de réserve comprise entre 30 kWh et 60 kWh. Hélas de petits calculs simples font douter qu’ils répondent aux souhaits du GIEC d’utiliser des moyens de transport à énergie renouvelable (5) pour nous sauver du réchauffement climatique. Prenons l’exemple d’une automobile moyenne à la limite du malus en France. Elle émet 120 g de CO2 par kilomètre. Imaginons qu’elle parcourt 15 000 km/an au cours de son utilisation durant 10 ans, l’émission sera de 0.12 x150 000 = 18 000 kg de CO2.

Prenons son équivalent électrique d’autonomie d’environ 300 km elle dépense 20 kWh/100 km. En la gardant 10 ans (en espérant garder la même batterie) et avec le même kilométrage de 150 000 km elle aura dépensé 30 000 kWh. Si ce parcours est fait en France, avec un mix électrique (6) qui donne 50 g CO2/kWh, l’émission équivalente sera de 0,05 x 30 000 = 1 500 kg de CO2, soit plus de 10 fois moins que le véhicule thermique. Vive l’électricité nucléaire ! Par contre si elle roule en Allemagne avec un mix électrique de 550 g CO2/kWh l’émission serait de 0,550 x 30 000 = 16 550 kg de CO2. À peine mieux  ! Et si c’est en Chine (770 g) cela monterait à 23 100 kg de CO2, bien plus que le thermique. Bravo le charbon !

Attention nous disent les spécialistes des cycles de vie, il faut aussi tenir compte de l’énergie nécessaire à la fabrication. On supposera que l’énergie nécessaire à l’élaboration carrosserie, moteurs, accessoires, est la même pour les deux véhicules. Par contre pour l’électrique s’ajoute celle nécessaire pour fabriquer le lourd pack de batteries : les spécialistes la montent à environ 15 000 kWh. Malheureusement pour nous, sur tous les véhicules électriques ces batteries viennent à 90 % d’Asie avec un mix électrique chinois qui donne l’équivalent de 11 500 kg de CO2 qu’il faut ajouter au bilan total. On voit alors qu’en Allemagne et en Chine la voiture électrique aura « émis » in fine respectivement 60 % et 100 % de CO2 de plus que la voiture thermique. On notera en passant l’avantage d’implanter une « gigafactory » en France parce qu’alors le supplément ne serait que de 750 kg de CO2.

Sont aussi exposés au Salon trois véhicules mus électriquement grâce à une pile à combustible utilisant l’hydrogène, disponibles en 2018, et figurent aussi de nombreux projets prévus au-delà de 2020 (7). Ce n’est pas la peine de rappeler aux chimistes qu’à 95 % l’hydrogène est obtenu par « steam cracking » du méthane ou hydrocarbures et que la production d’un kilogramme de H2 s’accompagne de la production de 10 à 20 kg de CO2. Pour ces magnifiques automobiles exposées il faut 1 kg d’hydrogène stocké à 700 bars pour parcourir 100 km ayant dégagé déjà 10 kg de CO2. Le même calcul sur le parcours durant 10 ans de 150 000 km conduit à une consommation de 1500 kg de H2 et une émission « décalée » de 15 000 kg de CO2. On pourrait y ajouter le supplément de fabrication de la pile (8) et de la batterie tampon, mais on peut se contenter de voir qu’il faut consacrer le tiers de l’énergie disponible de l’hydrogène pour le comprimer à 700 bars, soit 15 000 kWh. S’il est comprimé en France on ajoutera 750 kg de CO2, si c’est en Allemagne on ajoutera 8250 kg soit au total respectivement 15 750 kg et 23 250 kg de CO2 comparés au véhicule thermique (18 000 kg) et tant pis pour la Chine.

Vous voyez donc que constructeurs et élus dans un grand élan de « green washing » oublient de nous dire qu’il y a de forte variations de rejets de gaz de serre suivant les pays à mix électrique fortement décarboné comme la France ou la Norvège, moyennement comme l’Allemagne ou le Japon et peu ou pas comme la Chine ou l’Inde, avec des résultats qui montrent que dans les deux dernières situations les rejets sont pires pour les véhicules « propres » que pour le thermique. Les subventions à l’achat des hybrides et électriques ne seraient-ils pas mieux employés à investir en France pour une grande usine de fabrication de batteries, aujourd’hui importées à grand frais et à fortes émissions de CO2 depuis la Chine. Pour sauver la planète fabriquons et roulons en France, sinon marchons à pied ou faisons comme Gaston Lagaffe, installons sur notre voiturette électrique une éolienne sur le toit !

Jean-Claude Bernier
octobre 2018

Pour en savoir plus
(1) Le changement climatique : question encore ouverte ?
(2) Le moteur électrique comparé au moteur thermique, enjeux et contraintes
(3) Le gaz carbonique
(4) Applications présentes et futures de batteries
(5) Vers des transports décarbonés : carburants, combustion et post traitement pour les transports routiers
(6) Les enjeux de la chimie dans la production d’électricité
(7) L’hydrogène bientôt dans nos automobiles
(8) Fonctionnement de la pile à combustible
 

Vue d'artiste de la NASA représentant Parker Solar Probe approchant le Soleil. Credits: NASA/Johns Hopkins APL/Steve Gribben
- Éditorial
mediachimie

De la chimie pour tutoyer les étoiles ?

En octobre, la sonde PSP (Parker Solar Probe) va entamer sa première révolution autour de Vénus pour accélérer en profitant de l’assistance gravitationnelle et se lancer dans sa première ellipse autour du Soleil en
...

En octobre, la sonde PSP (Parker Solar Probe) va entamer sa première révolution autour de Vénus pour accélérer en profitant de l’assistance gravitationnelle et se lancer dans sa première ellipse autour du Soleil en novembre. Il convient alors de rappeler comment la chimie (1) est concernée par cette exploration historique.

« Toucher le soleil » (2) est un vieux rêve que l’humanité et les scientifiques caressent avec envie depuis Icare. Le Soleil est en effet un gigantesque laboratoire où la fusion nucléaire, la gravité géante, la physico-chimie des plasmas et les tempêtes magnétiques posent autant de problèmes physiques inexplorés qu'ils suscitent de soifs de savoirs.

La couronne solaire s’étend sur plusieurs millions de kilomètres et est composée d’hydrogène, d’hélium, de carbone et d’ions de métaux de transitions. C’est là que sont générés les vents solaires qui se déploient à travers tout notre système planétaire. La température y est d’un million de degrés Celsius, soit 300 fois la température de surface du Soleil (5500°C). C’est dans la perspective d’étudier cette couronne que la sonde PSP va s’en approcher progressivement, jusqu’à une distance de 6 millions de km en 2024 lors de sa dernière rotation. Même à cette distance qui équivaut à plusieurs fois le rayon du Soleil, la température peut avoisiner 1300°C et le rayonnement émis est 600 fois supérieur à celui que vous avez peut-être reçu sur la plage cet été (3).

La sonde PSP embarque de multiples instruments et capteurs auxquels des laboratoires et équipes de chercheurs français ont collaboré pour étudier la vitesse et la densité du vent solaire : la caméra pour visualiser des parties de la couronne, le détecteur magnétique pour étudier les champs électriques et magnétiques, le capteur pour mesurer l’énergie des particules, ions, électrons et protons issus des éruptions solaires... (4).

Par exemple, le laboratoire de physique et chimie de l’environnement et de l’espace (LCP2E) d’Orléans a réalisé et assemblé le magnétomètre à induction SCM (Search Coil Magnetometer) pour l’étude ses champs dans le plasma. Le Laboratoire de physique des plasmas (LPP) à l’École polytechnique a conçu un spectromètre assemblé aux États-Unis pour étudier les turbulences du vent solaire. L’Institut de recherche en astrophysique et planétologie de Toulouse (IRAP) est sollicité pour l’interprétation des images de la caméra.

Tous ces instruments, circuits et capteurs doivent pouvoir résister aux rayonnements et hautes températures. Les circuits électriques et une partie de l’électronique (5) sont réalisés à base de niobium et de tungstène, métaux réfractaires à hautes températures de fusion. Il faut même un bouclier protecteur de ces instruments, de 2,4 mètres de diamètre, épais de plus de 11 cm et composé de deux panneaux en fibres de carbone (6) séparés par un sandwich de mousse de carbone et, sur la face qui sera exposée au Soleil, une couche céramique blanche réfractaire et réfléchissante.

Ces équipements ont été testés au laboratoire du CNRS PROMES qui dispose à Odeillo d’enceintes sous vide pour tester des objets de grande dimension à plus de 2000°C grâce au four solaire.

Les résultats des mesures devraient pouvoir permettre de connaître les processus de la surchauffe fantastique de la couronne sous l’influence d’ondes électromagnétiques et comprendre l’origine des tempêtes de vents solaires dont les vitesses de 200 à 800 km/s ont érodés la Lune et la planète Mars (7), faisant disparaître toute trace de vie et provoquant sur notre terre des perturbations électriques et magnétiques qui peuvent avoir des répercussions dramatiques dans les télécommunications et le climat (8).

Jean-Claude Bernier
Septembre 2018

Pour en savoir plus :
(1) La chimie et l’espace
(2) Spectre et composition chimique du soleil (vidéo)
(3) De la terre au soleil (vidéo)
(4) Fusion au cœur des étoiles (vidéo)
(5) De la chimie au radar du Rafale
(6) Les nouveaux matériaux composites pour l’aéronautique
(7) De la chimie sur Mars
(8) Le changement climatique : question encore ouverte ?
 

- Éditorial
mediachimie

La chimie des feux de forêts

L’actualité de cet été 2018 a été marquée par les annonces et descriptions de feux de forêts. Le Portugal, la Grèce, la Suède, la Californie ont été les théâtres de gigantesques incendies très médiatisés où
...

L’actualité de cet été 2018 a été marquée par les annonces et descriptions de feux de forêts. Le Portugal, la Grèce, la Suède, la Californie ont été les théâtres de gigantesques incendies très médiatisés où l’élévation de température (1) ou des actes criminels (2) ont eu leurs rôles. Des centaines de milliers d’hectares et habitations ont été détruites malgré les grands moyens de lutte mis en action. Quelles sont les réactions chimiques présentes lors de ces embrasements et de leurs extinctions ?

Lors d’un feu de forêt, hors de la combustion du carbone des végétaux qui dégagent des oxydes de carbone CO2 et CO (3), de nombreux composés organiques volatils (4) sont présents dans les fumées issues de la pyrolyse de la cellulose. Ces composés ont été très étudiés par le CEREN en fonction du type de végétaux :

  • pour le chêne les fumées contiennent des composés benzéniques et phénoliques tels que C6H6, C7H8, du furfural C5H4O2, l’acide acétique, le p-crésol sont aussi présents, mais peu de terpènes ;
  • pour les ajoncs, buissons épineux et broussailles de sous-bois les fumées sont riches en benzène (5), toluène, xylène et acide acétique, mais pas de terpènes  ;
  • pour le pin au contraire on trouve dans les fumées beaucoup de terpènes et peu de composés phénoliques.

Tous ces composés volatils qui se dégagent lors de la pyrolyse sont très inflammables et dès qu’ils rencontrent les conditions favorables de température et de concentration en oxygène ils transforment les arbres en torches incandescentes quasi explosives telles que nous les décrivent les pompiers sur place.

Hors les principes de préventions mis en place notamment en France et en Europe du Sud, comment lutter contre les incendies lorsqu’ils se sont déclarés ? Les principes sont toujours les mêmes :

  • faire baisser la température de combustion (750 °C - 400 °C)
  • priver les composés carbonés d’accès à l’oxygène de l’air

C’est pourquoi depuis toujours on arrose les flammes avec de l’eau (6). Sa chaleur latente de vaporisation très élevée permet à l’eau de puiser des calories au brasier et de faire baisser la température. Sa vapeur remplace l’oxygène de l’air.

Depuis les années 1960, on y ajoute des retardateurs de combustion non toxiques pour l’environnement. Ce fut d’abord des ajouts d’argile (7) en suspension comme la bentonite qui recouvre d’une couche les végétaux et retarde la pyrolyse. Puis des hydroxydes d’aluminium, [Al(OH)3], ou de magnésium, Mg(OH)2, qui à température élevée délivrent de l’eau et donnent les oxydes Al2O3 ou MgO réfractaires.

Actuellement les moyens aériens et additifs largués se sont perfectionnés. On distingue trois types d’ajouts :

  • les retardateurs tels que les polyphosphates d’ammonium avec des argiles comme l’attapulgite dilués dans l’eau à 20 % ;
  • les agents mouillants de types tensioactifs ;
  • des agents moussants (8) comme l’hexylène glycol (ou 2-Methyl-2,4-pentanediol) et le n-octanol qui isolent de l’air le végétal par une couche de mousse adhérente.

Les techniques d’attaque du front de flamme se sont perfectionnées avec les célèbres canadairs qui en quelques secondes larguent 1/3 de leur charge de 7 m3 sur les flammes et 2/3 sur la végétation avant qu’elle soit atteinte par les flammes. On y ajoute un colorant qui est souvent l’oxyde de fer Fe2O3 de couleur rouge pour que les avions suivants voient bien la trace du largage précédent. Et que dire du supertanker de Boeing le 747–400 qui peut larguer en 10 secondes 72 m3 de mélanges que l’on a vu en action en Californie ? Mais finalement ne vaut-il pas mieux suivre en forêt les recommandations de prudence de la protection civile et des pompiers pour éviter la première flamme ?

Jean-Claude Bernier
Août 2018

Pour en savoir plus :
(1) Chimie atmosphérique et climat
(2) La chimie mène l’enquête
(3) Nom de code : CO2
(4) Pollution et feux de cheminées
(5) Sur la structure du benzène
(6) L’eau : ses propriétés, ses ressources, sa purification
(7) Biogéochimie et écologie des sols
(8) Les secrets des mousses, une interview de Claude Treiner
 

- Éditorial
mediachimie

Chimie et canicule

La fin du mois de juillet et le début d’août 2018 sont marqués par des températures notablement supérieures à la moyenne et plusieurs départements français ont été mis en vigilance canicule. Ces problèmes de chaleur
...

La fin du mois de juillet et le début d’août 2018 sont marqués par des températures notablement supérieures à la moyenne et plusieurs départements français ont été mis en vigilance canicule. Ces problèmes de chaleur touchent une partie de la population, surtout en milieu urbain. Comme il n’est pas facile de « mettre les villes à la campagne » comme le souhaitait Alphonse Allais, il s’agit de mettre en œuvre les moyens de lutter contre ces températures extrêmes dans les habitations, dispositifs où la chimie est largement sollicitée.

Essayons de se rappeler quelques éléments simples de thermodynamique. Dans un fluide gazeux les zones chaudes migrent inévitablement vers les zones froides. Pour un solide, sa conduction thermique facilite plus ou moins le transfert des calories du chaud vers le froid. Pour un liquide, en fonction de la température et de la pression, la vapeur est en équilibre avec le liquide. Pour passer de l’état liquide à l’état vapeur, il faut fournir une certaine quantité d’énergie qui est l’enthalpie de vaporisation qu’on appelle parfois chaleur latente et qui diffère suivant les formules chimiques des liquides (pour l’eau : 2260 kJ/kg, pour l’alcool 855 kJ/kg).

Premier moyen donc : améliorer l’isolation thermique des bâtiments (1), ce qui est valable en hiver l’est aussi en été. Isolation des combles par la laine de verre, de roche ou de cellulose, doublage des cloisons externes par le polystyrène expansé, double vitrage à lame d’argon, permettent de placer des barrières à très bonne isolation entre l’extérieur et l’intérieur (2).

Deuxième moyen : utiliser un liquide à bonne chaleur latente et l’évaporer à l’intérieur car il va pomper les calories et évacuer les vapeurs à l’extérieur pour les recondenser en évacuant les calories grâce à un échangeur. C’est le principe du climatiseur en utilisant un fluide frigorigène comme des chlorofluoroéthanes (maintenant interdits) ou l’ammoniac qui ont des températures d’ébullition assez basses sous des pressions compatibles avec des installations domestiques.

On peut aussi utiliser de petits ventilateurs refroidisseurs qui utilisent l’évaporation d’un film d’eau, car l’eau a une forte chaleur latente, capables de refroidir de quelques degrés une pièce de la maison.

Le problème des grandes villes est plus large (3), car elles possèdent des « îlots de chaleur », en centre-ville le béton, le goudron, absorbent la chaleur le jour et la restituent la nuit et la température nocturne reste élevée. La forme et l’implantation des bâtiments et surtout la végétalisation sont de nature à refroidir l’atmosphère (4). En effet, les arbres font de l’ombre et leurs feuilles rejettent la vapeur d’eau. Lors des fortes chaleurs, il peut y avoir 3°C de différence entre le Bois de Boulogne et le centre de Paris. En ville, moins utiliser la climatisation mais avoir plutôt recours au réseau de froid urbain (5) qui utilise de l’eau naturelle glacée et qui permet d’économiser plus de 90 % de gaz à effet de serre. Avoir des revêtements clairs réfléchissant les rayonnements, remplacer le goudron par des pavés granit plus poreux et moins absorbants sont les éléments d’une nouvelle politique de la ville. Enfin la circulation automobile (6), n’oublions pas que le moteur thermique même s’il émet du CO2 émet aussi des calories car le rendement d’un moteur thermique (7) est de l’ordre de 40% ceci veut dire que 60 % des 44000 Kj/kg d’essence servent à chauffer l’atmosphère des villes. Demandez donc de nouvelles pistes cyclables et roulez en vélo mais avec un bidon d’eau fraiche.

Jean-Claude Bernier
Août 2018

Pour en savoir plus
(1) La discrète révolution de la performance énergétique des bâtiments
(2) Vivre en économisant cette « chère » énergie
(3) Les défis des grandes villes : apports possibles des chimistes
(4) Impact de la végétation sur le microclimat urbain et la qualité de l’air
(5) Le réseau de froid urbain
(6) La mobilité urbaine
(7) Le moteur électrique comparé au moteur thermique : enjeux et contraintes

- Éditorial
mediachimie

La chimie en Bleu Blanc Rouge

En cette fin de coupe du monde et le magnifique comportement des « bleus » on voit fleurir un peu partout, dans les magasins, sur les automobiles, sur les façades des maisons, et au-dessus des rassemblements innombrables,
...

En cette fin de coupe du monde et le magnifique comportement des « bleus » on voit fleurir un peu partout, dans les magasins, sur les automobiles, sur les façades des maisons, et au-dessus des rassemblements innombrables, les drapeaux bleu blanc rouge. Pour la plupart ces drapeaux sont issus d’une PME française qui les fabrique à partir de coupons de tissus teints dans les trois couleurs nationales et ensuite assemblés.

Les couleurs de ces teintures sont maintenant synthétisées par la chimie organique mais il existe encore de nombreux pigments minéraux organiques ou végétaux qui sont utilisés pour les vernis, les peintures et les teintures (1).

Bleu – De nombreuses nuances ont été trouvées par les chimistes : le bleu outremer dont le constituant essentiel vient d’une pierre naturelle le lapis-lazuli, le bleu de Prusse qui est un ferrocyanure Fe4[Fe2(CN)6]3 découvert un peu par hasard à Berlin par Dippel, le bleu de cobalt qui est un aluminate CoAl2O4 de structure spinelle dont le procédé de synthèse a été découvert par le français Thénard en 1802, et enfin le bleu indigo (2) qui est un nitrobenzoate de sodium très célèbre car c’est lui qui colore les tissus de jeans (3).

Blanc – Il faut remonter à la civilisation égyptienne pour voir les premiers fards à base de sels de plomb (4), la cérusite PbCO3 de phosphogénite Pb2Cl2CO3 de laurionite Pb(OH)Cl mélangés à de la graisse (5). Le blanc de zinc ZnO est obtenu par oxydation d’un minerai, la blende. L’oxyde de titane TiO2 (6) est très lumineux avec lequel on fabrique des centaines de milliers de tonnes pour les peintures, les papiers et les revêtements d’immeubles.

Rouge – Sans compter l’hémoglobine du sang (7) qui est un composé organique du fer et qui sert à l’échange d’oxygène, on connait l’alizarine extraite de la racine d’une plante, la garance, qui colorait les pantalons des uniformes de l’armée avant 1914 et qui fut abandonnée car trop voyant, le minium Pb3O4 utilisé sur les aciers et sur le fer comme protection anticorrosion et la cochenille qui est un pigment à base d’acide carminique extrait d’un insecte.

Jean-Claude Bernier
Juillet 2018

Pour en savoir plus
(1) La chimie crée sa couleur… sur la palette du peintre
(2) La synthèse de l’indigo (vidéo 4:30)
(3) La teinture d’un jeans (vidéo 5:03)
(4) Même les pharaons se maquillaient
(5) Dermo-cosmétique et beauté à travers les âges
(6) Les textiles photocatalytiques
(7) Le sang des animaux est-il toujours rouge ?


 

- Éditorial
mediachimie

Polémiques dans le monde des biocarburants

L’autorisation donnée à Total de pouvoir importer de l’huile de palme pour sa bioraffinerie de la Mède (Bouches du Rhône) a enflammé (si j’ose dire) le monde agricole, entraînant durant une petite semaine le blocage de
...

L’autorisation donnée à Total de pouvoir importer de l’huile de palme pour sa bioraffinerie de la Mède (Bouches du Rhône) a enflammé (si j’ose dire) le monde agricole, entraînant durant une petite semaine le blocage de sites pétroliers. Aussitôt les divers lobbies agriculteurs, pétroliers, écologistes, se sont affrontés sans vraiment apporter des arguments scientifiques.

Que sont les biocarburants et plutôt les agrocarburants (1) en France ? Ce sont des substituts du pétrole biosourcés, incorporés à l’essence sous forme d’éthanol (2) ou au diesel sous forme d’esters d’huiles végétales (3) (4). Ces agrocarburants sont plus chers à produire que le pétrole à extraire et à raffiner et leurs cours assez volatils sont liés au marché pétrolier et au coût des produits agricoles. L’éthanol américain est 10% moins cher que celui produit en Europe et le biodiesel à base de colza est 30% plus coûteux que celui provenant de l’huile de palme.

Quand Total a décidé de reconvertir la raffinerie de la Mède, condamnée à la fermeture, dans une stratégie plus globale de diversification en énergies décarbonées, les agrocarburants étaient incontournables. Les 275 millions d’euros investis permettaient de plus de sauvegarder quelques centaines d’emplois et de garder une activité portuaire en PACA avec le transit de 450 000 T d’huile. De plus le procédé retenu le HVO (Hydrotreated Vegetable Oil) est l’aboutissement industriel d’un procédé français Vegan® mis au point par l’IFPEN et la société Axens (5). Il s’agit d’un traitement à l’hydrogène sous pression des huiles végétales sur catalyseur qui aboutit à l’hydrodesoxydation des acides gras pour former des paraffines linéaires. Deux voies coexistent :

  • l’hydrogénation/hydrogénolyse notée HDO qui élimine l’oxygène sous forme de H2O
  • la décarboxylation notée DCO l’oxygène étant éliminée sous forme de CO2

Une réaction d’hydroisomérisation améliore les chaînes paraffiniques pour donner un gazole remarquablement stable parfaitement compatible avec les produits pétroliers et utilisable pour le transport aérien (6).

On comprend la colère des agriculteurs et agro-transformateurs existants s’étant investis dans la culture du colza, blé, betterave… pour produire le bioéthanol et le biodiesel et celui du ministère du développement durable peu enclin à se lancer dans une guerre géopolitique avec l’Indonésie ! D’autant que des nuages sombres s’amoncellent sur l’avenir de la filière. En effet si en France les ajouts d’éthanol dans les essences de 10% dans le super 95 E10 progressent (ce dernier atteint 35% des ventes) et que les esters d’huile végétale atteignent 8% dans le gasoil, la Cour des comptes pointe les détaxations et subventions de l’État français chiffrées à plus de 1,3 milliards d’euros en 2012. À Bruxelles c’est pire, un rapport paru en avril 2016 repris par l’ONG Transport & Environnement conclut que les agrocarburants, loin d’être vertueux pour l’environnement, émettent en fait plus de gaz à effet de serre que les combustibles fossiles. Cette enquête commandée par la commission est corroborée à un degré moindre par une remarquable étude de l’ADEME et de l’INRA sur le facteur CAS (Changement d’Affectation des Sols) qui prend en compte la perte de « puits de carbone » engendrées par ces cultures industrielles. S’appuyant sur 800 publications et rapports internationaux ils chiffrent des fourchettes de 35 à 84 g. eq CO2 / MJ pour le biodiesel et de 25 à 80 g. eq CO2 /MJ pour le bioéthanol, qui doivent s’ajouter au bilan d’émission (culture, transport de la biomasse, transformation chimique, distribution) et complexifient encore l’évaluation (7).

On est alors loin de pouvoir satisfaire les normes de la directive européenne RED (Renewable Energy Directive) qui fixait des objectifs de réduction de GES (gaz à effet de serre) de 35% en 2017 et 50% en 2018 des biocarburants par rapport aux carburants fossiles. Alors quelles solutions ? Accélérer la voie industrielle du traitement par biochimie des lignocellulosiques pour les carburants 2G (8) ou diversifier la chimie végétale en produisant des molécules à haute valeur ajoutée (9) plutôt que des carburants, ce sont deux voies d’avenir et de sauvetage.

Jean-Claude Bernier
Juin 2018

Pour en savoir plus :
(1) Les enjeux de la R&D en chimie pour le domaine des carburants et des biocarburants
(2) L’éthanol (produit du jour de la SCF)
(3) Un exemple d’énergie renouvelable : l’essence verte
(4) Le colza à la pompe (vidéo)
(5) Voir le remarquable article de Thierry Chapus : L’Actualité chimique (mars 2017) n° 416 p. 32
(6) Chimie du végétal, fer de lance de la chimie durable
(7) Des biocarburants pas si verts que ça
(8) Le biocarburant 2G bientôt à la pompe
(9) Biomasse : la matière première renouvelable de l’avenir

- Éditorial
mediachimie

Shootez, vous êtes connectés

La Coupe du monde de football en Russie va disposer d’un nouveau ballon le « Telstar 18 ». S’il est composé de panneaux en polyuréthane comme le « Brazuca » au Brésil en 2014 (1), plusieurs innovations y sont présentes.
...

La Coupe du monde de football en Russie va disposer d’un nouveau ballon le « Telstar 18 ». S’il est composé de panneaux en polyuréthane comme le « Brazuca » au Brésil en 2014 (1), plusieurs innovations y sont présentes. D’abord la majorité des composants vient de matières recyclées (2). Ses couleurs métalliques forment un damier noir et blanc pour rappeler celui de la coupe de 1970 qui avait été pensé pour donner une meilleure visibilité sur les téléviseurs noir et blanc de l’époque (3). Enfin, innovation, il est muni d’une puce NFC (Near Field Communication) (4) qui permet aux utilisateurs disposant de smartphone ayant chargé l’application de connaître des informations exclusives sur la fabrication, le lieu où il se trouve et son histoire récente. Les malheureux gardiens de but qui ne peuvent encore être connectés lors d’un match officiel dénoncent déjà ses trajectoires improbables. Il est vrai que la texture externe du ballon est faite de minuscule croisillons et que les chaussures des attaquants en polyisocyanate avec une surface rugueuse (5) permettent de placer le ballon dans des zones hors de portée du dernier défenseur !

Mais les plus grandes innovations de cette Coupe du monde sont toutes les applications électroniques rendues possibles par la miniaturisation des semi-conducteurs, mémoires, puces… grâce à la chimie du silicium (6) et les progrès en opto-électronique. Les retransmissions à 360° des matches vont permettre sur smartphone de faire tourner l’image, passer des tribunes au terrain, faire un replay ou un arrêt sur image. Presque comme l’arbitre qui pourra faire appel à un panel d’arbitres à Moscou qui disposent en ligne des images de tous les stades et qui pourront l’aider sur un but ou carton rouge litigieux.

Contrairement aux joueurs de rugby qui disposent de capteurs (7) enregistrant les chocs et impacts subis au cours d’un match, les footballeurs ne peuvent être équipés de capteurs qu’à l’entraînement ou lors de matches non officiels. C’est dire que maintenant les équipes se présentent avec un staff fourni « d’analystes scientifiques »qui disposent de centaines de millions de données qui peuvent être exploitées comme pour l’équipe d’Allemagne grâce à l’application « Sport One » fourni par SAP bien connu dans l’industrie. Toutes ces données statistiques sont obtenues par des capteurs dédiés sur les joueurs : GPS qui mesure les déplacements, accéléromètre pour les sprints et démarrages, température, dépense calorique, déshydratation, etc. (8) Un seul match peut donner plus de 4 millions de données, il est donc nécessaire d’avoir une armée d’analystes qui jouent les nouveaux coaches pour optimiser l’entraînement, les performances (9) individuelles et la stratégie. Parmi toutes les données, pour consoler et aider le gardien avant chaque match, les statisticiens extraient les habitudes des principaux adversaires capables de tirer les pénalties, à droite, à gauche, en hauteur, le nombre de pas avant le tir…
Décidément le Mondial 2018 sera l’An 1 du football connecté… Grâce à la chimie ?

Jean-Claude Bernier
Juin 2018

Pour en savoir plus :
(1) Beau Jeu, un ballon chimique ?
(2) Recyclage et valorisation des déchets
(3) La chimie s’invite dans la guerre des télés
(4) Toujours plus petit ! (Chimie et... junior)
(5) Les matériaux composites dans le sport
(6) Les nouveaux matériaux, moteurs de l’amélioration des performances en microélectronique silicium
(7) L’électronique organique imprimée, vers une électronique flexible et de grande surface (vidéo)
(8) Vers de textiles intelligents pour des vêtements performants et innovants
(9) Technologie et performance sportive
 

- Éditorial
mediachimie

Des experts de la chimie analytique pour trancher des énigmes politico-scientifiques

La chimie bien involontairement est venue récemment sur le devant de la scène médiatique lors de deux événements. Le premier, le 4 mars lors de l’empoisonnement de l’ex espion russe Sergueï Skripal et de sa fille Julia
...

La chimie bien involontairement est venue récemment sur le devant de la scène médiatique lors de deux événements. Le premier, le 4 mars lors de l’empoisonnement de l’ex espion russe Sergueï Skripal et de sa fille Julia sauvés in extremis à l’hôpital de Salisbury mais qui a ravivé les tensions entre Londres et Moscou. Le second, une attaque chimique qui se serait déroulée le 7 avril en Syrie dans la ville de Douma et qui a provoqué une riposte ciblée de la part des États-Unis, de la France et du Royaume-Uni. Dans les deux cas étaient soupçonnées des armes chimiques (1), peut-être un innervant, le Novitchok, en Angleterre et le chlore gazeux en Syrie. La chimie comme le nucléaire a souvent été détournée à des fins peu avouables pour en faire des armes, c’est son aspect le plus critiquable. La poudre noire, les explosifs, les bombes incendiaires existent depuis plus de 1500 ans, l’arme nucléaire et l’arme chimique sont plus récentes.

Il faut rappeler que les débuts de la guerre chimique remontent à la Grande Guerre de 1914-1918 (2). C’est en avril 1915 que les armées allemandes déploient 168 tonnes de chlore (Cl2 gazeux) au nord d’Ypres en Belgique. Le nuage vert dérive vers les tranchées occupées par les armées alliées sur sept kilomètres provoquant la panique mais, le nuage stagnant, la percée ne sera pas exploitée. C’est cet agent Cl2 qui semble être mis en cause lors de l’attaque de Douma par les armées syriennes. Il faut dire qu’après le chlore d’autres gaz ont été trouvés par les belligérants. Ce fut d’abord un autre suffocant le phosgène CCl2O, puis le gaz moutarde ou ypérite C4H8Cl2S (sulfure de 2,2'‑dichlorodiéthyle), non seulement suffocant mais aussi vésicant (3). L’imagination des militaires pour tuer leurs semblables est sans limite. Au cours du XXe siècle furent inventés les innervants neurotoxiques comme le tabun, le sarin et le VX de la famille des organophosphorés qui sont, à des degrés divers, inhibiteurs de la cholinestérase, un relaxant musculaire, et qui provoquent en quelques minutes après l’inhalation le blocage des muscles respiratoires (4).

Les spécialistes de la chimie analytique ont montré que c’est un poison de ce type qui a frappé S. Skrispal et sa fille. Il semble bien après analyses qu’il s’agisse du Novitchok, issu d’un programme de développement soviétique appelé Foliant qui travestissait ces types de molécules en insecticides ! C’est encore un organophosphoré mais fluoré qui peut être fabriqué à partir d’acétonitrile et de phosphate organique. C’est un agent binaire qui se présente sous forme de poudre ultrafine pouvant être administré au moyen d’aérosol dispersif ou à l’état gazeux. Huit à dix fois plus toxique que le VX, une concentration de 0,01mg/kg dans le sang conduit à la mort (5). Ses antidotes sont de type anticholinergique, comme l’atropine qui peut être administrée avec des oximes telles que la galantamine qui renforce son action. Mais d’après les experts les séquelles, même si on en réchappe, peuvent conduire à des handicaps sévères et permanents.

En 1993, 192 États ont signé une convention sur l’interdiction de la mise au point, du stockage et de l’utilisation d’armes chimiques (la Syrie ne les a rejoints qu’en 2013 sous la pression). A été créé dans la foulée l’OIAC (Organisation pour l’interdiction des armes chimiques) qui a déjà supervisé en 2014 avec l’ONU la destruction des stocks de ces armes en Syrie (6). Ce sont à nouveau les chimistes de cette organisation qui sont sollicités pour résoudre ces énigmes et qui développent les moyens analytiques pour identifier les traces de ces composés à chaque demande d’expertise. Ces experts de l’identification des molécules sont sur place en Syrie pour vérifier que l’attaque sur Douma a fait l’objet d’utilisation d’armes chimiques. Hélas même s’ils identifient le chlore, sa fabrication et son stockage sont exempts de déclaration car cette molécule est utilisée dans l’industrie et l’agriculture (7).

Jean-Claude Bernier
Mai 2018

Pour en savoir plus
(1) Les gaz de combat
(2) 1914-1918 : la guerre chimique
(3) Il y a cent ans : la guerre chimique
(4) Qu’est-ce qu’une attaque chimique ?
(5) Chimie et poisons
(6) De la difficulté d’éliminer les « armes chimiques » de Syrie
(7) La chimie en agriculture : les tensions et les défis pour l’agronomie