Overblog Suivre ce blog
Administration Créer mon blog
22 décembre 2016 4 22 /12 /décembre /2016 15:33

Quels sont les mensonges auxquels les populations ont été exposés après ce cataclysme..?

 

https://youtu.be/55yni1uk47I

 

 

Repost 0
Published by kirtap
commenter cet article
10 décembre 2016 6 10 /12 /décembre /2016 19:55

Qu'est-ce que la bio ?

Les aliments bio sont produits à partir d’ingrédients cultivés sans produits chimiques de synthèse et sans OGM (organismes génétiquement modifiés). Ils ne contiennent ni exhausteurs de goût, ni colorants, ni arômes chimiques de synthèse. L’utilisation d’additifs est très fortement limitée.

Le mode d’élevage biologique est fondé sur le respect du bien-être animal. Les animaux disposent obligatoirement d’un accès au plein air et d’espace. Ils sont nourris avec des aliments bio principalement issus de la ferme et sont soignés en priorité avec des médecines douces.

Les produits bio sont contrôlés à tous les stades. Aux contrôles effectués sur l’ensemble des produits agroalimentaires s’ajoutent des contrôles spécifiques à la Bio, réalisés par un organisme indépendant agréé par les pouvoirs publics. Le logo bio européen et le logo AB garantissent que le produit respecte les règles de l'agriculture biologique.

L’agriculture biologique s’inscrit au cœur du développement durable. C’est un engagement pour le bien-être des générations futures.

Salon technique Terr’Eau Bio 2017

 
Du 07/06/2017 au 08/06/2017
Professionnel

Ce 1er salon des techniques bio Terr’Eau Bio 2017 est dimensionné pour accueillir les acteurs de l’agriculture des Hauts-de-France qui s’intéressent aux techniques agro-écologiques tant agriculteurs, qu'opérateurs économiques, machinistes, semenciers, association de développement, centres techniques, instituts de recherche, etc.

Les professionnels agricoles intéressés par les techniques de productions alternatives, soucieux de leurs pratiques, en quête de solutions techniques et innovantes sont invités à venir parcourir les allées du salon à la rencontre des professionnels techniques et des opérateurs des filières biologiques et à découvrir les 5000 m² de vitrines, les 3 ha de démonstrations et des conférences thématiques au cours des 2 jours du salon.

L’entrée au salon est gratuite.

Cet événement est organisé par l'Association Biologique en Picardie, en partenariat avec la Chambre d'Agriculture des Hauts-de-France.

Plus d'informations sur le salon

Repost 0
Published by kirtap
commenter cet article
10 décembre 2016 6 10 /12 /décembre /2016 19:42

Un pic de pollution fait encore rage en France depuis plusieurs jours. Quel impact cela peut-il avoir sur la santé? Le LOAC (Light Optical Aerosol Counter), un appareil de recherche installé sur le Ballon de Paris au cœur du Parc André Citröen, mesure en temps réel le nombre de particules ultrafines contenues dans l’air. Les résultats sont riches d’enseignements sur la pollution de la capitale.

particules fines santé

Lors du pic de Mars 2014, Paris était à peine visible. Cette photo de la Tour Eiffel avant/après le smog a été largement diffusée

Le LOAC mesure le nombre de particules fines de 0,2 à 100 micromètres (1 µm = 0,001 mm)) situées entre 0 et 300 mètres d’altitude. « Ce n’est que la partie immergée de l’iceberg, car le maximum de concentration se situe entre 50 et 100 nm [0,05 à 0,1 µm] », nous avertit d’entrée de jeu Jean-Baptiste Renard, Directeur de recherche du CNRS au laboratoire de Physique Chimie de l’environnement et de l’espace (LPC2E) à Orléans.

Au cours d’une journée standard de faible pollution à Paris, chaque litre d’air inspiré comprend environ 100 000 particules comprises entre 0,2 et 1 µm, 1000 entre 1 et 3 µm et une centaine entre 3 et 10 µm. Une respiration correspondant à environ 1⁄2 litre d’air, vous respirez alors environ 50 000 particules par respiration. Plus les particules sont petites, plus elles sont nombreuses, mais moins elles sont lourdes. « Si l’on cumulait la quantité entre 10 nm et 1 µm, il y aurait entre 10 et 100 fois plus de particules, mais la masse reste très faible », précise Jean-Baptiste Renard.

Quelles particules contribuent aux pics de pollution?

Chaque pic de pollution est différent et la taille des particules dépend de l’origine de la pollution et des conditions météorologiques. Ainsi, sur l’épisode de décembre 2013, quasiment la totalité de la masse provenait des particules de moins de 1 µm, alors qu’en mars 2014, le pic de concentration se situait vers 2 µm. Lors du pic de décembre 2013, la moyenne journalière était de 3 millions de particules de moins de 1 µm par litre d’air, soit 30 fois plus qu’au cours d’une journée de faible pollution, les quantités de particules comprises entre 3 et 20 µm étant identiques à celles d’une journée standard. Ainsi, en une seule journée, vous respiriez l’équivalent d’un mois de particules. Pour cela, les autorités recommandent d’éviter les activités sportives intenses lors des pics de pollution, car la quantité de particules respirées est alors multipliée.

Le record a été atteint le 13 décembre 2013, avec un pic à 6 millions de particules fines inférieures à 1 µm par litre d’air, mesuré à 18 heures. C’était 60 fois plus que lors d’une journée standard, soit l’équivalent de 2 mois de pollution en une journée. Cette pollution était même comparable à la situation du tabagisme passif (en nombre de particules, sachant que la composition des particules du tabagisme diffère de celles de l’air ambiant). C’est ce qu’a montré un test en laboratoire : la fumée de 8 cigarettes dans une pièce d’environ 20 mproduit autant de particules comprises entre 0,2 et 1 µm.

Pic de pollution vs. Tabagisme passif

« Lorsque vous avalez la fumée d’une cigarette et que vous la recrachez, il y a eu des processus d’agglomération et les particules expirées ont un maximum de concentration entre 100 et 200 nm », explique Jean-Baptiste Renard. Ce sont ces particules que respireront les fumeurs passifs. «Ce n’est donc pas la même chose d’être fumeur actif ou passif en termes de concentrations et de tailles de particules », assure le chercheur. Pour savoir ce qui est pire, « il faudrait savoir si les particules de 50 nm passent dans l’organisme et comment elles passent, comparées à des particules de 200 nm », observe-t-il.

Globalement, les études scientifiques s’entendent pour dire que les particules supérieures à 10 µm sont arrêtées par le nez. Pour les autres particules, il est difficile de savoir à quel point elles s’aventurent dans les poumons ou le corps. « Il semblerait que les très petites particules ne passent pas les barrières biologiques, mais qu’il y aurait une perméabilité pour les particules d’une centaine de nanomètres, soit les plus nombreuses lors du pic de pollution de Décembre 2013 ou dans le tabagisme passif. Celles-là passeraient directement dans le sang via les alvéoles pulmonaires. Certaines resteraient dans les poumons, d’autres pourraient passer dans le sang », prévient Jean-Baptiste Renard. Cela est à prendre au conditionnel : on connait encore mal tous ces mécanismes et comment l’organisme humain gère ces apports de particules.« On est complètement dans le flou, il y a encore beaucoup de choses que l’on ne connait pas », reconnaît le chercheur.

Des particules fines cancérogènes

Il y a deux ans, l’Organisation Mondiale de la Santé classait les particules fines ou ultra-fines comme cancérogènes, pouvant favoriser l’apparition de cancers ou de maladies cardiovasculaires et de l’asthme. D’après l’organisation mondiale, plus de deux millions de personnes dans le monde décèdent chaque année à cause de l’inhalation de ces particules fines. L’Institut de veille sanitaire évalue même les conséquences à 6 mois d’espérance de vie en moins pour les parisiens. L’usage du diesel est particulièrement responsable de ces émissions de particules carbonées, mais aussi les fumées industrielles, le chauffage ou, à moindre contribution, la fumée de cigarettes ! Ces émissions de particules dues aux différentes combustions ont particulièrement augmenté depuis l’ère industrielle et notamment au 20e siècle. La bonne nouvelle est que la tendance est plutôt à la diminution ces derniers temps, comparé à la première moitié du XXe siècle.

Pour avoir une idée des quantités de particules mesurées dans l’environnement, il faut savoir que sur une journée standard, on mesure entre 20 et 30 µg/m³ de PM10 (particules inférieures à 10 µm) dans les zones les moins polluées de Paris. Il existe des normes : la moyenne annuelle ne doit pas dépasser 40 µg/m³ d’air de PM10 en moyenne annuelle. La limite de 50 µg/m³ en PM10 ne doit pas être dépassée plus de 35 fois par an et le seuil d’alerte est lancé dès lors que le taux dépasse 80 µg/m³ . Pour les PM2,5, la moyenne annuelle ne doit pas dépasser 25 µg/m³.

Auteur : Matthieu Combe, fondateur du webzine Natura-sciences.com

 
Repost 0
Published by kirtap
commenter cet article
10 décembre 2016 6 10 /12 /décembre /2016 19:37

Dans un avis récent, l’Anses dénonce un manque inquiétant de données et de suivi des expositions professionnelles aux pesticides. L’agence sanitaire dresse un bilan sévère des politiques de prévention et propose de définir des objectif explicites de réduction concernant les expositions des travailleurs agricoles.

L’Anses relève que les politiques de prévention et les formations se limitent souvent au seul port des EPI pour se protéger de l’exposition. © PNASH

En agriculture, des produits chimiques sont utilisés quotidiennement. Le personnel utilise des phytosanitaires (insecticides, fongicides, herbicides…) pour faire pousser les cultures, des biocides pour désinfecter les équipements et bâtiments, et des médicaments vétérinaires pour lutter contre les parasites externes des animaux d’élevage. Dans un nouvel avis, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) estime que le suivi de l’exposition à l’ensemble de ces produits, regroupés sous le terme générique de « pesticides », est insuffisant.

L’agence relève des données « lacunaires », des formations inadéquates, une place trop importante accordée à la prévention par le port d’équipements de protection individuelle (EPI) et un suivi insuffisant de l’ensemble du personnel. Selon l’Anses, plus d’un million de personnes travaillent régulièrement en agriculture. Si l’agence note déjà une formation insuffisante concernant l’exposition aux pesticides des salariés, celle-ci est quasi-inexistante pour les « plusieurs centaines de milliers de travailleurs non permanents ainsi que plusieurs dizaines de milliers de stagiaires ». L’agence exhorte les pouvoirs publics à agir pour que l’ensemble des travailleurs potentiellement exposés soient effectivement formés, quel que soit leur statut sur une exploitation.

Lire aussi : Ecophyto: toujours plus de pesticides !

Pesticides : des expositions insuffisamment documentées

Une large gamme de produits phytosanitaires, biocides et médicaments vétérinaires peut être utilisée sur une même exploitation. Mais « peu de connaissances existent sur les caractéristiques et les effets potentiels de ces combinaisons », s’alarme l’Anses. Par ailleurs, les données concernant les expositions sont « dispersées, sans aucune centralisation de l’ensemble, aussi bien pour les données de pré-homologation que de post-homologation ». Seuls les produits phytosanitaires sont concernés par des projets de suivi réglementaire « post-homologation », et l’Anses juge le suivi actuel « très insuffisant ».

L’agence recommande donc de soutenir des études indépendantes sur le terrain pour explorer les effets potentiels d’expositions à une combinaison de pesticides « à l’échelle de l’individu, au cours d’une saison, et au cours d’une carrière professionnelle ». Elle souhaite aussi caractériser les expositions possibles aux différents postes en fonction des filières, des tâches et du profil du travailleur, avec un effort particulier sur les populations sensibles ou vulnérables, telles que les femmes enceintes. L’Anses préconise aussi de créer un dispositif de veille public « centralisant et capitalisant les informations scientifiques, techniques et réglementaires sur les expositions pour tous les pesticides » et de développer une veille collaborative internationale pour mieux documenter les différentes expositions, suivant les pratiques agricoles.

Enfin, l’Anses souhaite harmoniser les méthodes d’évaluation des expositions dans la procédure d’autorisation de mise sur le marché des trois types de pesticides. L’agence estime que les données d’exposition utilisées dans les modèles d’exposition sont pour la plupart fournies par les industriels. Elle invite à modifier les procédures pour s’assurer que ces modèles incorporent des données produites par la recherche académique, les données de la statistique publique agricole et les données d’études de terrain.

Lire aussi : L’AMM des pesticides désormais aux mains de l’Anses

Ecophyto, une stratégie mise à mal

Le plan Ecophyto 2 a introduit un système de certificats d’économie de produits phytosanitaires (CEPP). Les distributeurs de pesticides et les grandes coopératives devront engager des services et conseils pour réduire les produits phytosanitaires chez leurs clients de 20 % d’ici 2020. Le conseil est donc directement dans les mains des producteurs de pesticides ou des entreprises dont les bénéfices commerciaux sont directement dépendants de l’usage de pesticides, ce qui « soulève la question des conflits d’intérêt dans lesquels s’inscrivent ces prestations », relève l’Anses. Elle recommande d’évaluer les conséquences de ces situations sur la qualité du conseil délivré et de développer des actions de prévention par des organismes indépendants.

Certaines stratégies visant à réduire l’usage des pesticides peuvent s’avérer contre-productives. C’est notamment le cas de quelques pratiques présentées comme agro-écologiques, qui peuvent entraîner en réalité une augmentation des expositions professionnelles : techniques sans labour, élevage de grande dimension, fractionnement des doses, substitution des produits…. L’Anses demande de « revoir la stratégie du plan Ecophyto en mettant en oeuvre dès maintenant sans attendre 2020 une réelle politique d’accompagnement des acteurs à la réduction d’utilisation des pesticides : fondée sur la recherche d’une moindre dépendance des systèmes de culture et de production aux pesticides permise par des stratégies de reconception de ces systèmes ».

La prévention des risques et la formation nettement insuffisantes

Sur le terrain, la prévention des risques se limite principalement aux comportements individuels : mesures d’hygiène, port des EPI (combinaison, masque et gants) et type de matériel utilisé. Une ineptie, selon l’Anses, pour qui les EPI devraient être le dernier rempart à favoriser, et non le pilier de la formation et du conseil. Si « des évolutions technologiques du matériel, des équipements de protection, des conditionnements, des formulations sont régulièrement proposées par les fabricants comme des solutions permettant de diminuer les expositions des utilisateurs […], il n’y a pas d’évaluation systématique de la réelle diminution d’exposition individuelle qu’entraînent ces changements », regrette l’agence sanitaire. Elle prône donc la mise en place d’études de terrain indépendantes pour vérifier ces performances et demande de renforcer le contrôle du matériel de pulvérisation. Le contrôle des pulvérisateurs pourrait être l’occasion d’une meilleure information sur la question des expositions aux pesticides grâce à la mise en place d’une formation adéquate des utilisateurs.

Les formations doivent inclure « la notion prioritaire de réduction d’usage avant le port des EPI », rappelle l’agence. Elles doivent aussi aborder la question des contaminations indirectes, notamment lors de la réentrée dans les cultures traitées, suite à une pulvérisation de pesticides, ou la manipulation des animaux traités. Il convient par ailleurs de « privilégier les mesures de prévention et de protection générales et ou collectives plutôt que les mesures individuelles ».

Auteur : Matthieu Combe, fondateur du webzine Natura-sciences.com

Repost 0
Published by kirtap
commenter cet article
10 décembre 2016 6 10 /12 /décembre /2016 19:34

Les conversions en agriculture biologique stagnent : depuis le début de l’année, certaines régions n’en dénombrent aucune ! Mais les Chambres d’agriculture n’abandonnent pas leur combat pour augmenter les conversions et accompagner les agriculteurs sur le terrain. Tour d’horizon des actions menées.

L’accompagnement technique en conversion biologique est très importante pour s’accaparer les nouveaux outils. Ici, une roto-étrille sur céréale © Haute-Loire Biologique

L’agriculture biologique est entrée dans une phase délicate depuis l’année dernière. Depuis le début de l’année 2013, la tendance est confirmée et on observe un « ralentissement assez fort » des conversions, révèle Etienne Gageront, nouveau président de l’Agence bio et administrateur à l’Assemblée permanente des chambres d’agriculture (APCA) en charge des questions liées au bio. « Plusieurs régions n’ont reçu aucun dossier de conversion depuis le début de l’année », précise-t-il.

Le ralentissement des conversions s’explique de multiples façons. Malgré des rendements plus faibles, les agriculteurs étaient attirées par des prix de vente plus élevés en bio. Actuellement, le tassement du différentiel de prix entre produits bio et conventionnels change la donne. « Le différentiel avec la bio est pour certains secteurs presque nuls », avance Etienne Gageront. Ajoutez à cela une période de conversion particulièrement dure pour les agriculteurs et cela suffit à démotiver la majorité des candidats. Durant 3 ans, ils doivent en effet respecter les contraintes de la production bio, mais continuer à vendre leur production en conventionnel !

S’ajoutent à ces problématiques les difficultés d’accès au foncier, la concurrence des importations plébiscitées par la grande distribution (car moins chères !) et la faible mobilisation de la restauration collective. Si le dossier de la restauration collective demeure majeur et capital pour le développement du bio, seulement 2 % de produits bio seraient actuellement proposés au lieu des 20 % fixés par le Grenelle de l’environnement.

Les consommateurs ont un rôle important à jouer pour redémarrer les conversions. « Si les consommateurs continuent à manifester leur intérêt, en démarches individuelles, mais aussi en restauration collective, on pourra avancer », estime Etienne Gageront. Le programme « Ambition Bio 2017 », visant à redynamiser les conversions, sera présenté d’ici juin 2013 par le Ministre de l’agriculture Stéphane Le Foll.

Lire aussiLe bio gagne sur tous les fronts

Le secteur bio est-il mature ?

« L’agriculture biologique en France est en train de finir sa phase adolescente », estime Etienne Gageront. Pour arriver à maturité, elle doit structurer ses filières. Mis à part le vin, la particularité française est de développer la bio avant tout pour les consommateurs français. La France n’entre pas dans une logique d’export, contrairement à l’Espagne ou à l’Italie. Ainsi, si l’on observe des stagnations, il n’y a pas de « retour en arrière » comme cela peut être le cas dans ces pays suivant les années. « Cela montre bien la volonté et l’implication que tous les acteurs ont dans le développement de la bio dans la durée », analyse Etienne Gageront. Il est important de répondre à la demande des consommateurs français et ne pas les laisser sur des démarches d’importation.

Pour faciliter le développement et la structuration des filières, la mixité doit pouvoir se développer, estime le Président de l’Agence bio. « Ce changement doit s’appuyer sur une recherche agronomique performante, un accompagnement durable des agriculteurs dans leur conversion et les pratiques agricoles quotidiennes et l’amélioration de la structuration des filières », résume Guy Vasseur, Président des Chambres d’agriculture. « L’enjeu de la compétitivité de nos productions sur les territoires face aux autres filières bio européennes et internationales reste crucial », rappelle-t-il également. Pour pouvoir se développer, les exploitations doivent effectivement être compétitives et rentables !

Lire aussiLe bio français en plein boom !

Des experts sur le terrain pour aider à la conversion

Les Chambres d’agriculture ont pour but de promouvoir les métiers de l’agriculture, d’accompagner et de relier les projets des agriculteurs, des filières et des territoires et de développer des systèmes de production innovants. Le groupe est constitué de Chambres départementales qui s’impliquent dans les actions de proximité, de Chambres régionales qui pilotent les programmes, appuient les filières et les Chambres départementales et de l’Assemblée permanente des Chambres d’agriculture (APCA) qui anime les réseaux et s’implique dans les politiques agricoles nationales, européennes et internationales.

Les Chambres d’agriculture sont engagées pour développer l’agriculture biologique et les techniques alternatives. Pour cela, elles accompagnement des agriculteurs en conversion, aident aux améliorations techniques et aident à la sécurisation de leurs revenus. Ces dernières années, les Chambres d’agriculture interviennent à plus de 60 % durant les phases de conversion. « Dans la région Midi-Pyrénées, les conseillers des Chambres réalisent 80 % des dossiers de conversion », précise Christophe Cardet, conseiller en maraîchage bio à la Chambre d’agriculture du Maine-et-Loire. « Dans les moments très difficiles et très complexes et notamment la phase de conversion, les agriculteurs biologiques se retournent vers le réseau », note-t-il.

Sur l’ensemble du réseau des Chambres d’agriculture, 250 experts bio (sur les 6 000 conseillers que comptent les Chambres d’agriculture) agissent auprès des agriculteurs pour les accompagner techniquement et économiquement dans la conversion. Ces conseillers sont immergés dans les Chambres d’agriculture, intégrés dans l’ensemble du dispositif des techniciens. Cela permet de favoriser les interactions entre techniques en bio et en conventionnel.

Ayant très peu avancé en recherche depuis une dizaine d’années, les Chambres d’agriculture insistent sur les aspects de recherche « pour améliorer la performance technique sans remettre en cause ses spécificités », insiste Etienne Gageront. « Nous demandons expressément à l’INRA d’investir encore plus dans la recherche en bio et de proposer véritablement des schémas alternatifs aux agriculteurs qui s’engagent dans la bio », ajoute-t-il.

Les responsables des Chambres d’agriculture ont pour souci de ne pas opposer l’agriculture biologique et l’agriculture conventionnelle, mais au contraire d’avancer dans une démarche constructive. Selon eux, les échanges possibles au niveau agronomique et technique sont importants.

Auteur : Matthieu Combe, fondateur du webzine Natura-sciences.com

Repost 0
Published by kirtap
commenter cet article
10 décembre 2016 6 10 /12 /décembre /2016 19:27

un plan pour l’agriculture bio:

Le plan « Ambition bio 2017 » s’inscrit ans le projet agro-écologique pour la France porté par Stéphane Le Foll et initié par la démarche « Agricultures : Produisons autrement »

Le programme national « Ambition Bio 2017 » ne se limite pas à un objectif de développement des surfaces cultivées en bio. Outre le développement de la production, il cherche à développer le marché et les filières. « Notre ambition est de mettre en place un processus global de développement de l’agriculture biologique. C’est donc d’augmenter la production, et aussi permettre aux produits d’être transformés, ensuite commercialisés et enfin d’être achetés. » affirme Stéphane Le Foll, Ministre de l’Agriculture, de l’Agroalimentaire et de la Forêt.

La spécificité de ce nouveau plan est d’apporter une « cohérence générale » de développement de l’agriculture biologique, selon le Ministre. Ainsi, il s’attache à développer la production et structurer les filières de production, de transformation, de commercialisation et de distribution. Il cherche aussi à développer la consommation et conquérir de nouveaux marchés. Mais pour accompagner les acteurs, il faut aussi de la recherche et de la formation et une réglementation adaptée pour faciliter les démarches d’installation : tous ces aspects sont considérés dans le plan. Simplement, « l’enjeu est que cette filière réponde à la demande et assure son fonctionnement », prévient le Ministre.

Les financements seront doublés là où il y a des enjeux spécifiques liés à la préservation de la ressource en eau. « Le doublement du financement pour les captages prioritaires est un signe fort qui permet d’identifier réellement l’agriculture biologique comme l’agriculture qui respecte l’eau potable », estime Stéphanie Pageot, la Fédération Nationale d’Agriculture Biologique (Fnab).

Des rendez-vous réguliers seront fixés pour suivre l’ensemble du dispositif. Le suivi se fera au niveau régional et au niveau national grâce au comité de pilotage qui regroupe l’ensemble des acteurs concernés. « Il faut suivre, mesurer, évaluer, réajuster en permanence pour faire de ce plan une véritable réussite », prévient Stéphanie Pageot.

Ce plan est relativement bien accueilli par l’Agence Bio, les Chambres d’agriculture, la Fnab et le Syndicat National des transformateurs de produits naturels et de culture biologique (Synabio). L’accompagnement financier, le maintien du crédit d’impôt, la structuration des filières, l’accompagnement des agriculteurs et l’évaluation régulière du suivi des objectifs sont particulièrement appréciés. Les producteurs bio de la FNAB estiment le programme « cohérent » dont « les 6 axes sont vraiment équilibrés ».

Priorité à la restauration collective et aux circuits courts

Pour développer la consommation, l’achat dans la restauration collective sera une priorité. L’objectif de 20 % de produits bio dans la restauration collective est réaffirmé. Les circuits courts vont faire l’objet d’une mise en perspective. D’ici quelques semaines, un plan visant à développer l’ensemble de ces circuits sera présenté. Des systèmes de mises en relation entre producteurs et consommateurs, à l’instar de la plateforme Agrilocal dans la Drôme, devraient se développer. Dans ces circuits courts, les produits bio auront toute leur place.

Pour les financements, le Fonds « Avenir bio » géré par l’agence bio passera de 3 à 4 millions d’euros par an. Les capacités d’investissements stratégiques de l’Etat seront mobilisées par la Banque Publique d’Investissement.

Auteur : Matthieu Combe, fondateur du webzine Natura-sciences.com

 

Repost 0
Published by kirtap
commenter cet article
10 décembre 2016 6 10 /12 /décembre /2016 19:23
 
 

Bonjour,

Pour informer et dépasser les clichés sur les consommateurs de produits bio, l'association Bio Consom'acteurs lance une web-bande dessinée réalisée à partir des premiers résultats de l'étude BioNutriNet.
 
 
Nous sommes ce que nous mangeons...et mangeons ce que nous sommes
 
Dans le cadre du projet scientifique BioNutriNet, mené par des chercheurs de divers instituts (Inserm, Inra, Université Paris 13), Bio Consom'acteurs souhaite valoriser les résultats de cette étude auprès du plus grand nombre et a choisi de publier la bande dessinée numérique « Quel mangeur bio êtes-vous ? » qui explique les objectifs de l'étude, tout en présentant la typologie des consommateurs étudiée.

Cette web-bd montre qu'il n'y a pas, d'un côté, le consommateur bio et de l'autre, le consommateur non bio.
 
Il existe toute une palette de nuances, et chaque profil de consommateur est lié à une histoire et à des modes de vie différents, selon :
  • âge, sexe, niveau de revenus, niveau d'éducation ;
  • régime alimentaire
  • motivations
  • vie en ville ou à la campagne ;

    etc.
 
La web-bd traduit en images une typologie de 5 groupes de consommateurs face à leur alimentation.
Elle met en lumière le fait que ceux qui mangent le plus de produits bio ne sont ni plus riches, ni plus urbains que les autres.
 
 
 
 
Dépasser le cliché "bio égale bobo"
 
L'étude montre aussi que ceux qui mangent le plus de produits bio ont :
 
 
  • un meilleur niveau d'éducation
 
  • un régime alimentaire de meilleure qualité nutritionnelle
  • un régime alimentaire moins carné
  • des comportements écologiques tels que les économies d'énergie ou le recyclage 
 
L'éducation, pour créer un terreau fertile
 
Alors qu'ils n'ont pas des revenus particulièrement élevés, les gros consommateurs de produits bio n'hésitent pas à mettre le prix dans leur alimentation. Pourquoi ?
 
L'éducation à l'environnement, notamment aux bénéfices de l'agriculture et de l'alimentation biologiques, est une nécessité.
 
Une consommation à la fois bio, locale et équitable, ne peut prendre racine que dans un terreau fertile : à savoir, une population sensibilisée à la nature et à la complexité des mécanismes en jeu au sein des écosystèmes, mécanismes sur lesquels repose l'agriculture biologique.
 
C'est ce que l'association Bio Consom'acteurs s'efforce de faire au travers de ses actions de sensibilisation, et notamment grâce à cette web-bd, disponible en ligne gratuitement.
 
Cette web-bd aura une suite : en 2017, Bio Consom'acteurs réalisera d'autres outils de sensibilisation, car le projet de recherche BioNutriNet continue et nous livrera d'autres résultats.
 
En 2017, de nouveaux outils de vulgarisation scientifique mettront en lumière les impacts de l'alimentation biologique sur la santé et l'environnement.
 
 
En devenant adhérent* pour 1 euro par mois, vous contribuez à diffuser les connaissances sur l'agriculture biologique.
 
En complétant votre adhésion par un don*, vous nous permettez de poursuivre nos actions d'éducation à une consommation responsable.

   
Bio Consom'acteurs agit pour :
 
  • réaliser des outils de senbilisation et d'éducation à l'alimentation bio, locale et équitable, tels que la web-bd « Quel mangeur bio êtes-vous ? »
  • organiser des ateliers de consommation responsable, repas bio solidaires, projections-débats
  • inciter les élus à introduire du bio local dans leurs cantines scolaires
  • diffuser les résultats de l'étude Bio Nutrinet, à propos des impacts de la consommation biologique sur la santé et l'environnement.
 
 
Adhérer, c'est soutenir l'éducation et apprendre à mieux manger
 
A l'heure où les campagnes électorales battent leur plein et où l'urgence écologique est chaque jour plus criante, il nous semble nécessaire de rappeler que les progrès de l'humanité naissent de l'éducation.
 
 
Pour continuer nos actions, nous avons besoin de vous aujourd’hui.
 
Merci pour votre engagement à nos côtés.
 
 
Au nom de Bio Consom'acteurs,

Diana Semaska et Valérie Le Toux
Repost 0
Published by kirtap
commenter cet article
13 novembre 2016 7 13 /11 /novembre /2016 18:36

Blés d’hier, Blés de demain...

Le pain serait-il  moins bon pour la santé ?

Y a-t-il une différence entre les blés d'hier et ceux que la sélection boulangère de ces dernières années privilégie ?

Face à certaines allergies, la question mérite analyse.

 

Le gluten est le point central autour duquel tourne toute la question du pain. C'est une Protéine, contenue dans les céréales, indispensable pour la fermentation de la pâte. Plus il y en a, plus vite lève le pain. Un pourcentage élevé de gluten de bonne qualité dans le grain donne un blé considéré comme hautement panifiable cela devient en soi un objectif à atteindre certains minotiers payant plus cher les blés à forte teneur en gluten, puisqu'ils accéléreront le travail de la pâte.

 

Mais le gluten est un allergène redoutable, qui est aussi la cause de nombreuses intolérances, parce que trop irritant pour les intestins' Le professeur Jean Seignalet, dans son ouvrage" L'Alimentation, la troisième médecine, préconise de supprimer de l'alimentation toute céréale contenant du gluten (blé, seigle, orge, avoine).

Un sujet à controverses :

Il semble cependant que l'on ait trouvé un début de réponse aux problèmes posés par le gluten. En effet, pour répondre à des objectifs technologiques, la sélection boulangère de ces dernières années a privilégié surtout des blés contenant de plus en plus de gluten, et en particulier un gluten riche en gliadines, qui sont des grosses molécules' « La sélection officielle privilégie les blés dits de force plus riches en protéines, mais ils résistent plus à la mouture' Leur amidon est alors cassé, il ne prend pas l'eau de la même façon, et se polymérise », explique Jean-François BERTHELOT, paysan boulanger dans le Périgord, membre du réseau Semences paysannes « De Plus en Plus de gliadines, de plus en plus résistantes »de plus en plus polymérisées.

C’est l’addition de ces 3 facteurs qui expliquerait que les blés d’aujourd’hui provoquent plus de problèmes d’allergies que les variétés anciennes et donc que les pains actuels puissent provoquer des intolérances.

Brigitte Fichaux diététicienne, explique que certains de ses Patients qui souffrent de Problèmes de Peau ou de digestion, voire d'arthrose ou de stress ont supprimé le blé (froment)

« Et j'ai de très bons résultats. En revanche le pain d'épeautre ou de seigle ne leur posent pas ces problèmes ».

Elle suit de près les travaux du réseau Semences Paysannes,

« parce qu'effectivement dans les variétés anciennes, les glutens ne sont pas les mêmes. il faut maintenant faire des tests pour vérifier tout cela ».

Elle se veut très nuancée .

« on ne peut pas généraliser ! »

Le blé ne pose pas de problèmes à tout le monde. En revanche les adultes qui accumulent les problèmes de santé peuvent essayer de supprimer les blés modernes voire d’introduire des variétés anciennes à la place... Chaque individu est différent, il y a des gens auxquels le pain réussit très bien, d'autres non ! »

Les blés peu riches en gluten sont dits peu panifiables.

« ll vaudrait mieux dire moins mécanisables, rectifie Jean-François Berthelot. C'est vrai qu'ils ne vont pas pour les machines, ils font souvent des pâtes collantes, qui n'ont pas assez de force. Mais un boulanger qui pétrit à la main sait comment redonner de la force à une pâte, il suffit de lui donner quelques tours, comme à une pâte feuilletée !»

L'avantage des vieilles variétés de blés, outre le fait qu'elles puissent être moins allergisantes, c'est aussi la palette de goûts différents qu'elles apportent aux pains.

« On en a essayé certaines qui sont fabuleuses ! Le blé de Redon, par exemple, donne un goût de pain d'épices et de miel, même 20g dans une pâte suffisent... Pour nous, les variétés anciennes sont des variétés d'avenir, elles ont des possibilités d'évolution variétale fantastiques. Elles se comportent bien sur des petites terres et s'adaptent aux conditions dans lesquelles on les fait vivre, contrairement aux blés modernes qui sont très contraignants. »

Si pour l'instant, quelques paysans conservent certaines vieilles variétés dans des parcelles, elles ne peuvent pas encore être vraiment commercialisées.

« Elles ne sont pas développées assez, on n'a pas assez de semences... »

Et surtout, elles ne sont pas référencées au catalogue officiel des semenciers, et sont en quelque sorte hors-la-loi ! Voilà un nouveau combat que le réseau Semences paysannes entend bien mener...

 

 

 

pour en savoir plus :

 

- « Semences paysannes, pour la biodiversité des semences et plants

dans les fermes» : contaÇt Hélène Zaharia.lél./tax: 05 63 57 99 42.

E-mail : semencepaysanne@wanadoo.fr

 

- Revue Nature et Progrès n"43 (sept.- oct. 2003), « Les paysans

boulangers ». L'article traite des semences paysannes de blés

panifiables, des problèmes liés au gluten, suite aux « Rencontres »

organisées par le producteur et boulanger bio breton Nicolas Supiot.

V. B.-R.

 

Repost 0
Published by kirtap - dans alimentaire
commenter cet article
12 novembre 2016 6 12 /11 /novembre /2016 08:54

Revenons un instant à la fin des années 60. A l’époque, un « jeune-ingénieur-plein-d’avenir », tout frais émoulu d’une grande école, partait d’un bon pas à EDF ou au CEA (Commissariat à l’énergie atomique). Le nucléaire avait en effet le vent en poupe. On considérait alors que la consommation d’électricité doublait tous les dix ans en France et qu’en 2000, on aurait besoin de 1000 TWh, et bien plus encore en 2020. Pour satisfaire cette demande en croissance inéluctable, il fallait donc construire de toute urgence des centrales nucléaires, au rythme de 5 000 à 6000 mégawatts de puissance installée par an et ce durant une trentaine d’années au moins. La seule question qui agitait le petit monde du nucléaire était la perspective de l’épuisement des ressources en uranium, dont on pensait qu’il pourrait survenir dès le début du vingt-et-unième siècle.

Heureusement, grâce au plutonium, on allait pouvoir résoudre ce problème de raréfaction de l’uranium1. En effet, la France avait les capacités de produire à La Hague,

La France n’a pas d’uranium… mais elle a le plutonium

dans son usine flambant neuve de retraitement des combustibles nucléaires usagés, plus de plutonium qu’elle n’en avait besoin pour fabriquer ses bombes atomiques. Et l’on se disait que ce plutonium en excédent pourrait servir à produire de l’énergie dans des réacteurs dits surgénérateurs. C’était la promesse d’une multiplication d’un ordre de 50 des réserves d’uranium. Quant aux autres sous-produits du retraitement, considérés comme définitivement inutilisables, ils seraient vitrifiés et conservés à la Hague, en attendant une solution de stockage définitif qu’on trouverait sans aucun doute dès le tournant du siècle.

De Rapsodie à Superphénix

Pas de souci à l’horizon, donc. On pouvait s’engager sans crainte dans la voie du nucléaire, en achetant à l’Américain Westinghouse la licence de son réacteur à eau pressurisée dont plusieurs exemplaires marchaient déjà aux Etats-Unis. Et pour faire face à la raréfaction de l’uranium annoncée pour le tournant du siècle, la France s’attèlerait dès à présent à la mise au point d’un réacteur surgénérateur au sodium liquide. Avec un programme bien ficelé : d’abord Rapsodie, réacteur de recherche, puis Phénix, un prototype expérimental de taille industrielle, et enfin Superphénix, une tête de série industrielle, pour être prêt dès 2000 à couvrir le monde et la France de ces nouveaux réacteurs.

Un risque d’accident ? Personne n’en parlait à l’époque

Un risque d’accident potentiel ? Personne n’en parlait à l’époque. Les probabilités calculées par les ingénieurs n’étaient-elles pas vraiment infimes ? Quant aux déchets, on sentait bien qu’ils posaient problème, mais on avait du temps devant soi2 et leur entreposage n’allait occuper que l’équivalent d’une piscine olympique. Même le débat sur le risque de prolifération nucléaire qu’induisait la production de plutonium (et donc le retraitement des combustibles usés), très vif aux Etats-Unis, n’atteignait pas la France. Enfin tout le monde se représentait le CEA et l’entreprise nationalisée EDF comme des institutions au moins aussi pérennes que le Vatican.

C’est donc dans un contexte très favorable que notre « jeune-ingénieur-plein-d’avenir » allait pouvoir exprimer ses talents sans se poser un instant la question de la pérennité et de l’utilité sociale du complexe scientifico-industriel qu’il intégrait.

Un avenir moins brillant

Revenons à présent en 2016. Notre « jeune-ingénieur-plein-d’avenir » tout frais émoulu d’une grande école se demande dorénavant s’il y a un avenir à EDF ou au CEA :

•    Enterrée en effet depuis belle lurette la loi du doublement des besoins d’électricité tous les 10 ans édictée par Marcel Boiteux3 dans les années 1960. Depuis 2010 en France, la consommation d’électricité stagne en dessous de 480 TWh, soit moins de la moitié de ce que l’on anticipait lorsque fut lancé le programme nucléaire français. Cette consommation pourrait bien encore baisser d’une bonne centaine de TWh si la France se décidait à respecter la loi de transition énergétique.

•    Enterrée la conviction que des centrales nucléaires allaient être mises en service un peu partout dans le monde et que la France allait exporter partout son savoir faire et ses réacteurs. Au total, la France a construit 58 réacteurs sur son sol et n’en a exporté que 11.

•    Enterrée la prédiction d’une montée inexorable de la part du nucléaire dans la production électrique mondiale. Cette part est tombée de 15 % en 2010 à moins de 11 % en 2015. Quant à la production d’électricité d’origine nucléaire, elle a même reculé de 5 % sur cette période.

•    Enterrée la conviction que l’accident majeur ne pouvait pas se produire. Après l’accident grave de Three Miles Island survenu en 19794, ceux de Tchernobyl et de Fukushima ont montré qu’un accident majeur n’avait rien d’improbable, même dans un pays jusque-là encensé pour sa maturité technologique et son organisation industrielle.

•    Interrompue en 1997 la saga des surgénérateurs par la décision d’arrêt de Superphenix devant les incidents répétés et les coûts d’exploitation constatés.

•    Enterrée enfin la conviction que la question des déchets à haute activité et à longue durée de vie était mineure et serait réglée grâce au progrès scientifique et technique dès le début du vingt-et-unième siècle. En réalité, elle reste sans réponse, ce que les Français commencent à comprendre grâce à la mobilisation des opposants au projet d’enfouissement profond des déchets sur le site de Bure, dans la Meuse. 

La facture s’annonce salée

Le parc français, dont 80 % a été construit entre 1980 et 1990 vieillit. Son âge moyen atteint 31 ans, alors que sa durée de vie programmée est de 40 ans. Il va falloir, si tout va bien, dépenser en 20 ans selon la Cour des comptes une centaine de milliards d’euros pour rénover les réacteurs et les mettre au niveau de sûreté requis en espérant ainsi prolonger leur durée de vie de 10 ou 20 ans. Le coût estimé de ce « grand carénage » est ainsi plus élevé que ce que la France a dépensé pour construire ses 58 réacteurs (83,2 milliards d'euros) ! Et encore, cette estimation ne tient pas compte de la réalité du terrain : découvertes de défauts divers sur l’état réel des matériels, en particulier des générateurs de vapeur de 18 réacteurs, chute d’un générateur à Paluel, etc. La facture risque donc fort de s’alourdir sensiblement.

Autre perspective peu réjouissante, le démantèlement des réacteurs

Autre perspective peu réjouissante, celle du démantèlement des réacteurs, qui se rapproche inéluctablement. On manque cruellement en France d’expérience sur le sujet. Aux Etats Unis, par contre, on a démantelé des centrales du même type que les nôtres5 mais à un coût près de cinq fois supérieur au coût prévu par EDF et, en Allemagne, les estimations de coût de démantèlement d’une centrale du même type sont 2,4 fois plus élevées.

Un « Notre dame des Landes nucléaire »

Quant au stockage définitif des déchets à Bure, sur lequel s’appuie l’industrie nucléaire pour tenter de montrer qu’elle maîtrise l’ensemble du cycle nucléaire, il s’avère mal conçu et très contesté par les riverains du projet qui craignent avec raison les aléas et les accidents d’un chantier dangereux qui va durer une bonne centaine d’années. Sans compter le problème éthique de laisser derrière nous pour des dizaines de milliers d’années un site aussi dangereux. Les autorités, décidées à passer en force, prennent le risque de se heurter à un « Notre dame des Landes nucléaire » qui va mettre en lumière les incertitudes et les surcoûts du projet par rapport à l’estimation initiale, déjà très contestable6.

Enfin les entreprises nucléaires sont à la peine : techniquement, Areva est en faillite et EDF se trouve confronté à un mur d’investissement de l’ordre de 120 milliards d’euros alors que sa valeur boursière a chuté de 85 % depuis 2007.

 

L’impasse de l’EPR

Pour l’avenir proche, la France parie sur son EPR, un très gros réacteur (1650 MW) de la même technologie à eau pressurisée que les réacteurs actuels, mais avec toute une série de dispositifs supplémentaires censés réduire d’un facteur dix les conséquences d’un accident majeur. Mais il se révèle bien complexe à construire. Areva a lancé un chantier d’EPR en Finlande à Olkiluoto en 2005 pour un démarrage en 2009. Sept ans plus tard le chantier est loin d’être terminé, Areva a dû provisionner 5 milliards d’euros de dépassements de coûts et n’espère pas un démarrage avant décembre 2019.

7 milliards d’euros de dépassement à Flamanville

EDF à son tour s’est lancé dans l’aventure à Flamanvillle avec la construction d’un EPR en 2006 dont le coût initial était de 3,3 milliards et la date de démarrage prévue 2012. Aujourd’hui, le coût est estimé à 10,5 milliards et le chantier est loin d’être terminé, d’autant que la sûreté de la cuve elle même est mise en cause par l’Autorité de sûreté nucléaire qui donnera ses conclusions dans plusieurs mois. Si la cuve n’est pas simplement retoquée, reste la question du contrôle commande de la centrale dont la conception a fait l’objet de critiques importantes et qui n’a pas vu le jour jusqu’ici. Enfin deux réacteurs du même type sont construits en Chine, avec semble–t-il moins de problèmes pour l’instant.

Un réacteur inadapté

Les difficultés de chantier rencontrées, le dérapage des coûts, mais aussi l’inadaptation d’un réacteur de cette puissance aux besoins électriques de nombreux pays s’intéressant au nucléaire font douter de l’avenir de cette filière. L’évolution rapide des réseaux électriques vers une «  blabla-électrification7 » où, par exemple, le panneau photovoltaÏque du voisin recharge une batterie qui alimentera le soir même l’écran géant du village pour la coupe du monde de foot bouleverse en effet le paysage. On conçoit que l’introduction d’outils de production de la taille d’un EPR dans ce type de réseau totalement « ubérisé » est moins naturelle qu’elle ne l’était sur le réseau traditionnel. Sans compter les besoins de refroidissement de ce type de réacteur8 qui risquent de devenir de plus en plus difficiles à satisfaire avec le réchauffement du climat et la chute attendue des débits d’étiage des rivières.

Les aléas de la « quatrième génération »

Ne vaut-il pas mieux, face à l’impasse de l’EPR, attendre de nouveaux réacteurs, plus sûrs, produisant moins de déchets et sans risque de prolifération ? Là encore la France défend un projet dit de quatrième génération dans la continuité des travaux engagés sur le surgénérateur Superphénix. Le CEA construit actuellement un prototype expérimental de 600 MW, baptisé Astrid. Mais le développement industriel de ce type de réacteurs, qui ne surviendrait pas avant 2040, se heurte à une série de problèmes techniques et sociétaux : sûreté du réacteur, en particulier en cas de séisme, coût du kWh a priori nettement plus élevé que le coût du nucléaire actuel et peut être surtout acceptabilité sociale d’une technologie à base de plutonium avec les risques de prolifération que cela comporte.

On voit mal qui prendrait le risque de développer la filière thorium

Très récemment, d’autres propositions sont réapparues comme celle de la filière thorium dans des réacteurs à sels fondus. Mais le développement d’une telle filière, dont les avantages en termes de sûreté et de déchets ne semblent pas décisifs, exigerait une bonne trentaine d’années d’efforts continus et importants, analogues à ceux consentis par le passé pour développer la filière à des réacteurs à uranium. On voit mal aujourd’hui quel pays ou groupe de pays (et avec quels industriels) prendrait le risque de développer cette technologie qui ne serait pas disponible pour 2050, dans un contexte d’éclatement de la production d’électricité sous forme d’une myriade de producteurs-consommateurs d’électricité d’origines très diverses.

La lubie de la fusion

Reste la fusion, éternelle promesse des physiciens dont la mise au point et le développement industriel à horizon d’une cinquantaine d’années est repoussé de dix ans ou plus tous les dix ans depuis les années 1960, malgré des financements massifs. En cas de réussite des objectifs du projet expérimental Iter9 en 2040, ce qui est loin d’être gagné, il faudra construire et exploiter un réacteur de démonstration et étudier ses performances (rendement, durée de vie, problèmes d’exploitation, sûreté) avant d’espérer pouvoir commencer à développer vers 2080 ou 2090 une filière de réacteurs dont la taille10 (plusieurs milliers de MW) sera très probablement un obstacle dans le paysage énergétique prévisible à la fin du siècle.

Tout bien réfléchi…

Bref, un avenir qui ne chante pas vraiment pour notre « jeune-ingénieur-plein-d’avenir » à moins qu’il ne décide de s’intéresser au démantèlement des centrales ou au problème des déchets nucléaires, deux domaines où l’emploi est assuré jusqu’à la fin du siècle. Mais traiter du passif d’une filière, même si c’est porteur de sécurité d’emploi et de promotion rapide ne le séduit guère … 

Tout bien réfléchi et malgré le prestige que confère encore l’appartenance à la grande fratrie du nucléaire, notre « jeune-ingénieur-plein-d’avenir » tout frais émoulu d’une grande école décide finalement de consacrer ses talents et son goût pour les questions énergétiques au développement des énergies renouvelables, aux appareils électriques ultraperformants, au numérique et aux nouveaux réseaux électriques dits intelligents. Car tout cela est nettement plus intelligent pour construire l’avenir, se dit-il.

 

            1.L’uranium naturel contient moins de 1 % de l’isotope 235 (fissile, autrement dit qui permet la réaction en chaîne dégageant de l’énergie) et 99 % de l’isotope 238 (non fissile). Seul l’isotope 235 est actuellement employé dans nos réacteurs, le reste n’étant pas utilisable. Cependant, l’uranium 238, par capture d’un neutron apporté par du plutonium, se transforme en uranium 239 puis en plutonium 239, directement fissile. Il est ainsi théoriquement possible de multiplier par cette opération les quantités disponibles de matière fissile.

            2.Ne serait-ce que pour les laisser refroidir en piscine, ce qui demanderait 50 ou 60 ans.

            3.Directeur des études économiques puis directeur général et président d’EDF de 1958 à 1987.

            4.Mais dont la radioactivité était restée contenue dans le bâtiment.

            5.Voir « Le coût du démantèlement des centrales nucléaires » par Bernard Laponche, sur www.global-chance.org

            6.Actuellement le coût prévisionnel retenu par la ministre de l’environnement est de 25 milliards d’euros.

            7.Par analogie à blablacar.

            8.La chaleur à dissiper est de l’ordre de 3 000 MW.

            9.Un budget de l’ordre de 20 milliards pour un objectif modeste de fonctionnement de 400 à 500 secondes !

            10.En effet, la puissance du réacteur est proportionnelle au volume du réacteur et les pertes à sa surface. On a donc intérêt à augmenter la puissance autant que possible pour limiter les pertes.

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.

DERNIER COMMENTAIRE

TOUS LES COMMENTAIRES

  • 10/11/2016 21:14

 

  •  

Analyse ... parfaite. Jeune ingénieur des années soixante, j'aurais pu entrer à edf, chez renault ou pratiquement dans n'importe quelle activité. Le nucléaire m'en a dissuadé, déjà. Il me semble par ailleurs qu'il convient d'apprécier la consommation d'énergie globale: le pétrole outrageusement gaspillé par le beauf en diesel pouvait parfaitement être réservé aux besoins vitaux en électricité, alors que le même crétin en bolloré ambitionne aujourd'hui de déplacer son indécente personne au nucléaire.

Que dire à un, une jeune ingénieure ? La Communauté a assuré votre formation. Quoi que vous réfléchissiez, c'est bien la Communauté qui vous a, globalement, assuré la grande joie d'être formé, plus intelligent.

Ne trahissez jamais le Bien commun.

Repost 0
Published by kirtap
commenter cet article
12 novembre 2016 6 12 /11 /novembre /2016 08:50

Climat: ce qu’il reste à faire après l’accord de Paris

7 NOVEMBRE 2016 PAR JADE LINDGAARD

La COP22 sur le climat ouvre lundi à Marrakech. L’accord de Paris, ratifié par 97 pays ou parties, peut entrer en vigueur, mais sa mise en œuvre ne sera pas immédiate. De son côté, la France ne semble pas prête à en tenir compte dans sa politique énergétique.

À Marrakech, lundi 7 novembre, la COP22 doit s’ouvrir en majesté : l’accord de Paris sur le climat a été ratifié par suffisamment de pays pour entrer en vigueur. C’est une victoire diplomatique : le précédent traité international sur le climat, le protocole de Kyoto, avait mis sept ans à être entériné par les États, qui l’avaient signé en 1997. Pour que l’accord obtenu au Bourget en décembre 2015, en clôture de la COP21, soit ratifié, il fallait qu’au moins 55 pays représentant au moins 55 % du total des émissions de gaz à effet de serre le signent. Au 4 novembre, date de l'entrée en vigueur officielle du texte, 97 parties émettant plus de 69 % du CO2 mondial s’y étaient pliées.

« L'humanité se souviendra du 4 novembre 2016 comme du jour où les pays du monde entier ont arrêté la marche vers une catastrophe climatique qui semblait inévitable et ont ouvert la voie à un avenir durable », ont déclaré Patricia Espinosa, la nouvelle secrétaire exécutive de la CNUCC (Convention-cadre des Nations unies sur les changements climatiques), et Salaheddine Mezouar, président de la COP22 et ministre marocain des affaires étrangères et de la coopération.

Le style est pompeux mais les éléments de langage de l’ONU reflètent un niveau de satisfaction maximal : le processus des négociations internationales sur le climat est conforté, alors qu’il y a 18 mois il semblait moribond. L’alliance entre les États-Unis et la Chine, qui a rendu possible la signature de l’accord de Paris, s’est maintenue en 2016. Quand les deux pays les plus gros émetteurs mondiaux de CO2 ont annoncé la ratification de l’accord de Paris en septembre, ils ont débloqué un processus jusque-là laborieux. Dans les semaines qui ont suivi, le Brésil, l’Inde et enfin l’Union européenne, divisée sur la répartition de la contrainte entre États membres, ont également ratifié l'accord.

 

 

Signature du décret de promulgation de l'accord de Paris, 15 juin 2016 (Reuters/Jacky Nageler)

Applicable en droit, l’accord de Paris ne peut pas encore être mis en œuvre car il reste à établir les règles régissant son application : quel mécanisme de transparence des informations entre États ? Qu’inclure dans le bilan mondial des actions pour le climat à publier tous les cinq ans ? Par quels mécanismes suivre les contributions nationales pour réduire les émissions de CO2 ? La première réunion de l’organe chargé du respect de l’accord de Paris, le CMA, se tiendra à la fin de la COP22.

 

Cela n’empêche pas les États signataires de multiplier les cérémonies de célébration. « Vu le caractère non contraignant du traité, le succès de l’accord de Paris dépendra de la capacité à renouveler l’intérêt pour les questions climatiques dans les pays signataires. Si ce traité doit avoir des effets, il est essentiel de toujours en parler », analyse Stefan Aykut, historien spécialiste des négociations climatiques. Ceux qui le portent ou lui attachent de l’importance misent sur ce que le chercheur appelle « son effet performatif ».

Le problème, c’est que cette dynamique ne suffira pas à remplir le principal objectif de l’accord : contenir le réchauffement de la température globale à + 2 °C. Les engagements de baisse d'émissions de gaz à effet de serre par les États signataires pourraient entraîner une hausse de 3 °C de la température, selon les estimations du Programme des Nations unies pour l’environnement (PNUE). D’ici à 2030, il faut réduire les émissions d’un quart pour espérer respecter le seuil fixé par l’accord de Paris. Or, au niveau mondial, les rejets de carbone ne cessent d’augmenter. Un nouveau record a été battu en 2015 : la concentration mondiale moyenne dans l'atmosphère du CO2 a atteint pour la première fois la barre symbolique des 400 particules par million, selon l'Organisation météorologique mondiale (OMM).

 

LIRE AUSSI

 

Autre sujet clé de l’accord de Paris, les promesses de financement des pays du Nord vers ceux du Sud ne se traduisent toujours pas en actes. En 2009 à Copenhague, les pays riches s’étaient engagés à verser 100 milliards de dollars chaque année aux États en développement d’ici à 2020. Selon les calculs de l’OCDE, la part publique de ces flux pourrait atteindre 67 milliards de dollars annuels en 2020. La somme des fonds publics et privés équivaudrait à 77 à 133 milliards de dollars chaque année, selon les scénarios. Mais en 2015, les discussions ont peu avancé sur ce sujet qui fâche et la COP22 n’en a pas fait sa priorité.

Plus grave : les pays signataires de l’accord ne donnent aucun signe de traduction de l’accord de Paris dans leurs politiques publiques. C’est particulièrement flagrant en France. Fin octobre, François Hollande a renoncé à taxer dès 2017 la production d'électricité à partir du charbon, alors qu’il s’y était engagé lors de la conférence environnementale.

Autre signal inquiétant, la programmation pluriannuelle énergétique (PPE), principal outil de pilotage de la transition énergétique, que le gouvernement vient de publier ne se donne pas les moyens de respecter les objectifs français de réduction des gaz à effet de serre. Le comité d’experts chargé de l’évaluer constate que la PPE « ne propose aucune consolidation globale à l’échelle du système énergétique, des différentes orientations en matière de demande et d’offre ». Rien ne permet de raccorder les bilans carbone présentés aux budgets fixés par la stratégie nationale bas carbone.

La perspective de la baisse de la demande d’énergie ne semble toujours pas acceptée comme hypothèse souhaitable d’évolution de l’économie et de la société. L’incapacité de l’État à prévoir comment réduire la part du nucléaire dans la production d’électricité (50 % en 2025 selon la loi de transition énergétique) a pour effet secondaire de retarder l’essor des énergies renouvelables. En bref : l’accord de Paris ressemble à un beau vaisseau spatial flottant au-dessus de l’Hexagone, mais incapable d’y atterrir.

Repost 0
Published by kirtap
commenter cet article

Présentation

  • : Le blog de Bien Vivre à la Campagne
  • Le blog de Bien Vivre à la Campagne
  • : Proposer à nos amis des informations et des réflexions sur l’environnement, notre patrimoine, des adresses sur les bons produits de notre région, la Bourgogne …
  • Contact

Recherche