( source : Wikipédia )
samedi 30 septembre 2017
NBIC
La convergence des technologies pour améliorer la performance humaine est un rapport de 2002 commandé par la US National Science Foundation et le Département du commerce. Le rapport contient des descriptions et des commentaires sur l'état de la science et de la technologie des domaines combinés de la nanotechnologie , de la biotechnologie , des technologies de l'information et des sciences cognitives (NBIC) par les principaux contributeurs dans ces domaines.
L'invasion des nanotechnologies
Avec ses airs de science-fiction, la recherche sur les technologies de l'infiniment petit est pourtant une réalité d'autant plus inquiétante qu'elle est méconnue.
Vers un contrôle total ?
Anne-Corinne Zimmer, journaliste
5. Le projet américain NBIC porté depuis 2001 par la National Science Foundation a été exposé dans le rapport de W. Bainbridge et Roco « Converging technologies for improving human performances ». L'ETC Group a choisi de parler de BANG pour Bit (information) Atome, Nano, Gêne.
Années 2000, dans les pays industrialisés : des investissements financiers sans précédent se font en faveur de la recherche et du développement des nanotechnologies. L'initiative française "Nano Innov", mise en place en 2008 sous les auspices du Commissariat a l'énergie atomique (CEA), prévoit le développement de trois "pôles d'excellence " 1 : à la clé, 1,15 milliard d'euros d'investissements publics sur cinq ans ou le financement de la recherche (publique) est entièrement subordonnée au partenariat public-privé et au développement d'applications commercialisables, brevetables, et donc, rentables.
Le marché des nanotechnologies, estimé en 2010 à plus de 150 milliards de dollars devrait atteindre, en 2014, plus de 2 600 milliards, soit 15% de la production manufacturière mondiale (estimation Lux Research). La nanotechnologie travaille sur les dimensions de la matière inférieures à 100 nanomètres (1 nm=10-9 m, un milliardième de mètre). À cette échelle, on entre dans la physique quantique. Les matériaux et les éléments (graphite, argent, or, silice) acquièrent des propriétés nouvelles et radicalement différentes : ce qui était rouge devient vert, un métal devient translucide, un matériau non conducteur laisse passer l'électricité... Deux méthodes sont employées pour obtenir les nanomatériaux. La technique descendante : par procédés mécaniques, en réduisant la matière poudre à l'état nanoparticulaire par broyage à haute énergie. Ou la "technique ascendante" : les atomes sont assemblés, sous contrôle informatique, à l'image de briques, conférant formes et tailles souhaitées (tubes, fullerène 2...), afin d'obtenir la configuration recherchée. Ces remaniements au niveau atomique et moléculaire ouvrent aussi la voie à des assemblages hybrides, entre matière inerte et vivante. La conception de nouveaux matériaux multiplie l'éventail des matériaux, des applications et des profits.
Dangers inconnus
Depuis plus de 15 ans, les nanomatériaux sont massivement présents et s'imposent aux consommateurs sans qu'ils en soient informés car aucun étiquetage ni aucune réglementation n'encadre cette invasion : des articles de sports plus légers aux peintures et métaux de surface autonettoyants sous la seule action de la pluie, en passant par les diodes électroluminescentes pour écrans, les téléphones cellulaires ou les pneus longue durée ! L'alimentation n'y échappe pas. Les additifs alimentaires comme le nanosilice sont employés depuis les années 1990 comme anti-agglomérant. Les barres Mars sont enveloppées dans du papier contenant du nano dioxyde de titane de 1 à 5 nm. Autorisé dans sa forme non nano pour l'alimentaire (pour blanchir le glaçage des pâtisseries), son emploi est ici différent : transparent, il sert à empêcher l'oxygène de gagner l'aliment. La liste des nanoproduits est inconnue et impossible à établir, en l'absence d'obligation pour les producteurs, industriels ou revendeurs d'en déclarer la présence.
Alors que le développement des nanos est soutenu massivement par les deniers publics, à peine 0,5 % de ces fonds sont consacrés à l'évaluation des risques sanitaires et environnementaux. Cette carence d'évaluation et d'information est fondamentale pour comprendre ce qui se joue avec les nanotechnologies : tout se passe comme si aucun enseignement n'avait été tiré des désastres provoqués par de nombreuses substances chimiques disséminées au cours du siècle précédent. Tandis que le règlement Reach oblige enfin les producteurs à une évaluation des substances chimiques produites à plus de 10 tonnes par an, la règle appelée "No data, no market" 3 semble ne pas concerner les nanosubstances aux propriétés radicalement nouvelles. Autorités gouvernementales et agences sanitaires et de régulations en appellent à la nécessité d'évaluation et de réglementation depuis dix ans, tandis que le corpus des études scientifiques pointant la toxicité des nanoparticules ne cesse de s'allonger.
Propriétés inédites
Elles présentent en effet des caractéristiques inédites : une puissante réactivité chimique et une pénétration exceptionnelle, leur taille leur autorisant le franchissement de toutes les “barrières". Les études mettent en évidence les dommages sur l'ADN causés par les nanoparticules, un stress oxydatif (mort des cellules) et des effets inflammatoires. Une génotoxicité indirecte, atteignant l'ADN à travers des barrières intactes, à été mise en évidence. De façon générale, les nanoparticules se caractérisent par leur extrême mobilité dans l'environnement et dans les organismes. Quelle que soit la voie d'exposition (inhalation, ingestion, cutané), « elles peuvent être internalisées par les cellules, migrer vers le cytoplasme et le noyau et passer les barrières que l'on croyait les plus étanches du corps humain. Y compris la barrière placentaire », expliquait Patrick Brochard, toxicologue au Laboratoire santé-travail-environnement de Bordeaux II, devant l'Office parlementaires des choix scientifiques et technologiques (OPCST)4. « Les nanoparticules très fines et très allongées sous forme de fibres (comme les nanotubes de carbone) ne sont pas gérées par les cellules, et malgré tous les mécanismes de défense de l'organisme, la particule va persister, intacte, dans les tissus, à l'endroit où elle s'est déposée, ou bien elle va migrer... Cet ensemble d'effets peut entraîner des réactions sur des modèles in vitro : perte de fonction, hyperactivité cellulaire. Au-delà, une réaction inflammatoire au niveau des tissus est susceptible de déboucher sur des pathologies non spécifiques comme fibrose et le cancer », conclut le toxicologue.
Une persistance indéfinissable
De plus, aucune analyse du cycle de vie de ces nanomatériaux n'a été réalisée. Leur devenir dans l'environnement pose déjà question. Le nano-argent, abondamment utilisé comme antibactérien, risque, une fois libéré dans l'environnement, de rompre l'équilibre écologique en anéantissant les bactéries. Des nanopréparations de pesticides sont déjà sur le marché (BASF Syngenta, Bayer), avec l'avantage de mieux se dissoudre dans l'eau et d'être efficaces plus longtemps avec un dosage réduit. La plupart des nanoparticules sont déjà reconnues comme persistantes, toxiques, bioaccumulables, et capables de se mouvoir sans fin... Elles rempliraient ipso facto les critères pour entrer sur la liste de la convention de Stockholm sur les polluants organiques persistants. Pire, leur haute réactivité chimique leur permet de se lier aux polluants déjà en circulation (PCB, PFOS), leur conférant potentiellement une durée de vie encore plus longue. En dépit de cela, rien ne semble en mesure d'entraver leur développement. D'ailleurs, une partie non négligeable des financements publics alloués au plan Nano Innov est attribuée à « l'acceptabilité sociale ». Ce qui signifie présenter au public une myriade d'applications tenues pour réalisables et ne parler que des "bénéfices" : médicaux, environnementaux et, bien sûr, économiques.
Vers un contrôle total ?
Les nanotechnologies forment une révolution d'ensemble dont nanomatériaux et nanoparticules ne sont que les instruments. In fine, il s'agit de l'élaboration d'un véritable système, défini sous le terme de convergence et appelé "NBIC" : Nano, Bio, Info, Cogno 5. Soit la convergence de plusieurs technologies, biologie, sciences cognitives (neurosciences), informatique, robotique dont la nanotechnologie est l'élément habilitant. La biologie synthétique crée de nouveau systèmes vivants (autoréplicants) programmés pour exécuter des tâches précises : bactérie E. Coli surpuissante pour la dépollution, polymères nanobiologiques intégrant des protéines permettant aux objets de se reconstituer...
Au-delà de l'alliance de la biologie, du vivant et de la nanotechnologie, se profilent les risques d'une humanité et d'une société entièrement sous contrôle, jusque dans ses comportements. Devant l`OPCST, François Berger, membre du réseau européen de nanobiotechnologie, Nano2life et chef de l'équipe de "Nanoneurosciences fondamentales et appliquées" au sein du pôle Minatec, donne un exemple des applications en cours avec un enthousiasme qui a de quoi inquiéter: « On peut manipuler le comportement alimentaire d'un singe en stimulant son hypothalamus (...). Il y a un réel danger dans les domaines de l'obésité ou de l'anorexie. Avouons que des outils implantés qui traiteront la maladie avant qu'elle n'apparaisse peuvent aussi être un avantage, même si cela a un côté impressionnant. (...) La valeur ajoutée des nanotechnologies transférées dans le domaine médical est indiscutable au niveau scientifique et industriel ».
Le ministère de la Recherche n'a pu que confirmer l'existence de « technologies permettant de modifier le comportement humain », parmi lesquelles « l'inhalation de nanoparticules psychotropes». Bien sûr, la majeure partie des financements publics est allouée aux recherches pour la Défense et l'armement et la "sécurisation de la société", via les nouveaux instruments de contrôle (identification, RFID, puçages, traçabilité) permis par cette convergence. Les risques d'une espèce humaine sous contrôle (dont les outils sont aux mains d'une poignée de multinationales) sont trop importants pour ne pas questionner les fins poursuivies au moyen de la nanoscience.
( source : metapoinfos.hautetfort )
samedi 23 septembre 2017
Géo-ingénierie
La géo-ingénierie est l'ensemble des techniques qui visent à manipuler et modifier le climat et l'environnement de la Terre en première intention et à grande échelle. L'objectif est généralement correctif, plus que préventif (le préventif relevant plutôt des écotechnologies et de l'écoconception). Elle ne doit pas être confondue avec la géo-ingénierie du sous-sol (mines).
Législation
. En 1972, dans le cadre du Protocole de Londres de 1996, les États membres de l'Organisation maritime internationale(OMI) ont voté une interdiction de fertilisation des océans dans les eaux internationales, avec une exception pour des « recherches scientifiques « légitimes » et de « petite échelle » » ;
. en 1992, au Sommet de la Terre de Rio, la Convention sur la diversité biologique demande aussi aux États de protéger la biodiversité. En 2010, la conférence des parties adopte un texte interdisant le déploiement de techniques d'ingénierie climatique , mais ce texte est un engagement non-contraignant et il tolère des expériences que les besoins de la recherche justifieraient ;
. Depuis 1978 une Convention internationale (convention ENMOD) interdit d'utiliser des techniques de modification de l'environnement à des fins militaires (ou toutes autres fins hostiles). 74 pays sont signataires de cette convention ;
. En 1992 les objectifs de la Convention Cadre des Nations-Unies sur le changement climatique (CCNUCC) mentionnent dans son article 2 qu'elle vise à prévenir toute interférence anthropique dangereuse avec le climat. Lin (2009) juge que ceci inclut la géo-ingénierie, mais d'autres auteurs comme Bodansky en 2011 estiment que cette convention est juridiquement trop faible pour réellement s'imposer au politique ;
. en 1992, au Sommet de la Terre de Rio, la Convention sur la diversité biologique demande aussi aux États de protéger la biodiversité. En 2010, la conférence des parties adopte un texte interdisant le déploiement de techniques d'ingénierie climatique , mais ce texte est un engagement non-contraignant et il tolère des expériences que les besoins de la recherche justifieraient ;
. le 22 mars 1985 est lancé le protocole de Montréal relatif à des substances qui appauvrissent la couche d'ozone ; il rend théoriquement impossible (pour les 196 pays signataires) l'injection d'aérosols stratosphériques et de toute autre substance susceptible d'appauvrir la couche d'ozone.
( source : Wikipédia )
jeudi 21 septembre 2017
Poussière intelligente
La poussière intelligente ("smartdust" en Anglais) est un réseau sans fil de minuscules systèmes microélectromécaniques(microelectromechanical systems en anglais, abrégés MEMS) de capteurs, de robots ou de dispositifs, qui permet de mesurer par exemple la lumière, la température ou des vibrations.
De tels systèmes peuvent théoriquement être mis en communication avec un serveur ou des systèmes d'analyse via un réseau informatique sans fil.
Cette poussière intelligente peut être dispersée dans un environnement donné (air, eau...) pour y effectuer certaines tâches simples, et renvoyer des informations (par radiofréquence).
De tels systèmes peuvent théoriquement être mis en communication avec un serveur ou des systèmes d'analyse via un réseau informatique sans fil.
Cette poussière intelligente peut être dispersée dans un environnement donné (air, eau...) pour y effectuer certaines tâches simples, et renvoyer des informations (par radiofréquence).
Filamentation laser femtoseconde IR : Interaction de deux filaments et Source de rayonnement secondaire longue distance
Extrait
Les lasers femtoseconde amplifiés permettent grâce à leur très grande puissance d’étudier de nouveaux phénomènes physiques tels que la filamentation laser, le faisceau laser se propagent alors sur de grandes distances tout en maintenant une intensité crête élevée.
Un filament laser résulte d’une compétition dynamique entre l’effet Kerr (qui focalise le faisceau) et la défocalisation due au plasma généré par l’impulsion laser. Dans ce travail de thèse la filamentation d’un faisceau laser femtoseconde IR a été étudiée aussi bien en terme de processus non-linéaire, que du point de vue d’une source de rayonnements secondaires à grande distance. Lors d’une propagation sur très grande distance (kilomètre) la formation de plusieurs filaments est inévitable. L’interaction entre deux filaments a donc été étudiée méthodiquement dans un premier temps, ainsi que l’effet de cette interaction sur les rayonnements secondaires générés par filamentation.
Puis la génération de continuum de lumière blanche et d’émission conique par filamentation laser et la possibilité de générer un continuum de lumière blanche à grande distance ont été étudiées.
La génération efficace de troisième harmonique par interaction de deux filaments est démontrée et réinterprétée. L’effet de lentille moléculaire permettant de contrôler la distance entre deux filaments se propageant colinéairement a été démontré efficace pour contrôler à distance le rayonnement THz émis par bifilamentation laser.
Un grand nombre d’applications à la filamentation laser ont été proposées et/ou démontrées pour des domaines divers tels que la télédétection de la pollution atmosphérique , l’identification de cibles à distance , la génération de rayonnement TéraHertz (THz) à distance ou le guidage de décharges électriques et même de la foudre.
( sources : https://tel.archives-ouvertes )
Les lasers femtoseconde amplifiés permettent grâce à leur très grande puissance d’étudier de nouveaux phénomènes physiques tels que la filamentation laser, le faisceau laser se propagent alors sur de grandes distances tout en maintenant une intensité crête élevée.
Un filament laser résulte d’une compétition dynamique entre l’effet Kerr (qui focalise le faisceau) et la défocalisation due au plasma généré par l’impulsion laser. Dans ce travail de thèse la filamentation d’un faisceau laser femtoseconde IR a été étudiée aussi bien en terme de processus non-linéaire, que du point de vue d’une source de rayonnements secondaires à grande distance. Lors d’une propagation sur très grande distance (kilomètre) la formation de plusieurs filaments est inévitable. L’interaction entre deux filaments a donc été étudiée méthodiquement dans un premier temps, ainsi que l’effet de cette interaction sur les rayonnements secondaires générés par filamentation.
Puis la génération de continuum de lumière blanche et d’émission conique par filamentation laser et la possibilité de générer un continuum de lumière blanche à grande distance ont été étudiées.
La génération efficace de troisième harmonique par interaction de deux filaments est démontrée et réinterprétée. L’effet de lentille moléculaire permettant de contrôler la distance entre deux filaments se propageant colinéairement a été démontré efficace pour contrôler à distance le rayonnement THz émis par bifilamentation laser.
Un grand nombre d’applications à la filamentation laser ont été proposées et/ou démontrées pour des domaines divers tels que la télédétection de la pollution atmosphérique , l’identification de cibles à distance , la génération de rayonnement TéraHertz (THz) à distance ou le guidage de décharges électriques et même de la foudre.
( sources : https://tel.archives-ouvertes )
Filamentation optique d’une impulsion laser femtoseconde dans l’air
Extrait
Principe de la filamentation laser
D’ores et déjà, les lasers dit femtosecondes sont commercialisés et couramment utilisés en laboratoire et dans l’industrie. Ce type de laser émet des impulsions ayant une durée de l’ordre de quelques dizaines de femtosecondes, à une cadence qui peut aller de quelques Hz à plusieurs MHz.
Principe de la filamentation laser
D’ores et déjà, les lasers dit femtosecondes sont commercialisés et couramment utilisés en laboratoire et dans l’industrie. Ce type de laser émet des impulsions ayant une durée de l’ordre de quelques dizaines de femtosecondes, à une cadence qui peut aller de quelques Hz à plusieurs MHz.
Chaque impulsion contient une énergie qui peut facilement atteindre 10 mJ voire quelques joules dans les installations les plus importantes. La puissance crête d’une impulsion étant donnée par la relation P ∼ WL/dt, oû WL est l’énergie de l’impulsion et dt sa durée, une impulsion de 100 fs avec un Joule d´énergie correspond donc à une puissance instantanée de dix térawatts. Or, le térawatt est comparable à la puissance électrique moyenne consommée sur la planète à chaque instant. On conçoit que la propagation d’une telle impulsion dans l’atmosphère n’obéit plus aux lois de l’optique classique, car les propriétés optiques de l’air sont modifiées en présence du champ électromagnétique intense.
Le premier effet qui va intervenir est l’effet Kerr optique, représenté schématiquement sur la Figure 2.1. L’indice de réfraction de l’air est augmenté en présence d’un champ électromagnétique, selon la relation n = n0 + n2IL(r, t). Cet effet est bien connu depuis l’avènement des lasers dans les années 60, car il apparaît facilement dans les milieux denses où l’indice non linéaire n2I est grand, même pour des puissances laser de quelques Mégawatts . Il est notamment responsable de la cassure des matériaux amplificateurs dans les chaînes laser à haute puissance.
En revanche, dans un gaz tel que l’air où l’indice est très voisin de celui du vide, la modification de l’indice est beaucoup moins importante, mais cumulés sur de longues distances, elle aboutit néanmoins à des effets spectaculaires. Pour bien comprendre cet effet cumulatif, considérons une tranche temporelle de l’impulsion au voisinage de son sommet et intéressons-nous à la répartition spatiale de l’intensité. Celle-ci (hormis cas exceptionnel) est maximale au centre du faisceau. L’effet Kerr optique réalise pour cette tranche temporelle l´équivalent d’une lentille, car le faisceau voit un indice plus important au centre de la pupille que sur les bords o`u l’intensité laser est faible.
L’effet Kerr optique fera (11 2. Filamentation optique dans l’air) donc converger un faisceau initialement collimaté. Mais cet effet est cumulatif. En effet, au cours de la progression de l’impulsion dans l’air, l’intensité sur l’axe augmente à cause de l’effet précédemment décrit, ce qui augmente à son tour la variation de l’indice et donc l’effet de convergence.
On a l’équivalent d’une série de lentilles de plus en plus convergentes. Fig. 2.1 - Schéma de l’effondrement d’un faisceau laser femtoseconde de profil gaussien par effet Kerr contrebalancé par l’ionisation de l’air. Au-dessus d’une certaine puissance initiale appelée puissance critique Pcr, l’effet Kerr pourra même se poursuivre au-delà de la limite imposée par la diffraction.
Cette puissance critique a pour expression dans le cas d’un faisceau de profils gaussiens : Pcr = 3, 77λ 2 0 8πn0n2 = 3, 2 GW où n0 est l’indice linéaire de l’air, λ0 = 800 nm est la longueur d’onde du laser et n2 = 3, 2.10−19 cm2 .W−1 est l’indice non linéaire de l’air responsable de l’effet Kerr. On a donc affaire à un effet catastrophique et l’on s’attend à un effondrement du faisceau, car même la diffraction naturelle serait incapable d’arrêter le processus. Cependant, avant d’atteindre cette limite où le diamètre du faisceau devient inférieur à la longueur d’onde, l’intensité devient tellement importante que d’autres effets, fortement improbables à plus faible intensité, entrent en jeu. L’effet principal est l’ionisation multi-photonique.
Le champ électrique associé à l’impulsion laser devient suffisamment important pour arracher des électrons périphériques aux molécules d’oxygènes et d’azotes contenues dans l’atmosphère. Un plasma se forme alors rendant l’air électriquement conducteur.
( source : https://hal.inria )
vendredi 15 septembre 2017
lundi 11 septembre 2017
Inscription à :
Articles (Atom)