31 octobre 2010

30 octobre 2010

29 octobre 2010

Journal

Le 29/10/2010 , 9 heures 09 . Les agressions au laser sont nombreuses , des pilotes d'avions ont été éblouit avec des tirs de laser . La Dépêche à publier le 15/05/2010

Blagnac. Qui éblouit les pilotes avec des tirs de laser ?

aéronautique

En phase d'atterrissage sur l'aéroport de Toulouse-Blagnac, plusieurs avions sont été la cible de lasers éblouissants./ Photo DDM
En phase d'atterrissage sur l'aéroport de Toulouse-Blagnac, plusieurs avions sont été la cible de lasers éblouissants./ Photo DDM
En phase d'atterrissage sur l'aéroport de Toulouse-Blagnac, plusieurs avions sont été la cible de lasers éblouissants./ Photo DDM
Depuis de nombreux mois, les pilotes de ligne se préparant à atterrir sur les pistes de l'aéroport Toulouse-Blagnac subissent régulièrement des agressions au rayon laser. Nombre d'entre eux ont été éblouis, mais aucun n'aurait été blessé par ces puissantes lumières. Le phénomène inquiète au point que les gendarmes des transports aériens (GTA) ont ouvert une enquête.
« Ce sont des gamins équipés de pointeurs laser qui s'amusent. Mais, ils sont particulièrement difficiles à repérer et donc à arrêter », explique un enquêteur.
Ces appareils ressemblant à de simples stylos sont habituellement utilisés par des professionnels pour mener une conférence ou dans des planétariums. Mais, les lasers manipulés par les pointeurs d'avions affichent une puissance largement supérieure. Non homologués en France, ils sont disponible pour quelques dizaines d'euros sur le Net. Ces appareils font partis de la classe III des lasers (1), et ont une portée dépassant les 8 km. Particulièrement dangereux, ils peuvent brûler une rétine en quelques secondes.
« En plein vol, de nuit alors qu'on entame les procédures d'atterrissage, nous pouvons être momentanément aveuglés par la lueur rouge miroitant sur la fenêtre de notre cockpit. », déplore un pilote d'Air France.
En Midi-Pyrénées, le premier tir aurait été recensé, en 2008, sur un avion de ligne survolant Montauban, dans le Tarn-et-Garonne.
« On nous avait demandé d'enquêter, de voir si une boîte de nuit ou une entreprise disposait de rayon puissant. On n'imaginait pas que cela pouvait provenir d'un stylo pointeur », assure un enquêteur montalbanais.
Depuis le début 2010, les tirs se sont multipliés sur les avions qui amorcent un atterrissage sur l'aéroport de Blagnac. Policiers et gendarmes toulousains ont donc été chargés d'ouvrir l'œil afin de tenter de débusquer les petits malins jouant du pointeur.
Récemment, les services de la sécurité publique de Toulouse ont interpellé, dans le quartier de la Reynerie, un jeune homme qui, de nuit, s'amusait avec un pointeur laser de classe III. Un appareil que son frère lui avait rapporté quelques jours plus tôt d'un voyage en Thaïlande. Il ne pouvait donc pas être un pointeur d'avion.
(1).-Les lasers sont classés en quatre classes et répartis en six familles, en fonction de la puissance et la longueur d'onde d'émission du laser. À partir de la classe III, les rayons peuvent présenter un danger pour la vue et provoquer des brûlures irréparables de la rétine.

« Ils compromettent la sécurité »

Au syndicat national des pilotes Air France ALPA on connaît bien les « tirs » de rayons laser. Régulièrement, à Blagnac, mais aussi dans de très nombreux aéroports de France et du monde entier, des pilotes sont éblouis par des rayons rouges ou verts. Porte-parole du syndicat national des pilotes Air France ALPA, Erick Derivry, pilote lui-même, assure : « Ces tirs de rayons laser ne sont pas des histoires. » Il connaît d'ailleurs bien le problème et les conséquences que de tels agissements peuvent entraîner dans les cabines de pilotage.
L'aéroport de Toulouse-Blagnac est-il le seul où l'on constate des agressions au pointeur laser ?
Sûrement pas ! À l'étranger, comme en Allemagne par exemple, des petits rigolos s'amusent également à éblouir les pilotes. Ils pointent tout simplement les avions qui sont en phase d'approche finale. Les pilotes se préparent à atterrir quand ils reçoivent un rayon rouge ou vert. Dans de très nombreux aéroports, ce « jeu » est devenu à la mode.
Quelles peuvent être les conséquences sur la sécurité ?
Ils compromettent la sécurité des vols. Ces rayons, puissants, sont extrêmement éblouissants, surtout la nuit. La rétine conserve un long moment la trace de ces rayons très fins. Ils modifient l'équilibre du pilote. Je n'ai jamais été victime d'une telle chose, mais de nombreux collègues en ont fait les frais.
Les aéroports ont-ils pris des dispositions pour lutter contre ce phénomène ?
Quand les pilotes préparent leur vol, on leur fournit des informations sur les aéroports de départ et d'arrivée. On y trouve entre autres des avertissements sur ces rayons dans de très nombreux aéroports du monde. De plus, si nous sommes victimes de ces lasers, nous devons le signaler immédiatement aux contrôleurs. Ils doivent alors alerter les forces de l'ordre locales afin de leur permettre d'arrêter les gens qui pointent ainsi les avions. Propos recueillis par F.V.

Les policiers enquêtent au sol et dans les airs

La brigade de la police aéronautique de Midi-Pyrénées suit de très près ces affaires de tirs de laser. Réalisés la nuit, ils perturbent les pilotes lors des phases d'atterrissage. « Quand les avions sont bas, cela peut se révéler très dangereux, déplore un responsable de la brigade. Le pilote peut-être aveuglé et, comme cela s'est déjà produit ailleurs qu'à Blagnac, remettre les gaz et ne pas atterrir. Dans tous les cas, cela crée un stress qui peut remettre en cause la sécurité du vol ».
Ce service de police assure que « plusieurs dizaines de tirs de ce type leur ont déjà été signalées à Toulouse ». En fin d'année dernière, les policiers toulousains, en liaison avec la brigade aéronautique, ont effectué un vol de nuit pour tenter de repérer d'où venaient ces tirs ». Ils ont réussi à déterminer que ce soir-là, ils provenaient du parking d'un supermarché. Bien que rapidement sur les lieux, leurs collègues n'ont rien trouvé.
« Des pilotes qui étaient en train de faire tourner leur avion pour préparer leur approche sur Blagnac, ont eu la désagréable surprise d'être subitement éblouis », poursuit le chef de la brigade aéronautique. Pour l'heure, les investigations se poursuivent pour mettre un terme à ces tirs.

28 octobre 2010

Journal

Le 28/10/2010 , 9 heures 15 . Leur système se décompose en trois parties :

- Acoustique 
- Induction électromagnétique
- Hypnose

- Acoustique : pour stimuler le système auditif  ( onde de pression acoustique )

- Induction électromagnétique : pour stimuler le système nerveux cutané et sous-cutané ( onde électromagnétique pulsée et ciblée )

- hypnose : influence exercée sur le comportement par la stimulation des nerfs auditifs et des nerfs cutanés et sous-cutanés .

27 octobre 2010

Accélération laser-plasma

L'accélération laser-plasma est un thème de recherche visant à développer des sources de particules ayant des propriétés inédites. Actuellement, l'accélération de particules est très développée sur des accélérateurs de particules conventionnels. Néanmoins, le champ accélérateur dans ces structures radiofréquences est limité à des valeurs de l'ordre de 50 MV/m. Pour atteindre des énergies plus élevées, afin d'étudier des phénomènes nouveaux, les scientifiques ont été contraints de construire des accélérateurs gigantesques (27km pour le LHC).
Il existe aussi d'autres méthodes pour accélérer des particules. Cet article présente notamment les mécanismes d'accélération de particules en utilisant l'interaction d'un laser avec la matière. En focalisant un laser de puissance sur une cible, il est possible de créer des faisceaux de particules aux propriétés particulièrement originales (brièveté, énergie, émittance, charge). Lors de cette interaction du faisceau laser avec la matière, des champs électriques extrêmes sont produits. Atteignant des valeurs crêtes de l'ordre du TV/m, soit plus de 10 000 fois plus intenses que les champs électriques produits dans les structures RF (radiofréquence) des accélérateurs, les particules initialement au repos, quittent la cible en subissant une accélération fulgurante, de l'ordre de 1022g (g=accélération de la pesanteur terrestre). Ces nouvelles sources ouvrent la voie à de nombreuses applications : médicale, nucléaire, chimie et biologie. Elles devraient de plus permettre d'étudier des phénomènes nouveaux sur des échelles de temps ultra-courtes (100 fs).
Les expériences d'interaction laser-plasma permettent d'accélérer deux types de particules : les électrons et les protons. Ces deux disciplines sont présentées dans la suite.

Faisceaux d'électrons 

Principes et définition des termes

Les physiciens américains Tajima et Dawson ont proposé en 1979 d'utiliser des plasmas créés par laser pour accélérer des particules [1]. Dans le cas de l'accélération d'électrons, la cible dans laquelle se propage le laser est un gaz. L'utilisation d'un gaz léger est préférable (typiquement l'hélium) car ainsi le champ électrique lié au laser ionise totalement les atomes du gaz. La partie intense du laser se propage dans un milieu homogène composé d'électrons libres et d'ions, ayant un charge globalement neutre. C'est ce que l'on nomme le plasma.
Il faut bien comprendre que le laser n'accélère pas directement les particules dans la direction de propagation de l'impulsion lumineuse. En effet, les électrons sont soumis principalement au champ électrique du laser. Dans le cas des ondes électro-magnétiques, le champ électrique est perpendiculaire à la trajectoire de l'impulsion laser et oscille à la fréquence laser. Ainsi, le champ électrique du laser ne contribue pas directement à l'accélération d'électrons à de hautes énergies.
Par contre, le passage de l'impulsion laser perturbe la densité électronique. Cette force liée au laser s'appelle la force pondéromotrice. Elle correspond à la partie basse fréquence de la variation d'intensité laser. On la nomme aussi pression de radiation du laser. Suite à ces déplacements, le cortège d'électrons se réorganise sous l'effet des répulsions coulombiennes. Ceci provoque des oscillations dans la densité électronique. Le laser permet ainsi de générer un onde plasma qui se propage dans la direction du laser à une vitesse égale à la vitesse de groupe du laser dans le milieu. Cette onde plasma correspond esentiellement à des champs électriques longitudinaux. Ces champs sont adaptés à l'accélération d'électrons à de hautes énergies.
En bref, le laser génère une onde plasma dans son sillage dans laquelle l'accélération de particules à de hautes énergies est possible. Une analogie hydrodynamique simple pour comprendre ce mécanisme est la suivante : imaginez un bateau qui se déplace à la surface d'un lac. Ce bateau provoque des vagues dans son sillage. Un surfeur pourrait en profiter pour gagner de la vitesse et voyager à la vitesse de l'onde. En général, l'accélération se fait par piégeage dans la structure d'onde. En effet, il existe des conditions sur la vitesse initiale du surfeur pour que le piégeage ait lieu. S'il ne fait aucun effort pour prendre la vague, elle passe sous lui et s'éloigne. A l'inverse, s'il va trop vite, il dépasse la vague.
En termes scientifiques, on parle de potentiels. Des calculs faisant intervenir la transformation de Lorentz permettent de déterminer les potentiels minima et maxima en fonction de l'intensité du laser. Ces calculs sont effectués en géométrie 1D en supposant le champ laser suffisamment faible pour effectuer des développements limités [2].
La vitesse de phase de l'onde plasma étant égale à la vitesse de groupe de l'onde laser, ces vitesses sont proches de la vitesse de la lumière dans le vide (plasma sous critique). Des électrons injectés à de grandes vitesses peuvent ainsi être piégés par l'onde et y être accélérés. L'énergie maximale des électrons est d'autant plus grande que la vitesse des ondes plasma est grande, i.e. que la densité électronique est faible. A titre d'exemple, pour un plasma à la densité de 1019/cm3 et pour une onde plasma d'amplitude relative de 100%, le champ électrique est de l'ordre de 100 GV/m, ce qui permet d'accélérer à de haute énergies sur de petites distances (millimétriques).

Mécanismes d'accélération 

Différentes methodes ont été proposées pour accélérer les électrons par laser. Elles dérivent toutes du mécanisme précédemment décrit. Elles correpondent à peu près aux différentes étapes franchies au fur et à mesure que la durée des impulsions laser à diminué par rapport à la longueur d'onde plasma. En voici un résumé :

Le battement d'ondes 

Ce mécanisme nécessite deux impulsions laser contre-propagatives de pulsation voisine ω1 et ω2 dont la différence de fréquence est proche de la fréquence plasma (ωp ~ ω1-ω2). Le recouvrement de ces deux impulsions laser génère un battement d'ondes résonnant avec l'onde plasma. L'amplitude de l'onde plasma peut atteindre environ 30% de la densité électronique initiale, ce qui limite le champ accélérateur à quelques GV/m. En 1993, Clayton et al. ont obtenu une énergie de sortie de 9.1 MeV pour des électrons injectés à 2.1 MeV initialement dans cette onde plasma [3]. A cette époque, la durée des impulsions laser était de l'ordre de 300ps (largeur à mi-hauteur). Des expériences dans ce régime de battement d'onde ont aussi été menées au UCLA [4] (gain d'énergie de 30 MeV), à l'Ecole Polytechnique [5] et à Osaka [6]. Les mécanismes physiques qui limitent l'amplitude des ondes plasma dans ce régime sont le mouvement des ions pour des impulsions longues, le déphasage relativiste de l'onde plasma pour des intensités relativistes ainsi que la croissance d'instabilités.

Le sillage auto-résonant 

L'apparition de laser de forte intensité et de durée d'impulsion courte (500 fs) contenant une forte énergie (100 J) ont donnée accès aux comportements non-linéaires des plasmas. Les effets combinés de l'autofocalisation et de l'automodulation de l'enveloppe laser par la perturbation de densité électronique provoquent la modulation de l'impulsion laser en une succession d'impulsions laser séparés par la longueur d'onde plasma. On obtient ainsi des impulsions résonantes avec l'onde plasma, comme dans le cas du battement d'onde précédemment décrit. Sprangle et al [7], Antonsen et al [8], Andreev et al [9] ont étudié de facon théorique ce régime. Ils ont montré que lorsque la durée de l'impulsion est supérieure à la période plasma et lorsque la puissance laser dépasse la puissance critique pour l'autofocalisation, une impulsion laser unique se décompose en un train d'impulsions résonantes avec la période plasma.
Lors des expériences menées par Modena et al [10], l'amplitude du plasma croît jusqu'à la limite de déferlement, qui correspond à l'instant où l'amplitude des oscillations des électrons du plasma est tellement importante que la force de rappel ne compense plus leur mouvement. A ce moment, les électrons du plasma sont automatiquement injectés dans l'onde plasma et gagnent de l'énergie cinétique. On peut ici reprendre l'analogie hydrodynamique pour expliquer ce mécanisme d'injection : lorsque une vague approche du rivage, sa crète devient piquée, la vague se creuse puis déferle. L'écume blanche de la vague correspond aux molécules d'eau qui ont gagné de la vitesse. Aucune injection externe n'est ici nécessaire pour produire un faisceau d'électrons. Dans l'article de Modena et al, ils ont obtenu des énergies atteignent 44 MeV. Ce régime fut aussi atteint par le CUOS aux USA [11] et au NRL [12]. Cependant, le chauffage du plasma par ces longues impulsions laser provoquent le déferlement avant d'atteindre la limite maximale du champ électrique calculée pour les plasmas froids. Le champ électrique atteint typiquement 100 GV/m.

Le sillage forcé 

Le développement de lasers très intenses (1018W/cm2), très courts a permis de franchir une nouvelle étape et de mettre en évidence un mécanisme d'accélération plus efficace : le sillage forcé. Ces lasers, de plus faible énergie, ont une cadence de tir plus élevée (10 tir/s au lieu d'un tir toutes les 20 minutes) et ainsi ils permettent d'envisager des applications futures à ces nouvelles sources.
Ici, les ondes sont amplifiées à des niveaux d'amplitudes extrêmes (régime non-linéaire) produisant un paquet d'électrons très bref et très énergétique. Il n'est alors plus nécessaire d'injecter des électrons dans le plasma. Ce sont les électrons du plasma eux-mêmes qui se font piéger. Dans ce régime d'impulsion courte, le chauffage du plasma est bien moins important, et les ondes peuvent atteindre des amplitudes plus élevées proches de la valeur de déferlement froid. Pour une densité électronique de 2x1019 /cm3, le champ électrique atteint dans ce régime une valeur extrême de l'ordre du TV/m.
Au LOA[1], des électrons ont été accélérés à 200 MeV en 2 mm de plasma [13]. Grâce à une interaction avec l'impulsion laser réduite, une émittance normalisée de 3 pi mm.mrad a été mesurée pour les électrons à 55 +-2 MeV, ce qui est comparable aux performances des accélérateurs conventionnels [14].
Des faisceaux d'électrons avec des spectres maxwelliens, produits par des faisceaux ultra courts ont été produits dans de nombreux laboratoires dans le monde : au LBNL [15], au NERL [16], et en Europe par exemple au LOA[2] [17], ou au MPQ en Allemagne [18].

Régime de la bulle 

Ce dernier terme cache une révolution dans le domaine de l'accélération d'électrons par interaction laser-plasma : pour la première fois des faisceaux d'électrons avec un spectre quasi-monoénergétique ont été produits. Jusqu'à présent, les faisceaux d'électrons avaient toujours un spectre maxwellien (décroissance exponentielle). La présence d'un pic à haute énergie permet d'envisager une multitude d'applications car ses propriétés sont excellentes en sortie de plasma et restent excellentes au cours de la propagation du faisceau. Ce n'était pas le cas avec un faisceau maxwellien : le filtrage par un monochromateur aurait considérablement diminué le flux d'électrons à haute énergie, faisant chuter le rendement de l'accélération.
En réalité, ces résultats avaient été prédits par des simulations PIC 3D qui ont donné naissance à cette dénomination : Régime de la bulle [19]. Dans ce régime, les dimensions du laser sont plus courtes que la longueur d'onde plasma dans les trois directions de l'espace. Ainsi, l'impulsion laser focalisée ressemble à une bille de lumière d'un rayon typique de 10 microns. La force pondéromotrice de cette impulsion est tellement forte qu'elle expulse les électrons à son passage. Derrière l'impulsion laser, on obtient alors une cavité entourée d'une sur-densité électronique. A l'arrière de cette structure des électrons sont injectés vers la cavité et accélérés dans cette structure. Cette cavité est attractive pour les électrons, car elle contient les ions dont les déplacements sont négligeables à ces échelles de temps. La signature de ce régime est l'apparition d'un spectre d'électrons quasi-monoénergétique. Ceci contraste avec les résultats précédents. Ceci provient de la combinaison de different facteurs :
  • L'injection des électrons dans la cavité est différente du déferlement observé dans le sillage auto-modulé et le sillage forcé (cela ne provient pas du déferlement de la structure accélératrice).
  • La structure accélératrice reste stable durant l'accélération aussi longtemps que le laser est suffisamment intense.
  • Les électrons piégés se trouvent derrière l'impulsion laser. Ils n'interragissent plus avec le champ electrique transverse du laser.
Plusieurs laboratoires ont obtenu des structures quasi-monoénergétiques : en France, en Angleterre et aux États-Unis, puis en Allemagne et au japon avec des conditions expérimentales assez différentes (la durée d'impulsion était plus longue que la période plasma). La description de ces résultats apparaît dans la section suivante.

( source : Wikipédia )

Vidéo : intrusion dans le logement d'un rayonnement laser et d'un rayonnement plasma

Champ de vecteurs


Un exemple de champ de vecteurs, de la forme (-y,x)

Autre exemple

Le flux d'air autour d'un avion est un champ tridimensionnel (champ des vitesses des particules d'air), ici visualisé par les bulles qui matérialisent les lignes de courant.
En mathématiques, un champ de vecteurs ou champ vectoriel est une fonction qui associe un vecteur à chaque point d'un espace euclidien ou plus généralement d'une variété différentielle[1].Pour la résolution des équations différentielles autonomes du 1er ordre, on utilise le champ des directions (appelé en physique champ des vitesses) qui représente les dérivées tangentes à la trajectoire de ces équations, ce qui permet de la tracer.
Les champs de vecteurs sont souvent utilisés en physique, pour modéliser par exemple la vitesse et la direction d'un fluide en mouvement dans l'espace, ou la valeur et la direction d'une force, comme la force magnétique ou gravitationnelle, qui évoluent points par points.

( source : Wikipédia )

Courant induit de 4,14 Volts efficaces à la fréquence de 50 Hz

Journal

Le 27/10/2010 , 8 heures 36 . La pression de radiation et l'induction magnétique ont été , encore cette nuit , très intenses sur le corps , La violence physique et le harcèlement continuent avec force .

26 octobre 2010

Machine de Turing - Wikipédia

Machine de Turing - Wikipédia

Test de Turing - Wikipédia -

Le test de Turing est une proposition de test d’intelligence artificielle ayant la faculté d’imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publication Computing machinery and intelligence, ce test consiste à mettre en confrontation verbale un humain avec un ordinateur et un autre humain à l’aveugle. Si l’homme qui engage les conversations n’est pas capable de dire qui est l’ordinateur et qui est l’autre homme, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’homme essaieront d’avoir une apparence sémantique humaine. Pour conserver la simplicité et l’universalité du test, la conversation est limitée à un échange textuel entre les protagonistes.

Histoire 

Le test a été inspiré d’un jeu d’imitation dans lequel un homme et une femme vont dans des pièces séparées et les invités tentent de discuter avec les deux protagonistes en écrivant des questions et en lisant les réponses qui leur sont renvoyées. Dans ce jeu l’homme et la femme essayent de convaincre les invités qu’ils sont tous deux des femmes.
À l’origine Turing a imaginé ce test pour répondre à sa question existentielle : « une machine peut-elle penser ? », en donnant une interprétation plus concrète de sa question.
Une idée intéressante de sa proposition de test est que les réponses doivent être données dans des intervalles de temps définis. Il imagine que cela est nécessaire pour que l’observateur ne puisse pas établir une conclusion qui soit fondée sur le fait qu’un ordinateur puisse répondre plus rapidement qu’un homme, surtout sur des questions de mathématiques.

Objections et réponses

Turing lui-même a suggéré de nombreuses objections qui peuvent être faites au test et en a donné une réponse dans sa publication initiale :
  1. Objection théologique : la pensée serait le fait inné de l’âme dont l’homme serait seul doté, et ainsi la machine ne saurait pas penser. Turing répond qu’il ne voit aucune raison pour laquelle Dieu ne pourrait donner à un ordinateur une âme s’il le souhaitait.
  2. Argument de la conscience : cet argument suggéré par le professeur Geoffrey Jefferson dit que « aucune machine ne peut écrire un sonnet ou composer un concerto à cause de l’absence d’émotion, et même en alignant des notes au hasard, on ne peut pas dire qu’une machine puisse égaler un cerveau humain »[1]. La réponse de Turing est que nous les hommes n’avons aucun moyen de connaître véritablement l’expérience des émotions de tout autre individu que soi-même, et donc que nous devrions accepter le test[2].
  3. Originalité : une autre objection, très controversée, est que les ordinateurs seraient incapables d’avoir de l’originalité. Turing répond que les ordinateurs peuvent surprendre les humains, en particulier lorsque les conséquences de différents faits ne sont pas immédiatement reconnaissables.
  4. Formalisme : cet argument dit que chaque système gouverné par des lois peut être prévisible et donc pas réellement intelligent. Turing répond que ceci revient à confondre des lois du comportement avec des règles générales de conduite.
  5. Perception extra-sensorielle : Turing semble suggérer qu’il y a des preuves de perceptions extra-sensorielles. Cependant il estime que des conditions idéales peuvent être créées, dans lesquelles ces perceptions n’affecteraient pas le test et ainsi seraient négligeables.
La Pièce Chinoise
Dans un article daté de 1980, le philosophe John Searle remet en cause la puissance du test de Turing, en invoquant la limite des ordinateurs à la syntaxe. Selon l'auteur, la sémantique, caractéristique de la pensée humaine, ne saurait être réduite à la manipulation de symboles selon des règles syntaxiques déterminées, ce qui semble être le propre de la machine. Pour illustrer ses propos, il présente l'expérience de pensée de la Pièce Chinoise : supposez que vous êtes à l'intérieur d'une pièce contenant des symboles chinois ainsi qu'un manuel comportant des règles type "questions-réponses". Lorsqu'un Chinois, à l'extérieur, vous envoie un message par symbole, vous pourrez, grâce au manuel, fournir une réponse adéquate et donner l'impression à votre interlocuteur de savoir parler sa langue, sans qu'il soit nécessaire que vous la compreniez.

Prédictions et tests 

Turing a prédit que les ordinateurs seraient un jour capables de passer le test. En fait, il estimait qu’en l’an 2000 des machines avec 128 Mo de mémoire seraient capables de tromper environ 30 % des juges humains durant un test de 5 minutes. Il a prédit que les humains à ce moment-là, ne verraient pas l’expression « machine intelligente » comme contradictoire. Il a aussi prédit que l’acquisition par apprentissage des ordinateurs serait aussi importante pour construire des ordinateurs performants, une affirmation qui est aujourd’hui considérée comme plausible par les chercheurs contemporains en intelligence artificielle.
En 2004, aucun ordinateur n’a réussi le test de Turing en tant que tel. Des programmes de conversation simple tels que ELIZA ont trompé des humains croyant parler à d’autres humains, avec des expressions informelles, comme le bot AOLiza. Malgré cela, de tels « succès » ne sont pas comparables au test de Turing. La plupart du temps, l’homme n’a pas de raison de suspecter qu’il ne parle pas avec un humain, alors que pour le test de Turing le juge essaye de déterminer de façon active la nature de l’entité avec laquelle il converse. Les cas référencés concernent notamment l’IRC, où le fait d’engager une conversation futile et sans signification, est courant. De plus, beaucoup de participants à l’IRC conversent dans une langue autre que leur langue maternelle, le plus souvent l'anglais, ce qui rend encore plus facile le fait d’être trompé par un bot, en pensant ne pas tout comprendre ou encore en n’étant pas suffisamment informé de l’existence même des bots.
Le prix Loebner est une compétition annuelle qui permet de déterminer le meilleur programme capable de réussir le test de Turing. Bien que le prix soit attribué chaque année au logiciel jugé le plus proche de la conversation humaine, dont ALICE a été vainqueur à plusieurs reprises, le prix attribué au système qui passerait le test de Turing avec succès n’a jamais été attribué.

Origine du nom 

Dans la publication de Turing, le terme « Jeu d’imitation » est utilisé pour sa proposition de test. Le nom de « Test de Turing » semble avoir été inventé en 1968 par Arthur C. Clarke dans ses nouvelles de science-fiction dont a été tiré le film 2001 : L'Odyssée de l'espace.

Les faiblesses du test 

Le test de Turing est fondée sur l'hypothèse que les êtres humains peuvent juger de l'intelligence d'une machine en comparant son comportement avec le comportement humain. Chaque élément de cette hypothèse a été remis en question: le jugement de l'humain, la valeur de la comparaison qui est de seulement comparer le comportement et la valeur de la comparaison avec un humain. Pour ces raisons et d'autres considérations, certains chercheurs en intelligence artificielle ont mis en doute l'utilité de l'essai.

Intelligence Humaine contre l'intelligence en général 


Intelligence Humaine contre l'intelligence en général
Cela ne teste pas directement si l'ordinateur se comporte de façon intelligente, cela teste seulement si l'ordinateur se comporte comme un être humain. Étant donné que le comportement intelligent et les comportements humains ne sont pas exactement la même chose, le test ne permet pas de mesurer avec précision l'intelligence de deux façons :
  • Certains comportements humains sont stupides : Le test de Turing exige que la machine puisse exécuter tous les comportements humains, indépendamment de savoir s'ils sont ou non intelligents. Cela teste même des comportements que l'on ne peut pas considérer comme intelligents du tout, tels que la susceptibilité à des insultes, la tentation de mentir ou, tout simplement, une fréquence élevée d'erreurs de frappe. Si une machine ne peut imiter le comportement humain dans le détail, comme faire des erreurs de frappe, l'intelligence échoue au test, indépendamment de la façon dont elle peut être intelligente.
    • Cette objection a été soulevée par The Economist , dans un article intitulé « Artificial Stupidity », publié peu après la première compétition Loebner en 1992. L'article notait que la victoire du gagnant de la première compétition Loebner était due, au moins en partie, à sa capacité à « imiter les erreurs de frappe de l'homme ». Turing lui-même a suggéré que les programmes devraient ajouter des erreurs dans leur sortie, de manière à être de meilleurs « joueurs » dans la partie. [3]
  • Certains comportements intelligents ne sont pas humains : Le test de Turing ne vérifie pas la présence, ou l'absence, d'un comportement intelligent, tel que la capacité de résoudre des problèmes difficiles ou de trouver des idées originales. En fait, elle exige expressément la tromperie de la part de la machine : si la machine est plus intelligente qu'un être humain, il lui faut délibérément éviter de paraître trop intelligente. Si elle était capable de résoudre un problème de calcul qui serait impossible pour un humain, alors l'interrogateur saurait que le programme n'est pas humain, et la machine ne satisferait pas au test.

Réelle intelligence vs intelligence simulée 

Cela ne teste que la façon dont le sujet agit — le comportement extérieur de la machine. À cet égard, cela assume une vision comportementaliste ou fonctionnaliste de l'intelligence. L'exemple de ELIZA a suggéré qu'une machine passant le test peut être en mesure de simuler le comportement conversationnel de l'homme par la suite d'une simple (mais vaste) liste de règles mécaniques, sans penser, par automatisme.
John Searle avait fait valoir que le comportement externe ne peut pas être utilisé pour déterminer si une machine pense « réellement » ou est simplement en train de « simuler l'action de penser ». [4]
Turing anticipa ces critiques dans son article original, [5] écrit que : «  Je ne veux pas donner l'impression que je pense qu'il n'y a aucun mystère quant à la conscience. Il y a, par exemple, en quelque sorte un paradoxe lié à toute tentative visant à la localiser. Mais je ne pense pas que ces mystères aient nécessairement besoin d'être résolus avant que nous puissions répondre à la question qui nous préoccupe dans cet article.  »

Naïveté des interrogateurs et le sophisme anthropomorphique 

Le test de Turing suppose que l'interrogateur soit assez sophistiqué pour déterminer la différence entre le comportement d'une machine et le comportement d'un être humain, bien que les critiques soutiennent que ce n'est pas une compétence que la plupart des gens ont. Les compétences précises et les connaissances requises par l'interrogateur ne sont pas précisées par Turing dans sa description de l'essai, mais il n'a pas utilisé le terme d'« interrogateur moyen » : « L'interrogateur moyen n'aurait pas plus de 70 pour cent de chances de faire l'identification exacte après cinq minutes d'interrogation »[6]. Shah & Warwick (2009C) montrent que les experts sont dupes et que la stratégie interrogateur, « pouvoir » contre « solidarité » affecte une identification correcte, ce dernier étant plus efficace [7].
Les agent conversationnels tels que ELIZA ont à maintes reprises dupé des naïfs en leur faisant croire qu'ils sont en communication avec des êtres humains. Dans ces cas-là, l'« interrogateur » n'est même pas conscient de la possibilité qu'il soit en interaction avec un ordinateur. Pour réussir a prendre apparence humaine, il n'est pas nécessaire pour la machine d'avoir tous les renseignements et que seule une ressemblance superficielle du comportement humain est nécessaire. La plupart des gens conviennent qu'un « vrai » test de Turing n'a pas été adopté dans des cas « mal informés » tels que celui-ci.
Lors des premières versions du prix Loebner, des interrogateurs « non-sophistiqué » furent utilisés, et ils ont été facilement bernés par les machines. Depuis 2004, les organisateurs du Prix Loebner ont déployé des philosophes, des informaticiens et des journalistes parmi les interrogateurs. Certains d'entre eux ont été trompés par des machines, voir Shah & Warwick (2009a) : Test de Turing cinq minutes, en parallèle jumelé en jeu de l'imitation (à paraître) Kybernetes Turing Test Special Issue.
Michael Shermer souligne que les êtres humains choisissent systématiquement de considérer les objets non-humain par anthropomorphisme, une erreur appelée également sophisme anthropomorphique : ils parlent à leur voiture, attribuent la volonté et des intentions aux forces naturelles (par exemple, « la nature a horreur du vide »), et adorent le soleil comme étant un être humain ou comme un être doué d'intelligence. Si le test de Turing est appliqué à des objets religieux, Shermer fait valoir que des statues inanimées, des roches et des lieux ont toujours réussi le test, dans une certaine mesure, tout au long de l'histoire. [8] Cette tendance humaine à l'anthropomorphisme abaisse la barre pour le test de Turing, à moins que les interrogateurs soient spécifiquement formés pour l'éviter.

Irréalisme et inutilité : le test de Turing et la recherche en IA 

Les chercheurs en intelligence artificielle font valoir que tenter de faire passer le test de Turing est simplement une distraction au lieu de se consacrer dans des recherches fructueuses. En effet, le test de Turing n'est pas un foyer actif de beaucoup d'efforts académiques ou commerciaux, comme Stuart Russell et Peter Norvig écrivent : « Les chercheurs en AI ont consacré peu d'attention à passer le test de Turing ». [9] Il y a plusieurs raisons :
Premièrement, il existe des façons plus faciles de tester leurs programmes. La plupart des recherches actuelles dans les domaines liés à l'AI visent des objectifs modestes mais précis, tels que l'ordonnancement automatisé, la reconnaissance d'objet ou la logistique. Afin de tester l'intelligence des programmes qui résolvent des problèmes, les chercheurs en intelligence artificielle leur donnent la tâche à exécuter directement, plutôt que de passer par le détour qui est de poser la question dans un chat peuplés avec des ordinateurs et des personnes.
Deuxièmement, la création de la vie comme les simulations d'êtres humains est un problème difficile en soi qui n'a pas besoin d'être résolu pour atteindre les objectifs fondamentaux de la recherche en AI. Des personnages humains artificiels crédibles peuvent être intéressants dans une œuvre d'art, un jeu vidéo ou une interface utilisateur sophistiquée, mais cela ne fait pas partie de la science de la création de machines intelligentes, qui est la science des machines qui résolvent des problèmes liés à l'intelligence. Russell et Norvig suggèrent une analogie avec l'histoire de l'aviation : les avions sont testés en fonction de leur vol, non pas en les comparant à des oiseaux. Les essais sur l'aéronautique, développent-ils, ne définissent pas le but de leur domaine comme une course à l'invention de machines volant si similairement à un pigeon que leurs individus s'y tromperaient. [9]
Turing n'avait pas dans l'intention que son test soit utilisé comme une pratique compétente à la « mesure » de l'intelligence des programmes artificiels, il voulait donner un exemple clair et compréhensible pour contribuer à la discussion sur la philosophie de l'intelligence artificielle. [10] En tant que tel, il n'est pas surprenant que le test de Turing ait eu si peu d'influence sur les recherches en Intelligence Artificielle. La philosophie de l'I.A., en écrivit John McCarthy, « a peu de chances d'avoir plus d'effet sur la pratique de la recherche en I.A. que la philosophie de la science en a généralement sur la pratique de la science ». [11

   
Avec le  dispositif  optique ( radar optique ) qui émet le rayonnement électromagnétique pulsé et ciblé  , il y a aussi un système  de même type que le test de Turing .


25 octobre 2010

Algorithmique

L'algorithmique est l’ensemble des règles et des techniques qui sont impliquées dans la définition et la conception d'algorithmes, c'est-à-dire de processus systématiques de résolution, par le calcul, d'un problème permettant de décrire les étapes vers le résultat. En d'autres termes, un algorithme est une suite finie et non-ambiguë d’opérations permettant de donner la réponse à un problème.

Vocabulaire 

Le substantif algorithmique désigne la méthode utilisant des algorithmes. Le terme est également employé comme adjectif.
Un algorithme énonce une résolution sous la forme d’une série d’opérations à effectuer. La mise en œuvre de l’algorithme consiste en l’écriture de ces opérations dans un langage de programmation et constitue alors la brique de base d’un programme informatique.
Les informaticiens utilisent fréquemment l’anglicisme implémentation pour désigner cette mise en œuvre. L’écriture en langage informatique est aussi fréquemment désignée par le terme « codage », qui n’a ici aucun rapport avec la cryptographie, mais qui se réfère au terme « code source » pour désigner le texte, en langage de programmation, constituant le programme. L’algorithme devra être plus ou moins détaillé selon le niveau d’abstraction du langage utilisé ; autrement dit, une recette de cuisine doit être plus ou moins détaillée en fonction de l’expérience du cuisinier.

Quelques indications sur l’efficacité des algorithmes 

Souvent, l’efficacité d’un algorithme n’est connue que de manière asymptotique, c’est-à-dire pour de grandes valeurs du paramètre n. Lorsque ce paramètre est suffisamment petit, un algorithme de complexité supérieure peut en pratique être plus efficace. Ainsi, pour trier un tableau de 30 lignes (c’est un paramètre de petite taille), il est inutile d’utiliser un algorithme évolué comme le Tri rapide (l’un des algorithmes de tri les plus efficaces en moyenne) : l’algorithme de tri le plus trivial sera suffisamment efficace.
Entre deux algorithmes dont la complexité est identique, on cherchera à utiliser celui dont l’occupation mémoire est la plus faible. L’analyse de la complexité algorithmique peut également servir à évaluer l’occupation mémoire d’un algorithme. Enfin, le choix d’un algorithme plutôt qu’un autre doit se faire en fonction des données que l’on s’attend à lui fournir en entrée. Ainsi, le Quicksort (ou tri rapide), lorsque l’on choisit le premier élément comme pivot, se comporte de façon désastreuse si on l’applique à une liste de valeurs déjà triée. Il n’est donc pas judicieux de l’utiliser si on prévoit que le programme recevra en entrée des listes déjà presque triées.
Un autre paramètre à prendre en compte est la localité de l’algorithme. Par exemple pour un système à mémoire virtuelle qui dispose de peu de mémoire (par rapport au nombre de données à traiter), le Tri rapide sera normalement plus efficace que le Tri par tas car le premier ne passe qu’une seule fois sur chaque élément de la mémoire tandis que le second accède à la mémoire de manière discontinue (ce qui augmente le risque de swapping).
Enfin, il existe certains algorithmes dont la complexité est dite amortie. Cela signifie que, pour certaines exécutions de l’algorithme (cas marginaux), la complexité de l’algorithme sera très supérieure au cas moyen. Bien sûr, on n’utilise la notion de complexité amortie que dans les cas où cette réaction est très marginale.

( source : Wikipédia )

24 octobre 2010

Radio-identification

Une puce de radio-identification EPC utilisée par Wal-Mart
RFID Chip 008.JPG
La radio-identification plus souvent désignée par le sigle RFID (de l’anglais Radio Frequency IDentification) est une méthode pour mémoriser et récupérer des données à distance en utilisant des marqueurs appelés « radio-étiquettes » (« RFID tag » ou «  RFID transponder » en anglais)[1]. Les radio-étiquettes sont de petits objets, tels que des étiquettes autoadhésives, qui peuvent être collées ou incorporées dans des objets ou produits et même implantées dans des organismes vivants (animaux, corps humain[2]). Les radio-étiquettes comprennent une antenne associée à une puce électronique qui leur permet de recevoir et de répondre aux requêtes radio émises depuis l’émetteur-récepteur.
Ces puces électroniques contiennent un identifiant et éventuellement des données complémentaires.
Cette technologie d’identification peut être utilisée pour identifier :
  • les objets, comme avec un code à barres (on parle alors d’étiquette électronique) ;
  • les personnes, en étant intégrée dans les passeports, carte de transport, carte de paiement (on parle alors de carte sans contact).

Principe 

Un système de radio-identification se compose de marqueurs, nommés radio-étiquettes ou transpondeurs (de l'anglais transponder, contraction des mots transmitter et responder) et d’un ou plusieurs lecteurs. Un marqueur est composé d’une puce et d’une antenne.

Les lecteurs 

Ce sont des dispositifs actifs, émetteurs de radiofréquences qui vont activer les marqueurs qui passent devant eux en leur fournissant à courte distance l’énergie dont ceux-ci ont besoin. La fréquence utilisée est variable, selon le type d’application visé et les performances recherchées :
  • 125 kHz ;
  • 134,2 kHz pour la charge du transpondeur ; 134,2 kHz pour un bit 0 et 123,2 kHz pour un bit 1 pour la réponse du transpondeur dans le cas d’une transmission FSK (Texas Instruments Series 2000) ;
  • 13,56 MHz (ISO 14443A 1-4, ISO 14443B 1-4, ISO 15693-3 et ISO 18000-3) ;
  • 915 MHz aux États-Unis, de 865 MHz à 868 MHz dans l’Union européenne pour l’UHF (EPCglobal et ISO 18000-6c ; les fréquences et les puissances d’émission dépendent des législations en vigueur) ;
  • 2,45 GHz.
Une fréquence plus élevée présente l’avantage de permettre un échange d’informations (entre lecteur et marqueur) à des débits plus importants qu’en basse fréquence. Les débits importants permettent l’implémentation de nouvelles fonctionnalités au sein des marqueurs (cryptographie, mémoire plus importante, anti-collision). Par contre une fréquence plus basse bénéficiera d’une meilleure pénétration de la matière.
L’anti-collision est la possibilité pour un lecteur de pouvoir dialoguer avec un marqueur lorsque plus d’un marqueur se trouve dans son champ de détection. Plusieurs algorithmes d’anti-collision sont décrits par les normes (ISO 14443, ISO 15693 et ISO 18000).
On évite toute fréquence qui serait en résonance avec celle des molécules d’eau contenues entre autres dans le corps humain pour des raisons de sécurité (principe du four à micro-ondes).

Les radio-étiquettes 

Ce sont des dispositifs passifs, ne nécessitant aucune source d’énergie en dehors de celle fournie par les lecteurs au moment de leur interrogation. Auparavant, la lecture des puces passives était limitée à une distance d’environ 10 mètres, mais maintenant, grâce à la technologie utilisée dans les systèmes de communications avec l’espace lointain, cette distance peut s’étendre jusqu’à 200 mètres[3].
Outre de l’énergie pour l’étiquette, le lecteur envoie un signal d’interrogation particulier auquel répond l’étiquette. L’une des réponses les plus simples possibles est le renvoi d’une identification numérique, par exemple celle du standard EPC-96 qui utilise 96 bits. Une table ou une base de données peut alors être consultée pour assurer un contrôle d’accès, un comptage ou un suivi donné sur une ligne de montage, ainsi que toute statistique souhaitable.
Le marqueur est extrêmement discret par sa finesse (parfois celle d’un morceau de rhodoïd), sa taille réduite (quelques millimètres), et sa masse négligeable. Son coût étant devenu minime, on peut envisager de le rendre jetable, bien que la réutilisation soit plus « écologiquement correcte ».
Le marqueur se compose :
Notons aussi l’existence des marqueurs « actifs » et « semi-actifs » (aussi appelés BAP, (en)Battery-Assisted Passive tags, (fr)marqueurs passifs assistés par batterie) qui incluent une batterie.
Les étiquettes actives sont équipées d’une batterie leur permettant d’émettre un signal. De ce fait, ils peuvent être lus depuis de longues distances, contrairement aux marqueurs passifs. Cependant, une émission active d’informations signale à tous la présence des marqueurs et pose des questions quant à la sécurité des marchandises.
Les étiquettes semi-actives n’utilisent pas leur batterie pour émettre des signaux. Elles agissent comme des étiquettes passives au niveau communication. Mais leur batterie leur permet, par exemple, d’enregistrer des données lors du transport. Ces étiquettes sont utilisées dans les envois de produits sous température dirigée et enregistrent la température de la marchandise à intervalle régulier.

Contraintes 

Vie privée 

La CNIL dans son rapport annuel du 16 mai 2008 s'inquiète des risques de traçabilité des individus qui n'ont pas accès à leurs données.

Obstacles 

Environnement métallique

La lecture de radio-étiquettes posées sur des objets situés dans un conteneur métallique est plus difficile. La distance de communication possible est diminuée, par effet de cage de Faraday, qui réalise un blindage électromagnétique.

Collisions 

Lorsque plusieurs marqueurs se trouvent dans le champ d’un même lecteur, les communications sont brouillées par l’activité simultanée des marqueurs.
La détection de la collision est en fait une détection d’erreur de transmission, à l’aide d’un bit de parité, d'une somme de contrôle ou d'une fonction de hachage. Dès qu’une erreur est détectée, l’algorithme d’anticollision est appliqué.
Plusieurs méthodes d’anticollision ont été développées. Voici les quatre principales:
  • La méthode fréquentielle : Chaque marqueur communique sur une plage de fréquences différente avec le lecteur. En pratique, c’est inutilisable à grande échelle.
  • La méthode spatiale : Avec une antenne directionnelle et à puissance variable, le lecteur va couvrir petit à petit chaque partie de l’espace pour communiquer avec chaque marqueur et l’inhiber, en attendant de le réactiver pour ensuite communiquer avec. En pratique, la présence de deux marqueurs à faible distance l’un de l’autre rend cette méthode inefficace.
  • La méthode temporelle : Le lecteur propose aux marqueurs une série de canaux de temps dans lesquels ils peuvent répondre. Les marqueurs choisissent de façon aléatoire le canal de temps dans lequel ils vont répondre. Si un marqueur est le seul à répondre dans ce canal de temps, il est détecté et inhibé par le lecteur. S’il y a plusieurs marqueurs qui répondent en même temps, il sera nécessaire d’effectuer à nouveau cette méthode. Petit à petit, tous les marqueurs sont connus et inhibés ; il suffit alors au lecteur de réactiver le marqueur avec lequel il souhaite communiquer. En pratique, le côté aléatoire fait que la durée de cette méthode est inconnue.
  • La méthode systématique : Il existe de nombreux brevets décrivant des méthodes systématiques. Cette méthode consiste à détecter puis inhiber tour à tour tous les marqueurs en parcourant l’arbre de toutes les possibilités d’identifiants (par exemple, le lecteur envoie une requête du type « Tous les marqueurs dont le premier bit d’identification est 1 doivent se manifester. » Si un seul marqueur se manifeste, le lecteur l’inhibe, et s’intéresse ensuite aux marqueurs avec pour premier bit 0, et ainsi de suite). En pratique, cette méthode peut parfois s’avérer longue.

Utilisations 

Marquage d'objets
  • Système implanté d'identification et mémorisation : de manière courante, des puces basse fréquence (125 à 135 kHz) sont utilisées pour la traçabilité d'objets (ex : fûts de bière). La traçabilité d'objets tels que des livres dans les librairies et les bibliothèques ou la localisation des bagages dans les aéroports utilise plutôt la classe haute fréquence (13,56 MHz).
  • contrôle d'accès ; il se fait par badge de « proximité » ou « mains-libres ».
    Certaines « clés électroniques » d'accès sont des marqueurs permettant la protection « sans serrures » de bâtiments ou portières automobiles.
    Les badges mains-libres, permettent une utilisation jusqu’à 150 cm (selon le type d’antenne utilisée). Ils peuvent contenir une Identité numérique ou un certificat électronique ou y réagir et permette l'accès à un objet communicant ou son activation.
    Le contrôle d’accès à des bâtiments sensibles est un domaine où le système de radio-identification remplace les badges magnétiques, permettant l’authentification des personnes sans contact. La radio-fréquence de la plupart des badges d'accès ne permet qu'une utilisation à quelques centimètres, mais ils ont l’avantage de permettre une lecture-écriture dans la puce, pour mémoriser des informations ( biométriques, par exemple).
  • Traçabilité distante d'objets (fixes ou mobiles) ; Par exemple, des palettes et conteneurs peuvent être suivis dans des entrepôts ou sur les docks) via des marqueurs UHF (ultra haute fréquence).
    À cette fréquence, la lecture n'est théoriquement pas possible à travers l’eau (et donc le corps humain). Cependant lors des RFID Journal Awards 2008, l'entreprise Omni-ID a présenté une étiquette RFID lisible à travers l’eau et à proximité de métal, avec un taux de fiabilité de 99,9%. Des marqueurs micro-ondes (2,45 GHz) permettent le contrôle d'accès à longue distance de véhicules, comme par exemple sur de grandes zones industrielles. Ces marqueurs sont généralement actifs.
  • traçabilité d'aliments : Dans la chaine du froid, des aliments peuvent théoriquement être suivis par une puce enregistrant les variations de température.
Transactions financières :
  • Moyen de paiement : À Hong Kong et aux Pays-Bas des marqueurs en forme de carte de crédit sont répandus comme moyen de paiement électronique (équivalent de Moneo en France).
    Elles sont également utilisées à Bruxelles (Belgique) comme titre de transport sur le réseau de STIB (voir MoBIB).
Marquage d'êtres vivants :
  • Identification de plantes (arbres de la ville de Paris), d'animaux d'élevage (vaches, cochons) ou d'animaux de compagnie comme les chats et les chiens (grace à une puce installée sous la peau dans le cou), d’animaux sauvages (cigognes, manchots): ce sont généralement des puces basse fréquence (125 à 135 kHz).
  • Relevés scientifiques : des marqueurs sont aussi des moyens de communication pour la collecte des données issues des relevés scientifiques (monitoring) produits dans un organisme ou par des stations de mesure isolées et autonomes (stations météorologiques, volcaniques ou polaires).
  • Chez l'Homme : des radio-marqueurs sous-cutanées, originellement conçus pour la traçabilité des animaux, peuvent sans aucune contrainte technique être utilisés sur des humains. La société Applied Digital Solutions propose ainsi ses radio-marqueurs sous-cutanés (nom commercial : VeriChip) destinés à des humains, comme une solution pour identifier les fraudes, assurer l’accès protégé à des sites confidentiels, le stockage des données médicales et aussi comme un moyen de résoudre rapidement des enlèvements de personnalités importantes.
    Combinés à des capteurs sensibles aux fonctions principales du corps humain, ces systèmes sont aussi proposés comme solution intégrée de supervision de l'état de santé d'un patient.
    Une boîte de nuit de Barcelone (Baja Beach Club) utilise des puces sous-cutanées à radiofréquence[4] pour offrir à ses clients VIP une fonction de porte-monnaie électronique implanté dans leur corps même.
    La ville de Mexico a implanté cent soixante-dix radio-marqueurs sous la peau de ses officiers de police pour contrôler l’accès aux bases de données et aussi pour mieux les localiser en cas de kidnapping.[réf. souhaitée]

Risques 

Les technologies de radio-identification pourraient s’avérer dangereuses pour l'individu et la société (ex : santé et protection de la vie privée)[15], avec :
  • Possibilité d'atteinte à la vie privée dans le cas de marqueurs « furtifs » ou accessibles à des systèmes susceptibles de diffuser des informations sur la vie privée.
  • Utilisation d'informations contenues par les marqueurs de passeports pour agresser sélectivement et par simple proximité physique les ressortissants de certaines nationalités
  • « Marquage » abusif et facilité de personnes ayant acheté ou emprunté certains types de films, livres (politique, religion, etc.) comme « indésirables » dans les fichiers d’employeurs potentiels ou d’un État répressif (possible à l’heure actuelle sans cette technologie).
  • Problèmes potentiels de « souveraineté numérique/économique » liés à l’infrastructure du réseau EPCGlobal, notamment s’agissant de l’administration, par contrat, de sa racine (onsepc.com) par un acteur privé (américain)
  • La puce sous-cutanées pose des questions éthiques et de droit à l’intégrité physique. La limitation au volontariat et consentement éclairé n’assure pas de garantie de respect de la vie privée (Cf. charte des droits de l'homme, et en Europe, la Charte des droits fondamentaux de l'Union européenne) ; dans certains contexte des personnes refusant ces étiquettes sous-cutanées risquent d’être victime de discriminations.
  • Identification de personnes par une signature de l’ensemble des étiquettes d'identification par radiofréquences (cartes bancaires, téléphone mobile, pass de transports en commun…) habituellement portées (cf. brevet IBM : Identification and Tracking of Persons Using RFID Tagged Objects par ex.)
  • Génération de signaux radio-fréquences pouvant s’avérer dangereux pour la santé (effets suspectés d'un smog électromagnétique croissant…) et cancers dans le cas d'expériences sur la souris[16] ou interférant avec le fonctionnement des appareils bio-médicaux[17].
    L'AFSSET recommande de poursuivre la veille scientifique sur la recherche d'effets biologiques des rayonnements liés au RFID, dans un rapport publié le 26 janvier 2009[18].

Protection de l'individu 

La législation française prévoit une certaine protection de la vie privée en interdisant :
  • le contrôle clandestin (toute identification doit faire l’objet d’une indication visible) ;
  • l’usage des mêmes appareils pour le contrôle d’accès et le contrôle de présence.
Selon l’association allemande FoeBuD, la législation n’est pas assez restrictive pour la technologie de radio-identification et la protection des informations personnelles[19].
Certaines associations proposent des outils pour se protéger d’une utilisation non autorisée de la radio-identification, tel que RFID Guardian[20].
D’autres associations proposent le boycott de cette technologie qu’elles estiment liberticide[21]. Selon elles, le fichage d’informations non contrôlables dans une carte d’identité électronique serait préjudiciable à la liberté des individus[22].

Mesure dans le milieu ambiant ( graphique étonnant )



Une puce de radio-identification 

22 octobre 2010

Journal

Le 22/10/2010 , 8 heures 32 . Aujourd'hui , effets dus aux rayonnements électromagnétiques pulsés et ciblés . - Maux de tête - étouffements -  violences physiques et morales - troubles visuels - mal-être - fatigue - nausées - irritation  des yeux - surpression à l'intérieur du corps - pression de radiation sur le corps .