Minority Report se rapproche dangereusement !

Publié le par dan29000

 

pp4.pngMinority Report, c’est pour demain

 


Le 11 décembre 2012

 

 


La peur du terrorisme a poussé l'Union Européenne à miser à fond sur les nouvelles technologies. Depuis quelques années, les chercheurs financés par Bruxelles essaient de détecter les "comportements suspects" des individus via les réseaux de caméras de surveillance.

 


 

Depuis quatre ans, les projets européens de recherche en matière de reconnaissance des comportements “suspects“ se multiplient. Parmi la centaine de projets du volet sécurité du FP7, le programme de recherche et développement de la Commission européenne, une demi-douzaine sortis tout droit d’un bouquin de science-fiction sont destinés à développer des technologies permettant de repérer un “comportement anormal“. Tout ceci se chiffre en dizaines de millions d’euros.

Ce concept de vidéosurveillance intelligente (VSI), qui rencontre un certain succès en France, a un seul objectif : prévenir les crimes et les attentats. Plan le plus connu, le projet INDECT. Les recherches sont financées à hauteur de 10,9 millions d’euros par la Commission européenne. Objectifs : détecter les comportements “suspects” sur Internet (forums, groupes Usenet, serveurs FTP, Peer-to-Peer) et dans la “vraie vie“, via la VSI.

INDECT

L’objectif de la VSI est de “simplifier les procédures de recherche et de contrôle“, dans le sens où les opérateurs de vidéosurveillance ne sont pas capables de surveiller plus d’une dizaine d’écrans à la fois. En facilitant leur travail, on pourrait “réduire le nombre d’erreurs“. Grâce à cette technologie en gestation, “Scotland Yard aurait pu retrouver deux fois plus rapidement” les coupables des attentats du métro de Londres en 2005, remarque Christoph Castex, de la direction générale Entreprises et Industries à la Commission européenne.

Parmi les 17 partenaires d’INDECT, l’université des Sciences et Technologies de Cracovie (AGH) et l’université polytechnique de Gdańsk conçoivent des algorithmes permettant de détecter des “situations dangereuses“. Des capteurs sonores permettent de détecter des appels à l’aide, des hurlements, des bris de vitre, des coups de feu, tandis que les caméras peuvent détecter une personne gisant sur le sol, ou un individu brandissant un couteau ou un revolver.

De leur côté, les polices d’Irlande du Nord (PSNI) et de Pologne (MSWIA) testent les prototypes (collection d’algorithmes et de logiciels) et participent à l’élaboration d’une “compilation” de comportements suspects et de silhouettes, sur laquelle le système s’appuie pour détecter un mouvement “anormal“, défini comme un “comportement criminel“, ou comme un “comportement lié à un acte terroriste ou une activité criminelle grave (meurtre, braquage de banque) “. INDECT s’achèvera fin 2013.

Un « répertoire » de comportements suspects

Dans le même état d’esprit, le projet ADABTS a pour objectif de développer des modèles-types de “comportements suspects”. L’enveloppe de l’Union européenne est de 3,2 millions d’euros. Une fois finalisée, la technologie d’ADABTS devrait permettre d’analyser la voix d’un individu, sa démarche et ses mouvements. Elle permettra aussi de compter le nombre d’individus présents, par exemple lors d’une manifestation.

Parmi les partenaires de ce projet censé se terminer en août 2013, on compte l’Institut de psychologie du ministère de l’intérieur bulgare (IPMI), expert en criminologie, le ministère de l’intérieur britannique et le groupe d’armement BAE Systems, fournisseur principal du ministère de la défense britannique. ADABTS compte aussi dans ses rangs l’agence de recherche de la défense suédoise (FOI), récemment au coeur d’un projet controversé de vente d’armes à l’Arabie Saoudite.

Aux commandes des recherches scientifiques, l’université d’Amsterdam. L’équipe du professeur Dariu Gavrila, qui planchait déjà entre 2005 et 2009 sur un système de détection des comportements agressifs, met au point une batterie d’algorithmes basés sur des modèles statistiques. Concrètement, les silhouettes en mouvement sont isolées du reste de l’image après une opération de “soustraction” de l’arrière-plan. Ensuite, la silhouette se voit superposée un squelette 3D. Ses mouvements sont comparés à un “répertoire de gestes“. En analysant également les sons, comme le timbre de la voix ou son intensité, un comportement peut être analysé.

Afin de définir un comportement “anormal”, Dariu Gavrila a concocté, avec l’aide “d’experts” une base de données de comportements. Elle consiste en une liste d’actions, qui combinées forment un scénario :

Un “cri puissant” combiné avec “des poings brandis” et une “personne chutant” constitue un scénario permettant de prédire une agression. Des “gesticulations excessives” et des “regards alentour permanents” peuvent indiquer un comportement nerveux, qui, conjugué avec “porter des lunettes de soleil ou une capuche par un temps inapproprié” peut signifier un vol ou un scénario terroriste.

Les scénarios d’ADABTS vont de l’”agression” à l’”acte terroriste” en passant par la “bagarre à grande échelle”, le “vol” et la “foule paniquée”. En juin 2012, des acteurs ont simulé ces scénarios au Kyocera Stadion, le stade de football de La Haye. Parmi ces mouvements ou ces sons pouvant indiquer un “comportement anormal”, des cris, des hurlements, des moulinets avec les bras, des gestes de la main.

Dans la liste figure aussi le port d’une capuche, le fait pour un groupe de marcher dans le sens opposé à la foule, le fait pour un individu de marcher à une vitesse différente des autres, ou encore le fait de rester debout quand la majorité des personnes est assise. Un spectateur ne regardant pas le match de foot ou regardant autour de lui peut aussi être considéré comme suspect.

ADABTS

Comment différencier un comportement normal d’un comportement anormal, quand les mouvements ne parlent pas ? Comment faire la différence entre un couple s’embrassant et une agression ? Interrogé par Owni, Dariu Gavrila insiste sur l’importance de la vérification humaine :

Le système peut très bien détecter une personne nouant ses laçets dans un magasin ou prenant des photos dans un hall d’aéroport, et considérer cela comme un comportement “anormal”. En réalité, le système ne sait pas s’il s’agit d’un comportement indésirable. Il détecte simplement un comportement qui s’écarte des comportements normaux que nous lui avons appris.

Terminé en 2011, le projet SAMURAI a coûté 3,8 millions d’euros, dont 2,5 millions en provenance de l’Union européenne. SAMURAI utilisait lui aussi une liste de comportements “anormaux“, par exemple un individu semblant tenter de cacher son visage, ou une personne marchant contre le “flot régulier” d’une foule. Des algorithmes permettent au futur système de retenir les comportements “habituels” des individus, par exemple le trajet emprunté par des voyageurs au moment de s’enregistrer à l’aéroport. D’autres permettent de détecter un visage et de se focaliser dessus.

Les mouvements que sont une poignée de main, un baiser, un coup de fil ou le fait de s’asseoir sont aussi analysés. Les algorithmes ont été développés par les universités de Queen Mary (Londres) et de Vérone, mais aussi par la société Selex Elsag. Une filiale du groupe italien Finmecannica, connue depuis cet été pour avoir vendu à la Syrie un système de transmission de données.

Très proche de SAMURAI et également terminé depuis 2011, le projet SUBITO devait quant à lui permettre d’identifier un bagage abandonné, de retrouver son propriétaire, et de le suivre à la trace de caméra en caméra. Pour cela, il utilise des algorithmes de détection et de traçage développés par l’université de Leeds, l’Institut de recherche du Commissariat à l’énergie atomique (CEA) de Saclay et l’Office national d’études et recherches aérospatiales (Onera) de Châtillon.

Les comportements suspects sont détectés à une moindre échelle : ici, il ne s’agit que des propriétaires de bagages. Si un voyageur distrait oublie son sac et reste loin de celui-ci trop longtemps, il pourra être considéré comme suspect. Pour l’instant, les technologies développées par SAMURAI et SUBITO n’ont pas encore été intégrées à un système opérationnel, et sont susceptibles d’être à nouveau l’objet de recherches.

Une technologie pas encore mature

Les chercheurs en VSI sont unanimes : pour l’instant, la détection n’est efficace que lorsqu’il s’agit de “scènes simples“. Les partenaires d’ADABTS espèrent pouvoir à terme commercialiser un produit fini utilisant un matériel “low cost”, et le proposer aux autorités européennes, aux forces de police et aux sociétés de services de sécurité. Un enthousiasme que ne partage pas Dariu Gavrila :

Pour l’instant, la détection automatique comportementale n’en est qu’à ses débuts. Nous avons fait de très grands progrès, mais nous sommes encore loin d’un système intelligent capable de détecter automatiquement des comportements anormaux. Il est facile de détecter un comportement visible comme une bagarre, mais quand il s’agit d’un “comportement camouflé”, c’est une autre paire de manche !

Même constat en ce qui concerne le “vidéo tracking”, ou “pistage” d’une personne de caméra en caméra :

Pour l’instant, nous sommes capables de détecter un individu quand il y a peu de monde et quand le fond est statique, mais quand il y a foule et que les gens interagissent entre eux, la situation est bien plus complexe.

Pour les chercheurs, malgré l’avancée des recherches, il faudra attendre encore cinq ou six ans avant de voir apparaître une caméra véritablement “intelligente”.

“L’effet Big Brother”

Quid des questions éthiques ? À l’université de Kingston, des chercheurs planchent sur le projet ADDPRIV. Quand un comportement suspect est détecté, le système imaginé collecterait les vidéos précédant et suivant la détection, afin de pouvoir suivre à la trace la personne suspectée. Financé à hauteur de 2,8 millions d’euros par la Commission européenne, ADDPRIV veut assurer un “juste milieu” entre “sécurité et protection de la vie privée“. L’idée est de ne garder que les images et les sons “pertinents“, ayant trait à un évènement suspect, grâce à des algorithmes de “tri” des données.

Pour Daniel Neyland, de l’université de Lancaster et membre du bureau éthique d’ADDPRIV, les expériences menées, “avec l’autorisation des personnes filmées et en vase clos” sont “l’occasion de tester la façon dont nous pourrions renforcer à la fois la sécurité et la vie privée”. Pour cela, les données pourraient notamment être “anonymisées” grâce au “hachage” et au chiffrage des images stockées, et à une application conçue pour flouter les visages. Cela suffit à transporter de joie les concepteurs du projet :

Grâce à sa technologie de surveillance ciblée, ADDPRIV permettra une meilleure acceptation sociale de la vidéosurveillance en réduisant l’effet Big Brother, notamment en collectant le minimum de données possible.

Concernant le projet ADABTS, l’un de ses coordinateurs à l’agence de recherche de la défense suédoise (FOI), Henrik Allberg, affirme à Owni :

ADABTS n’identifie personne, il détecte des corps, une représentation de ce qui se passe. La reconnaissance de comportements couvre une zone restreinte, et se centre sur une activité nocive potentielle, indépendamment de l’identité d’une personne ou de son histoire.

Pour Dariu Gavrila, la détection automatique est même plus “objective” que l’oeil humain :

L’opérateur humain est plus subjectif, il a tendance à classer les individus observés dans des catégories, selon leur âge ou leur apparence, par exemple. Un système intelligent automatisé demeurera bien plus objectif et moins discriminant.

À la Commission européenne, Christoph Castex affirme de son côté que les différents projets respectent un “code de déontologie“, ainsi que les législations nationales et internationales en vigueur, comme la Charte des droits fondamentaux de l’UE et la Convention européenne des droits de l’homme. Pour Castex, une fois la technologie arrivée à maturité, la balle sera dans le camp des États :

Le prototype est destiné aux forces de police des pays européens, et elles seront obligées de se conformer aux lois existantes. Tout système basé sur INDECT sera forcé de respecter les données privées.

Tout comme ADABTS, le projet INDECT possède un “bureau éthique” indépendant, composé d’experts de la protection des données, d’universitaires et de membres de la police nord-irlandaise. Ce bureau est chargé de surveiller les outils développés et d’évaluer leur respect de la vie privée. À noter que si ce bureau diffuse l’ensemble des documents ayant trait à INDECT sur le site du projet, cette transparence est surtout due à la pression exercée par 177 députés européens, en 2010. À l’origine, le bureau éthique avait ainsi décidé de “garder confidentielles les informations susceptibles d’avoir un effet négatif sur la réputation du projet” , selon le Parlement européen.

Aujourd’hui, Christoph Castex constate que “INDECT a retenu la leçon”, après avoir été la cible de nombreuses critiques, notamment de la part des Anonymous. “Tous nos projets se posent des questions éthiques“, affirme-t-il. Un projet de recherche a même pour but de “réfléchir aux limites de ce que la société peut accepter” : le projet DETECTER.

Selon différents membres des “groupes éthiques” rattachés aux projets de VSI, des conseils devraient être adressés aux “futurs utilisateurs” des technologies développées. Parmi ces conseils, la minimisation des données, c’est-à-dire l’utilisation du minimum de données personnelles possible et le floutage des visages, qui rendrait impossible tout “profilage“.

Reste à espérer que ces conseils seront pris en compte. Car si l’on en croit Rosamunde Van Brakel, chercheuse spécialisée dans les relations entre vidéosurveillance et société au Law Science Technology & Society (LSTS) de l’Université libre de Bruxelles, interrogée par Owni, ces technologies nous emmènent tout droit vers une société de type “Pré-crime” :

Le risque d’erreurs et de fausses accusations est élevé. Cela peut mener à une culture de la peur, à une société où le principe de présomption d’innocence serait perdu au profit de la méfiance généralisée. Certains “indicateurs de méfiance” pourraient être basés sur des hypothèses erronées et sur des préjugés. Dans ce cas, cela pourrait conduire à une catégorisation sociale et à une “discrimination algorithmique”.

Et de conclure : “Si le contrôle de ces technologies n’est pas béton, alors il faudra s’inquiéter, notamment de ce qui arriverait si elles étaient détournées de leur objectif initial.


Photo par surian Soosay (cc-by)
SOURCE / OWNI.FR

 

Publié dans écrans

Commenter cet article