Internet et pudibonderie : Qui contrôlera les algorithmes ?

Publié le par dan29000

Le pudibond internet : qui contrôlera les algorithmes ? – « Vous ne pouvez pas dire ça sur l’internet »


7 décembre 2012
 

Evgeny Morozov (@evgenymorozov), l’auteur de Net Delusion (qui prépare un livre intitulé Pour tout sauver, cliquez ici : la folie du solutionnisme technologique) a publié une très intéressante tribune sur le site du New York Times intitulée « Vous ne pouvez pas dire ça sur l’internet ».

 

 

 

Il y explique que l’hyper-tolérance née de l’ouverture et de la contre-culture de la Silicon Valley masque souvent une façade bien plus conservatrice qu’elle ne s’en donne l’air. Les normes obsolètes et pudibondes de la Valley s’imposent discrètement sur des milliards d’utilisateurs du monde entier.

Le véhicule de cette nouvelle pudibonderie repose dans les algorithmes qui « déterminent automatiquement les limites de ce qui est culturellement acceptable ». Et Morozov de dresser une liste d’exemples que nous avons tous entraperçus. En septembre, le New Yorker a vu sa page Facebook bloquée pour avoir enfreint les conditions générales d’utilisation qui précisent que les photos dénudées ne sont pas autorisées (sauf si les parties génitales et les seins sont cachés - Gawker a publié en février la charte de modération de Facebook confiée à un prestataire extérieur, oDesk). Le délit du New Yorker : une illustration montrant les seins d’Eve dans le jardin d’Eden. La vénérable publication américaine est donc moins puritaine qu’une start-up californienne qui a pour ambition de « rendre le monde plus ouvert ».

De nombreuses sociétés pratiquent pour le compte de tiers ces formes de modération automatiques comme Impermium, une start-up de la Silicon Valley qui aide les sites web a identifier les contenus indésirables comme la violence, le racisme, le blasphème, les discours de haine... « Impermium contrôle les lecteurs » clame sa baseline... « Mais qui contrôlera Impermium ? », ironise Morozov. Apple s’est également souvent écarté de ses racines iconoclastes, rappelle le chercheur. Le dernier livre de Naomi Wolf, Vagin, une nouvelle biographie a vu son titre transformé par l’iBookstore en V***n et il a fallu de nombreuses plaintes pour qu’Apple rétablisse le titre original.

Contrairement à la Poste américaine qui à son époque, a confisqué parfois des livres qu’elle jugeait trop obscènes comme L’amant de Lady Chatterley, la Silicon Valley ne se livre pas à une censure directe, rappelle Morozov. Mais elle n’en présente pas moins des termes courants comme des termes honteux. « La Silicon Valley ne se contente pas de refléter les normes sociales, elle les façonne activement de manières, qui sont, pour la plupart, imperceptibles. »

La prolifération de la fonction de saisie semi-automatique sur les sites web les plus populaires en est un autre exemple (« Les résultats qui s’autocomplètent dans les moteurs de recherche soulignent le caractère privé des conversations que les gens croient avoir [avec] leurs ordinateurs » rappelait récemment Sean Gourley du moteur de recherche Quid dans un article du New York Times). En théorie, tout ce que fait la saisie automatique est de compléter votre requête avant que vous ayez fini de la taper en utilisant un algorithme pour prédire ce que vous allez inscrire. Une fonctionnalité intéressante, mais qui renforce elle aussi ce qui est convenable. Et Morozov d’utiliser les « 7 mots que vous ne pouvez pas dire à la télévision », la liste des mots interdits que l’humoriste américain George Carlin a listé dans un sketch dès les années 70. Aucun de ses mots n’apparaît en saisie automatique sur la plupart des plus grands sites web de l’internet... Et ce ne sont pas les seuls.

En 2010, le magazine hacker 2600 a publié une liste noire de termes que Google n’identifie volontairement pas. Google ne propose pas de saisie automatique pour « Croix gammée » ou « Lolita ». A croire que Nabokov n’est pas tendance à Moutain View, ironise Morozov, car pour l’instant, l’algorithme ne sait pas distinguer l’amateur du roman de Nabokov de la pornographie infantile.

"Pourquoi les entreprises de haute technologie ne nous permettent-elles pas d’utiliser librement des termes qui jouissent déjà d’une large diffusion et légitimité ? Pensent-ils être les nouveaux gardiens ? Sont-ils trop avides de profits pour corriger les erreurs de leurs algorithmes ?

Grâce à la Silicon Valley, notre vie publique est en pleine transformation. Accompagnant cette métamorphose numérique il émerge de nouveaux gardiens, algorithmiques, qui (encore plus que) les gardiens de l’époque précédente - journalistes, éditeurs, rédacteurs en chef - ne cachent pas leur autorité culturelle. Peut-être ne sont-ils pas même conscients de cela, trop désireux de déployer des algorithmes pour le fun et le profit.

Beaucoup de ces gardiens demeurent invisibles - jusqu’à ce que quelque chose tourne mal. Ainsi, début septembre, le livestream du prix Hugo, les Oscars du monde de la science-fiction, a-t-il été interrompu par un avertissement énigmatique, juste avant que le populaire auteur Neil Gaiman livre son discours. Apparemment, Ustream - le site qui diffusait en streaming la cérémonie - a recours aux services d’une entreprise qui détermine si les vidéos en streaming violent les droits d’auteurs. Cette entreprise partenaire - vobile - s’appuie sur de très vastes archives vidéo pour voir, en temps réel, si ce qui est diffusé correspond à ses collections. Le contenu de la diffusion précédant l’intervention de Neil Gaiman a déclenché une requête qui a coupé automatiquement la retransmission, et ce, même si les organisateurs avaient négocié toutes les autorisations nécessaires."

« Les limites du contrôle de l’accès algorithmique apparaissent ici en plein jour », souligne Morozov. Comment enseigner l’idée du « fair use » (l’usage acceptable) à un algorithme ? On sait que le contexte est important, et qu’il ne peut y avoir de livre de règles : c’est pourquoi nous avons des tribunaux, rappelle Morozov.

Nos réputations sont de plus en plus à la merci des algorithmes. Bettina Wulff, l’épouse de l’ancien président de la République fédérale d’Allemagne, a porté plainte contre Google qui automatiquement suggérait quand on tapait son nom dans le moteur de recherche des mots comme « escorte » ou « prostituée ». Google s’est défendu en expliquant que les termes suggérés n’étaient que « le résultat généré algorithmiquement par des facteurs objectifs, incluant la popularité des termes de recherche saisis ».

La défense de Google pourrait être tenable si ses propres algorithmes n’étaient pas si faciles à tromper. En 2010, l’expert en marketing Brent Payne a payé une armée d’assistants pour effectuer des recherches avec les termes « Brent Payne manipule cela ». Rapidement, ceux qui commençaient à taper « Brent P » dans Google voyaient cette expression suggérée par la saisie semi-automatique. Après que M. Payne ait raconté publiquement cette expérience, Google a retiré cette suggestion, « mais combien de cas similaires ont-ils été détectés ? Que signifie des »facteurs objectifs« de »vérités« algorithmiques ? »

« La pudibonderie étrange, l’application excessive du droit d’auteur » (le Copyright Madness) « créent d’inutiles dommages à notre réputation : les fonctions de gardiens algorithmiques prélèvent un lourd tribut à nos vies publiques. Au lieu de traiter les algorithmes comme un élément naturel, comme le reflet objectif de la réalité, nous sommes conduits à examiner et démonter attentivement chaque ligne de code. »

Pourrait-on faire autrement sans heurter le modèle d’affaires de la Silicon Valley ?, interroge le chercheur. Peut-être. Le monde de la finance face à un problème similaire propose une solution. Après plusieurs catastrophes causées par la finance algorithmique cette année, les autorités de Hong Kong et de l’Australie ont élaboré des propositions pour mettre en place des audits indépendants et réguliers de la conception, du développement et des modifications des systèmes informatiques utilisés dans ces opérations. « Pourrions-nous avoir des audits pour faire la même chose à Google ? La Silicon Valley n’aurait pas à divulguer ses algorithmes propriétaires, mais seulement à les partager avec des experts. Est-ce une mesure drastique ? Peut-être. Mais cette solution n’est-elle pas proportionnelle à la force de frappe technologique croissante que ces entreprises possèdent dans le remodelage non seulement de notre économie, mais aussi de notre culture ? »

« De toute évidence, la Silicon Valley ne développera pas ni n’embrassera facilement des normes similaires. Mais, au lieu d’accepter cette nouvelle réalité comme un fait accompli, nous devons nous assurer que, tout en leur permettant de faire des profits toujours plus importants, nos gardiens algorithmiques soient contraints d’accepter l’idée que les fonctions qui définissent leur culture soient demain plus responsables. »

On peut choisir d’accepter les règles que nous imposent les algorithmes et faire de manière à ce que nos propos et images se conforment au monde lissé qu’ils nous proposent. Jusqu’à présent, comme le montrent les exemples qu’évoque Morozov, la plupart des problèmes que les algorithmes pudibonds introduisent se résolvent plus ou moins bien. Mais peut-on continuer à accepter une gestion par l’erreur, dont la solution dépend surtout de votre capacité à mobiliser une audience suffisamment forte pour que les géants du net s’en préoccupent ? On voit bien que ce n’est pas une solution, à tout le moins que ce n’est pas une solution très égalitaire.

Tarleton Gillespie ne disait pas autre chose quand il évoquait ces algorithmes qui nous gouvernent et sur lesquels nous n’avons pas prise. Daniel Engber pour Slate revenait récemment sur la formule « corrélation n’est pas causalité », montrant que le succès actuel de cette acception (née sous la plume d’un mathématicien de la fin du XIXe siècle) reflète combien nous sommes cernés par les corrélations. Ce slogan serait-il une manière de nous opposer aux algorithmes qui nous capturent ?

En même temps, l’actualité est peuplée de réactions incessantes aux excès des algorithmes, ce qui montre bien que notre contrôle distribué sur les réseaux fonctionne en partie. Reste, comme l’exprime Evgeny Morozov, à trouver des solutions qui soient plus satisfaisantes que la seule mobilisation en ligne. Les géants de l’internet n’offrent pas beaucoup de place aux utilisateurs dans les traitements dont nous sommes tributaires. C’est à nous de la construire pour que les algorithmes rendent du pouvoir à l’utilisateur plutôt qu’ils ne l’aliènent...


Hubert Guillaud



* Le Monde. Internet Actu. 07 décembre 2012 : http://internetactu.blog.lemonde.fr...

 

 

 

SOURCE / ESSF

Publié dans écrans

Commenter cet article