Il y a 6 commentaires associés à cet article. Vous pouvez les consulter et réagir à votre tour.
417Les démocraties doivent comprendre l'évolution des nouvelles technologies numériques et apprendre à maîtriser leurs risques. L'élaboration d'une éthique adaptée s'impose.
Appelons nouvelles technologies numériques celles qui permettent à un nombre croissant de personnes de s'exprimer à travers des réseaux informatiques dotés de capacités sans cesse accrues pour mémoriser, comparer, traiter à des fins diverses les traces que ces personnes laissent sur les réseaux (1). Ces technologies se multiplient et se diversifient spontanément dans le monde, en conséquence du développement plus général des sciences et des techniques que l'humanité semble incapable de se représenter clairement et moins encore de maîtriser dans sa totalité. Les nouvelles technologies numériques offrent des avantages considérables en termes de services rendus, tant aux individus qu'aux sociétés. Ceci explique l'acceptation générale dont elles bénéficient. Mais du fait de la mise en mémoire et de l'interconnexion qu'elles permettent, elles donnent aussi à des Pouvoirs économiques et politiques la capacité de connaître et d'orienter à leur profit les activités des utilisateurs. Comme ceux-ci ne sont généralement pas avertis des opérations d'identification et de traitement s'exerçant sur les informations qu'ils produisent ou reçoivent, ils ne peuvent donc ni les approuver ni les refuser. Ceci se traduit par un déficit de démocratie s'ajoutant à tous ceux dont souffrent déjà dans le monde actuel les citoyens les plus pauvres et les moins avertis. Il faut distinguer cependant entre deux grandes catégories de technologies. Les unes s'organisent au sein d'architectures centralisées mobilisant des ressources de plus en plus importantes consacrées à la saisie et au stockage. Les contrôles qu'elles permettent se heurtent alors aux limites physiques des systèmes de traitement. Bien que constamment renforcés, ces systèmes se superposent de l'extérieur aux activités contrôlées et sont par conséquent toujours en retard sur l'évolution de ces dernières.
Des technologies plus récentes s'organisent au sein d'architectures distribuées. Ce sont alors les activités qui produisent elles-mêmes, à la base, les données et interconnexions susceptibles de se transformer spontanément, sur un mode biologique, en processus de contrôle local voire de contrôle interne ou intériorisé. Ces processus ne rencontrent plus alors de limites physiques et peuvent se généraliser.
Dans la pratique, les deux types d'architecture se conjuguent, mais les secondes, sur le mode distribué, se répandent beaucoup plus vite que les premières du fait de la transformation rapide des personnes, des objets et des éléments de réseaux en "entités intelligentes" dotés d'une véritable autonomie, échappant en tout ou en partie à la prise de conscience par les humains. Il s'ensuit que les thèmes de la philosophie politique exaltant la possibilité de voir les individus et les groupes échapper aux déterminismes naturels ou économiques semblent de plus en plus irréalistes au regard de la complexification et de la puissance des contrôles pesant sur eux.
Nous pensons cependant que, malgré les difficultés, une démarche d'information et de formation devrait permettre de développer des contre-pouvoirs s'inspirant d'une éthique démocratique. Celle-ci sera pour l'essentiel à construire. On ne pourra alors disposer que de peu d'éléments disponibles, vu le caractère nouveau du domaine. On observera cependant que si certaines connaissances et des garde-fous existent en ce qui concernent les contrôles résultant du développement des systèmes centralisés, la plus grande ignorance règne en ce qui concerne les systèmes distribués, ceux qui permettent des saisies et des contrôles décentralisés, à partir de faits générateurs provenant de la base. Ceci justifie que, dans le cadre de l'éthique démocratique à construire, il faille faire porter plus particulièrement l'effort sur l'étude de ces derniers systèmes. 

En se basant sur l'inaltérable hiérarchie qui a fondé la structure des armées traditionnelles, les militaires et les systèmes politiques d'aujourd'hui ont construit un modèle de système centralisé basé sur une ambition de renseignement total permettant d'avoir une image en temps réel de la société et plus particulièrement de l'opinion publique par rapport aux évènements qui les intéressent. Pour cela, il faut :
1. Saisir toutes les informations en circulation, qu'elles paraissent ou non pertinentes.
2. Les stocker et les ranger en classes générales, par catégories, en utilisant l'analyse
 symbolique fine du langage et des habitudes des personnes (profilage total).
3. Traiter les informations afin d'en extraire les connaissances qu'elles recèlent.
4. Après analyse, sélectionner les personnes et activités devant être plus particulièrement suivies, au regard de priorités politiques et économiques, en abandonnant jusqu'à nouvel ordre le suivi des autres personnes.
Cette technique est mise en œuvre par tous les grands systèmes de renseignements, gouvernementaux ou entrepreneuriaux. Elle s'illustre particulièrement avec l'immense complexe mis en place actuellement par la National Security Administration américaine dans l'Utah (2).
Bien que mobilisant des moyens considérables, avec des ordinateurs parallèles de coût prohibitif et le dernier état de l'art en intelligence artificielle, les ambitions de contrôle total justifiant de tels centres semblent devoir se heurter à des limites tenant à l'état de l'informatique aujourd'hui : multiplication exponentielle des échanges et des informations, limites de calcul des algorithmes opérant sur des masses de données considérables, généralisation des codages, impossibilité de découvrir par analyse globale ce que l'on appelle les signaux faibles, notamment des lignes de ruptures dans les comportements des usagers. Ceci n'empêche évidemment pas que, dans la plupart des cas, cette technique puisse contribuer à un renforcement considérable des contrôles, que les opinions publiques paraissent d'ores et déjà conditionnées pour les accepter.
Ce concept repose sur l'existence de systèmes réellement autonomes fondés sur des analyses et décisions générées au niveau local de leur domaine d'opération. Pour cela, les autorités exerçant un contrôle doivent:
1. Analyser finement tous les messages par des moyens de saisie et de traitement localisés ou se localisant dans le système homme-machine des utilisateurs humains eux-mêmes ou à leur périphérie.
2. Faire communiquer ces systèmes locaux, tant en termes de messages proprement dit qu'en termes de contenus de connaissances partageables ou partagées.
3. Procéder à des analyses plus globales, sous forme de synthèses éclairantes et d'évaluations 
groupales.
4. Approfondir l'analyse des échanges considérés comme politiquement intéressants, ou spécifiques, ou créant des bifurcations sémantiques et par conséquent influençant les autres.
5. Transmettre systématiquement ces analyses, aussi bien à un niveau supérieur qu'aux autres 
systèmes opérant dans les mêmes directions.
6. Analyser en permanence l'ensemble de ces produits et construire à partir d'eux un réseau sémantique dynamique global (compréhension du monde en vue d'une action déterminée).
7. Décider le cas échéant d'intervenir sur les systèmes des opérateurs par blocages au niveau de leurs OS ou de leurs transmissions.
Il faut bien voir que tout ceci peut se passer d'observateurs humains analysant les échanges interceptés. Les systèmes informatiques utilisés par les humains grâce à l'ouverture obligée sur les réseaux peuvent jouer ce rôle avec une bien plus grande efficacité. De tels systèmes informatiques se comportent en “agents autonomes” au sens du vivant. Ils se caractérisent par:
1. Des besoins fondamentaux de nature électronique supposant l'accès aux ressources matérielles, logiciels et mentales (humaines) permis par une utilisation totale des réseaux.
2. Des désirs résultant des pratiques et tendances ancrées dans ces systèmes par leurs constructeurs ou le comportement de leurs utilisateurs.
3. Des intentions découlant des éléments précédents, de l'état du contexte et des possibilités de traitement.
4. Des émotions qui sont fonction des résultats obtenus. Elles les conduisent à amplifier certaines recherches d'informations et de connaissances.
5. Des capacité de raisonnement utilisant tout ce qui a été réalisé depuis 50 ans en Intelligence Artificielle et en Systèmes à Base de Connaissances.
6? Une capacité à modifier les informations interceptées selon des déploiements d'actions
 multi-échelles.
7. Des potentiels d'apprentissage systématique grâce à l'autonomie des systèmes.
Cette description n'a rien de théorique. On peut dès maintenant envisager le cas où une personne utilisant par exemple un instrument de localisation satellitaire en ligne (GPS) se retrouve très vite sollicitée, prétendument pour son bien, par diverses offres de services qui auront utilisé l'information fournie, en relation avec d'autres obtenues grâce à la consultation, autorisée ou non, de fichiers de données personnelles la concernant (adresse du domicile, caractéristiques de la voiture, nature des déplacements, etc.). En pratique, les deux processus de contrôle se conjuguent. L'individu (ou les objets “intelligents” qu'il utilise) tissera autour de lui, volontairement ou généralement inconsciemment, un tissu potentiellement illimité d'indices le concernant. Dans le même temps, des fichiers centralisés construits par des autorités extérieures se référeront à ces informations censées être “personnelles” pour préciser les profils des personnes ou entités qu'elles voudront identifier et contrôler. La moindre des précautions que les citoyens devraient prendre consisterait à se rendre compte de ce phénomène en développement exponentiel (un mail ou un tweet ne restera jamais confidentiel).
La conjugaison dans les sociétés actuelles de ces deux séries de processus de contrôle produit des individus qui ne peuvent plus échanger d'informations personnelles avec sûreté mais qui au contraire se voient imposer des systèmes connectés qu'ils ne contrôlent plus. Et dont cependant, ils ne peuvent pas se passer. Au plan politique général, les systèmes d'échange sous contrôle se développent avec des tendances sociales que l'on dira régulatrices pour ne pas dire totalitaires, opérant au niveau d'individus considérés comme des variables statistiques. L'exercice de la démocratie telle que classiquement définie perd tout sens, dans ce monde très instable où les bifurcations sont régulées par la force des pouvoirs dominants et la mise à la marge informationnelle des groupes dissidents.
On peut laisser faire ceux qui développent actuellement ce type de système, dans des endroits généralement couverts par le secret défense ou la confidentialité d'entreprise. On attendra que le temps passe et que se produise un effondrement de la civilisation actuelle. (Se référer au magnifique documentaire d'Arte, Survivre au progrès.)
On peut aussi donner aux utilisateurs des systèmes informatisés le moyen de les contrôler en leur permettant de développer un système autonome méta avec des désirs et des tendances correspondant aux valeurs démocratiques du moment et du lieu. Ceci n'exige pas un grand investissement pédagogique. Il suffit de savoir rapprocher des éléments nombreux, disponibles mais encore peu étudiés.
En France comme en Europe, il serait possible de réaliser de manière éthique, et pour cela totalement publique (sur le mode des logiciels libres) un système autonome méta au service de la société et des citoyens, seul capable de contrer des systèmes de contrôle prédateurs. Nous sommes là face à des choix cognitifs de la plus grande ampleur.
Un tel projet, pour avoir l'ampleur nécessaire, devrait être porté par un mouvement éthique général impulsé par les hommes politiques, les journalistes, les scientifiques et les groupes de réflexion intéressés par cette question.
Jean-Paul Baquiast et Alain Cardon
(1). oir: Les écosystèmes de l'information. Les réseaux sociaux, les fichiers de surveillance, les Anonymous... : des systèmes évoluant vers l'autonomie, Jean-Paul Baquiast et Alain Cardon 23/05/2012 lien.
(2) Voir Un Big Brother mondial de 500 milliards de dollars, Jean-Paul Baquiast et Christophe Jacquemin : lien.
Forum — Charger les commentaires