Il y a 5 commentaires associés à cet article. Vous pouvez les consulter et réagir à votre tour.
253509 avril 2018 — En d’autres temps pas si lointains, disons huit mois-un an, l’apparition de l’acronyme GAFA (pour Google-Apple-Facebook-Amazon) eût été synonyme de triomphe du “progrès en marche” marquant l’officialisation sinon l’institutionnalisation de la prise en charge de cette marche triomphale par les énormes conglomérats de l’internet et des réseaux comme nouvelle puissance technologico-économique, ou technologico-financière ; l’acronyme de la toute-puissance de la postmodernité si l’on veut ; cela, avec une forte dimension, sinon une dimension quasi-exclusive de collusion considérée comme vertueuse avec l’appareil militaro-industriel du Système (des USA). Tout cela aurait donné à cette postmodernité, dans ces “autres temps pas si lointains”, le caractère qui l’aurait défini exactement et conformément aux consignes. Il n’en est rien et l’acronyme GAFA interprété dans ce sens ne fait pas exactement rapport de la vérité-de-situation, au point que c’en est même l’inverse jusqu’à rien moins que l’infamie.
L’apparition de l’acronyme GAFA survient en effet dans nos temps troublés, y compris dans bien des esprits-Système, comme le symbole et l’avertissement que cette force technologique à l’avant-garde du Progrès est entrée dans une ère nouvelle, celle de la confusion, des accusations, des mises en cause, etc., avec un énorme écho de communication et la crainte (pour elle) que son énorme puissance repose, comme toutes cette sorte de construction aujourd’hui, sur des bases d’une considérable fragilité, – Roche Tarpéienne si proche du Capitole, effondrement à quelques encablures du sommet de la réussite, autodestruction accouchée aussitôt par la surpuissance. La postmodernité ne cesse de nous répéter et de nous répéter combien son énorme puissance est bâti sur le sable du désert de ses conceptions et de l’irréalité de ses réalisations, et de son espèce de caractère à la fois narrativiste et virtualiste, et américaniste-globaliste bien entendu.
(Pourquoi pas “narratualiste” contractant les deux termes “narrativiste” et “virtualiste“ : ces entités sont à la fois dépendantes d’une vitesse en constante accélération pour éviter les prises d’une vérité mortelle pour elles, et seule une narrative développant une évolution accélérée peut la leur donner ; et virtualiste, bien entendu, parce que le monde où elles évoluent est virtuel... Mais aucun de ces caractères ne donne un cadre faussaire stable, car l’un, – la vitesse de la narrative, – empêche l’autre, – la construction précise d’un cadre virtualiste, – de se fixer.)
On connaît les problèmes considérables qui pressent aujourd’hui Facebook, qui se trouve dans une position très délicate, l’attaque sans désempare lancée par Trump et son administration contre Amazon... Nous abordons un autre cas, qui est celui des déboires de Google. Moins spectaculaires, marqués par une publicité considérablement moindre, ils sont pourtantplus significatifs en un sens que les déboires de ses frères en postmodernité narratualiste-américaniste.
Le cas de l’évolution de Google, tout en conservant les caractères énoncés plus haut, aborde directement et dans toute la puissance de la technologie, avec toute l’effroyable prospective de l’Intelligence Artificielle (AI) où il conduit des travaux, la coopération sinon la fusion avec l’entité, voire l’égrégore militaro-technologique du Système. Pour comprendre de quoi l’on parle, il suffit de nommer le Pentagone dans son domaine le plus “dur” qui est celui de la technologie avancée de combat à but d’extermination physique, à la manière du crime organisé, c’est-à-dire la finalité du robot-tueur prenant le pouvoir. L’on dispose ainsi d’un excellent exemple, qui est même une sorte d’exploration de ce qui pourrait être le modèle de la principale voie de développement à volonté destructrice et à finalité autodestructrice du Système.
En un sens, il est au moins rassurant que cette situation soit exposée à partir d’une sorte d’“insurrection” d’un nombre significatif d’employés de Google, signant une lettre de protestation contre la coopération engagée par leur firme avec le Pentagone sur le Project Maven. Non pas que Google, comme les autres du GAFA et le reste évidemment, ne coopère pas avec l’appareil militaro-technologie et son appendice du renseignement, mais Maven est d’une autre dimension que tout ce qui a été fait jusqu’ici.
• AvecMaven, nous entrons directement dans le domaine de l’AI appliquée dans l’univers des “robots au pouvoir”, et plus précisément, des “robots-tueurs au pouvoir”, chose immédiatement applicable dès que le robot sera opérationnel.
• Avec Maven, nous entrons dans la structure du remplacement de l’être humain par le robot à cause des “faiblesses” psychologiques de l’être humain dans la fonction de tueur.
Pour expliquer ce cas extrêmement important, nous allons aux sources même de la FakeNews, comme disent nos élites et directions-Système, totalement corrompues et emprisonnées par le Système. Il s’agit d’un texte de RT du 7 avril 2017 dont nous donnons ici l’adaptation en français.
« Des centaines d’employés [NDLR : ou bien 3 000 ?] de Google ont marqué leur désaccord avec le partenariat de l'entreprise avec le Pentagone dans la technologie de l’Intelligence Artificielle (IA), craignant qu'il puisse être utilisé pour la guerre. Des experts ont déclaré à RT que cette alliance “douteuse” pourrait entraîner un “désastre pour l'humanité”. Ces employés de Google ont écrit une lettre au PDG de la société, Sundar Pichai, appelant le géant américain de la technologie à se retirer immédiatement d'un programme controversé que beaucoup craignent de voir utilisé pour la guerre. “Nous croyons que Google ne devrait pas être impliqué dans le business de la guerre”, lit-on dans cette lettre obtenue et publiée il y a deux jours par le New York Times.
» Gizmodo a annoncé le mois dernier le partenariat de Google avec le département américain de la Défense (DoD), ajoutant que le ‘Project Maven’, dont la mission est “d'accélérer l'intégration de la masse de données du DoD et l’apprentissage de l’automatisation” a démarré en avril 2017. Le projet verra notamment Google développer les missions de surveillance par AI pour aider l'armée US dans l’examen des séquences-vidéo réalisées par ses drones, “pour détecter les véhicules et autres objets, suivre leurs mouvements et fournir les résultats au Département de la Défense”.
» Google affirme que sa technologie utilisée est respectueuse des droits de l’homme, qu’elle est conçue pour “sauver des vies” et “utilisée à des fins non offensives”. Mais Noel Sharkey, professeur émérite d'IA à l'Université de Sheffield, a déclaré à RT que les craintes des employés de Google “sont tout à fait justifiées”.
» Le programme Maven“est complètement dévolu à introduire l’IA dans les zones conflictuelles actives”, ajoutant qu’il est possible que Google puisse montrer une certaine naïveté en acceptant cette définition de l’utilisation de sa technologie. “Une fois que vous commencez à travailler avec l'armée, vous n'avez aucun contrôle sur l'utilisation de votre produit, et cela devrait suffire pour justifier les plus grandes inquiétudes.” Il a averti que si les drones avaient actuellement des opérateurs humains, qui au moins “observent la cible et tentent de l’identifier avant de décider de l’engager”, les choses peuvent prendre une allure radicalement différente [si l’IA est utilisée]. “Si l’imagerie de Google est très bonne, ils cesseront d’utiliser les opérateurs humains, ils laisseront aux robots toute la responsabilité de la mission, pour trouver leurs cibles et pour les détruire, c’est-à-dire essentiellement tuer des êtres humains, sans le moindre contrôle humain. Ce serait un désastre pour l'humanité.”
» Et il y a une autre préoccupation ici – la vie privée.
» “Google est une entreprise mondiale et travaille pour le Pentagone maintenant, et le Pentagone c’est les États-Unis. Pour moi, en Grande-Bretagne, cela signifie que c'est une puissance étrangère. Jusqu’où vont-ils aller en se glissant dans le même lit que celui du Pentagone ?”, s’inquiète Sharkey. “Google possède la plupart de nos données, et je ne veux pas que le Pentagone ait mes données.”
» Selon le Wall Street Journal, le département américain de la Défense a dépensé en 2017 la somme très-respectable de $7,4 milliards dans des domaines liés à l’IA l’année dernière. Les experts qui ont parlé à RT disent que la question à un million de dollars est de savoir si “cela va sauver des vies, ou si cela va conduire à une utilisation plus importante de la technologie, plus de frappes de drones, plus de pays s'engageant dans cette technologie ?”
» C’est vraiment “discutable”, a déclaré le Dr Mark Gubrud, physicien et chercheur en contrôle des armes à l'Université de Caroline du Nord, à RT. Par contre, “C’est très encourageant de voir surgir chez les employés de Google un mouvement de préoccupation concernant la contribution de leur entreprise dans la dérive mondiale vers des armes autonomes, des robots tueurs.”
» SelonThe Intercept du 7 mars 2018, Google est en train de développer une technologie qui permettra aux analystes des drones d’“interpréter les vastes données d’image recueillies par une flotte de 1 100 drones militaires pour mieux cibler les frappes contre l’Etat islamique”.
» Ce mois d’avril marque le cinquième anniversaire du lancement de Campaign to Stop Killer Robots. Ses partisans s’opposent “à la capacité et à l’autorisation données aux machines de déterminer qui ou quoi cibler sur le champ de bataille”, soulignant de nombreux problèmes, y compris éthiques et juridiques, que soulèvent de telles pratiques. “Une action audacieuse est nécessaire avant que la technologie ne prenne de l’avance et qu’il soit trop tard pour interdire de manière préventive les systèmes d’armes qui prendraient des décisions de vie ou de mort sur le champ de bataille”, a déclaré Steve Goose, co-fondateur de Stop Killer Robots, dans un communiqué en novembre 2017. »
Cette “fronde” des employés de Google, qui porterait en fait sur 3 000 employés de la firme, a été largement documentée dans les faits par deux textes de WSWS.org les 8 mars 2018 (l’admission par Google de son engagement dans le projet en question) et le 5 avril 2018 (sur la lettre collective des employés de Google). Les termes généraux du texte ci-dessus sont largement confirmés dans le sens de l’ampleur de la crise intérieure chez Google.
Sans l’ombre du moindre souci d’ironie, la porte-parole de Google à répondu à RT qui l’interrogeait par un déluge de platitudes se terminant par cette dernière platitude qui, pourtant, a pour nous un très grand intérêt : la preuve que Google travaille dans ce projet avec le Pentagone pour « sauver des vies », c’est que son expertise va permettre de remplacer des personnes qui sont épuisées par le métier qu’elles exercent. C’est l’exacte vérité, puisqu’il s’agit pour Google de fournir notamment des programmes/des robots pouvant remplacer les “pilotes” des drones qui, à 10 000 kilomètres de distance, patrouillent, recherchent, localisent, attaquent et tuent. (C’est bien ce que dit le professeur Sharkey : « Si l'imagerie de Google est très bonne, ils cesseront d'utiliser les opérateurs humains, ils laisseront aux robots toute la responsabilité de la mission, pour trouver leurs cibles et pour les détruire, c’est-à-dire essentiellement tuer des êtres humains, sans le moindre contrôle humain. » Et de conclure : « Ce serait un désastre pour l'humanité. »)
Il y a là un cas très intéressant. La technique du drone-tueur inaugurée d’une façon régulière à la fin de l’administration GW Bush est devenue une méthode d’action universelle sous la présidence Obama, homme de grande qualité humanitaire comme chacun sait. Il s’agit de l’“assassinat ciblé” qui permet d’effectuer un “contrat” sans le moindre risque, bien entendu sans le moindre intérêt accordé aux normes internationales. La méthode doit être décrite effectivement selon des mots empruntés au vocabulaire du crime organisé, puisqu’il s’agit bien de cela, d’une méthode de “crime organisé”. La distance mise entre le tueur et sa cible semblait être une garantie d’intégrité pour le premier, qui relevait d’unités régulières, essentiellement de l’USAF et de l’un ou l’autre service spécial, CIA en tête mais aussi sous-traitrants civils. Bref, une sorte de “tueur en pantoufles”, sans quitter le confort de l’American Dream à partir de telle ou telle base de Virginie ou du Nevada, jusqu’à des relais dans des bases extérieures plus avancées.
Il est apparu rapidement que cette méthode, qui organisait d’une façon si rationnelle en termes d’efficacité sans risque, de sécurité pour les exécuteurs, d’anonymat dans l’exécution, etc., conduisait à des situations qui, à l’inverse, évoluaient jusqu’à devenir de plus en plus délicates, de plus en plus tendues. A partir de 2010-2011, l’USAF enregistrait plus de départs que d’arrivées chez les “pilotes” de drone (ce travail se faisant sur base de volontariat ou, dans tous les cas, sous condition d’être accepté par l’exécuteur choisi). En 2013, le niveau de recrutement de l’USAF fut officiellement raté de 39% et, en 2014, le GAO produisit un rapport qui exposait longuement ce qu’on pouvait désormais désigner comme “la crise des pilotes de drone”.
Depuis, l’USAF a eu tendance à dissimuler les vrais chiffres du nombre de “pilotes de drones” et des problèmes qu’ils rencontrent, qui vont jusqu’à des conditions d’impossibilité d’accomplir certaines missions d’élimination à cause du manque de pilotes. (On a parlé de 15% à 20% des missions de drone non-accomplies en 2016 à cause de ce problème.) Il n’y a aucune raison pour penser que les grandes tendances décelées par le rapport du GAO soient modifiées : épuisement psychologique, sensation d’isolement de l’accomplissement d’un acte de guerre meurtrier dans un milieu complètement pacifique, angoisse dans la détermination des cibles, sentiment de culpabilité à cause des conditions de brutalité et d’impunité de l’assassinat, de la légitimité de l’acte, etc. D’une façon générale, toutes les faiblesses humaines devant des tâches inhumaines rendues encore plus inhumaines par le technologisme, particulièrement dans les conditions actuelles de conflit, sont présentes et très actives.
Il s’agit d’une véritable crise de la psychologie. Un psychologue civil, consulté par le GAO et se référant aux troubles psychologiques considérables engendrés par les conflits (PTSD) a expliqué qu’avec cette sorte de personnes, « on se trouve devant une autre sorte de PTSD : au lieu d’un ‘Post-Traumatic-Stress-Disorder’, ce serait plutôt un ‘Present-Traumatic-Stress-Disorder... »
Ainsi comprend-on combien un programme-IA peut aider décisivement à résoudre cette sorte de problème. La disparition de tout sentiment, c’est-à-dire de toutes les faiblesses psychologiques humaines, c’est-à-dire aussi de toutes les interrogations morales et les angoisses de conscience devant une tâche inhumaine, résout décisivement la “crise des pilotes de drone”. En même temps, et de manière aussi décisive, certains des caractères fondamentaux de l’Intelligence Artificielle dénoncés par les adversaires de cette “révolution”, sont clairement mis en évidence.
A terme, et malgré toutes les précautions qu’on peut imaginer, et parce qu’on se trouve dans un milieu où le technologisme domine tout et conduit évidemment à tout lui céder, les robots-pilotes de drones deviennent les maîtres absolus de leur mission et l’accomplissent sans la moindre hésitation ni interrogation, y compris toutes les questions et vérifications que les pilotes humains continuent à soulever dans les processus de repérage, d’identification, de décision de tir, etc. L’efficacité que les robots apportent à leur mission, qui demande encore plus d’efficacité, c’est-à-dire encore plus de pouvoirs donnés à l’automatisme, ne cesse de renforcer leur autorité. On découvre ainsi une des voies conduisant à des situations que certains spécialistes du technologisme et de la robotique, après bien des auteurs de science-fiction, ont désigné comme pouvant conduire à une “révolte des robots” et/ou à “la prise de pouvoir par les robots”.
On sait maintenant depuis longtemps (publiquement, depuis la crise Snowden-NSA) que les GAFA et tout le reste dans Silicon Valley, animés d’une belle conscience progressiste-sociétale, travaillent comme un seul transgenre pour tous les organismes de sécurité nationale. On sait que Google est particulièrement en pointe sur les questions de la technologie de l’Intelligence Artificielle appliquée. Mais le cas présenté par le projet Maven est particulièrement intéressant parce qu’il présente une collaboration directe menant à une situation opérationnelle tendant à déléguer à des robots des pouvoirs de décision, d’action et d’élimination. En quelque sorte, il offre un schéma opérationnel de “la prise du pouvoir par les robots”dans une activité fondamentale de tuerie et d’affirmation de puissance par la force, à visage découvert.
Sharkey observe « qu’il est possible que Google puisse montrer une certaine naïveté en acceptant cette définition de l’utilisation de sa technologie ». Cela n’est pas nécessairement faux : cette naïveté est de croire, dans le chef de Google, qu’il peut encore contrôler ses technologies une fois qu’il les a confiées à l’armée et au Pentagone. Mais la naïveté existe aussi du côté de l’armée et du Pentagone, qui est de croire qu’ils continueront à contrôler les robots une fois qu’on leur aura confié les pouvoirs de décision dans des missions de cette importance. La naïveté du “grand savoir”, qui se conjugue avec la suffisance de la croyance en son ”savoir”, est un des traits de caractère fondamentaux des croyants du Progrès, fussent-ils perçus comme machiavéliques, fussent-ils perçus comme diaboliques et ainsi de suite, – alors qu’ils sont d’abord “humains-trop-humains”.
C’est l’habituelle leçon de la démarche faustienne depuis l’Agrippa de la Renaissance (voir La Grâce de l’Histoire, Tome-II) et le Goethe du romantisme, le premier étant l’inspirateur du second pour décrire l’acte fondamental du docteur Faust. On comprend ce que veut nous signifier le professeur Sharkey lorsqu’il parle d’« Un désastre pour l’humanité » pour définir la démarche de Google. Reste à voir si cette humanité-là n’a pas besoin d’un désastre de cette sorte, ou dans tous les cas de la menace d’un désastre de cette sorte pour se montrer à elle-même telle qu’elle est, avec mesures à prendre en conséquence... Comme si seule une menace de “révolte des robots” pouvait provoquer une “révolte des humains” prisonniers de leur technologisme.
Forum — Charger les commentaires