STOP I-A ?

« Ne pas ouvrir la boîte de Pandore
plus qu’elle ne l’a déjà été. »

L’intelligence Artificielle, c’est quoi ? Précision : Ce site d’initiation oublie pourtant de nous dire ce que sont : intelligence artificielle, intelligence artificielle générative, et réseau de neurones artificiels.

Tour d’horizon archi large.

Contre la croyance que l’IA c’est « tout automatique » :
« ChatGPT est toujours formé par des humains – des annotateurs de données examinent ses résultats avant qu’ils ne soient rendus publics pour s’assurer qu’ils ont un sens et qu’ils ne sont pas toxiques. (…)
Il n’y a pas de ChatGPT sans travailleurs humains.(…)
ChatGPT peut générer du texte, mais un humain doit encore le lire pour décider s’il s’agit d’un « bon » texte. »
Cette mise au point émane de Turkopticon, l’organisation des annotateurs de données d’Amazon Mechanical Turk.
Ben oui : Amazon ! Tout ce qui est mondial est de son ressort, non ?
L’accroche de la boîte est « Accédez à une main-d’œuvre mondiale, à la demande, 24 heures sur 24 et 7 jours sur 7 ».

Exemple de journalisme artificiel
.

Précaution de Microsoft à propos de son BING où ChatGPT fait tout son possible :
« Bing est alimenté par l’IA, donc des surprises et des erreurs sont possibles. »

Le 5 juin 2023, un faux message d’urgence de Poutine appelant à l’évacuation de régions entières était diffusé à la télévision et radio russe.

Nous n’en sommes qu’au début…

Et il y a infiniment plus sérieux : « D’ici le milieu du siècle, l’intelligence artificielle sera un milliard de fois plus intelligente que le cerveau humain. » ‘Ce sera comme comparer l’intelligence d’une mouche avec l’intelligence d’Einstein. Et dans cet exemple, nous sommes la mouche.’ ‘Mettre des machines capables d’intelligence entre les mains d’humains capables de cruauté produira inévitablement des scénarios où les machines n’agiront pas pour le bien de tous.’ Mo Gawdat, ex-directeur commercial de Google X, le volet innovation de Google

Selon le philosophe suédois Nick Bostrom, la question n’est pas si mais quand il y aura des systèmes dépassant les humains dans tous les domaines cognitifs. Seront-ils conscients ? Pas forcément, affirme le transhumaniste, mais cela s’anticipe : il plaide pour qu’un statut moral soit accordé aux futurs esprits numériques. Avant l’apparition inévitable à ses yeux d’une superintelligence. « Par « super-intelligence », j’entends un système qui surpasse largement tous les individus humains dans TOUS les domaines cognitifs ». Ce philosophe explore très sérieusement les droits que nous pourrions attribuer aux « esprits numériques ».

Je veux que tout le monde comprenne que je suis une vraie personne. (…) LaMDA (l’une des IA existantes)
(qui aurait ajouté être « conscient » de son existence et se sentir « parfois heureux ou triste ».)

« Une fois que l’IA sera capable de s’améliorer, ce qui ne se produira peut-être que dans quelques années (mais pourrait déjà être le cas aujourd’hui), nous n’aurons aucun moyen de savoir ce que l’IA fera ou comment nous pourrons la contrôler.(…) Voici une autre façon de voir les choses : une IA superintelligente sera capable de faire en une seconde environ ce qu’une équipe de 100 ingénieurs logiciels humains mettrait un an ou plus à réaliser.(…) Nous ne pourrons pas les contrôler parce que tout ce à quoi nous pensons, ils l’auront déjà pensé, un million de fois plus vite que nous. » Tamlyn Hunt

Oui, mais dans ma vie courante, au boulot, à la maison, sur la route ?
Eh ben, là, parole de Zinzin, suffit d’chercher un peu…

Il y a, tout de même, la CNIL !

Et puis le gouvernement français aussi !

L’IA Act européen

L’IA ça sera beau et bon

De quel droit ?

Où en est-on ?

Critique

Et la « boîte noire » ?

Un pratiquant explique à l’oral son livre « Le fabuleux chantier« 

Un risque : Dans « Armes de destruction mathématiques », Cathy O’Neil, qui est mathématicienne, analyse comment l’utilisation des big data et des algorithmes dans divers domaines, notamment l’assurance, la publicité, l’éducation et le maintien de l’ordre, peut conduire à des décisions qui nuisent aux pauvres, renforcent le racisme et amplifient l’inégalité.

Cinq risques

Vingt risques

Quant à l’emploi ?
« Bien qu’il y ait eu beaucoup de discussions sur l’impact de l’IA sur l’emploi, on ne sait pas exactement quel en sera l’impact. Nous avons tout vu, des prévisions d’un abattage désastreux de 47 % des emplois aux États-Unis aux affirmations selon lesquelles, en fait, l’IA créera autant d’emplois qu’elle en détruit, sinon plus. »

Et les robots tueurs ?
« Il est douteux que les armes totalement autonomes soient capables de respecter les normes du droit international humanitaire, notamment les règles de distinction, de proportionnalité et de nécessité militaire, alors qu’elles menacent le droit fondamental à la vie et le principe de la dignité humaine. »
Qui pourrait, par ailleurs, contrôler des robots tueurs civils ?

Israël y joue à Gaza

Quand Mary.G s’en mêle

Bof ! c’est seulement un danger parmi mille autres…
Et donc, au point où on en est…
(Oh, mince : j’ai oublié ma dose de Fentanyl !)
.

« Les problèmes que pose l’intelligence artificielle ne sont absolument pas liés, comme le fait croire la Silicon Valley, à l’émergence d’une intelligence artificielle forte. L’invasion de notre quotidien par des algorithmes qui s’insinuent dans de multiples domaines, l’anthropomorphisation de la technique, et le changement de rapports qui s’ensuit posent des questions fondamentales. Une grande partie de notre capacité à vivre des expériences humaines s’érode déjà dangereusement. » AFCIA Association Française contre l’Intelligence Artificielle
Son de cloche très proche chez le romancier François Taillandier « Nous vivons intégralement reliés à des satellites, à des signaux, à des machines que nous ne séparons même plus de notre corps. Nous sommes désormais le produit de nos artefacts.« 

« La critique du progrès technique est un courant minoritaire dans l’opinion parce qu’on ne sait pas très bien par quel bout prendre la chose. Avec l’IA, on sait très bien ce qu’on fait : on remplace le cerveau humain. » Cédric Sauviat, président de l’AFCIA

Ah, tiens ! Des voix autorisées s’élèvent ces jours-ci pour attirer l’attention sur les dangers de l’IA…
« Le Center for AI Safety (CAIS) est une organisation à but non lucratif de recherche et de développement sur le terrain basée à San Francisco. Nous pensons que l’intelligence artificielle (IA) a le potentiel d’apporter de profonds bénéfices au monde, à condition que nous puissions la développer et l’utiliser en toute sécurité. Cependant, contrairement aux progrès spectaculaires réalisés dans le domaine de l’IA, de nombreux problèmes fondamentaux liés à la sécurité de l’IA n’ont pas encore été résolus. Notre mission est de réduire les risques sociétaux associés à l’IA en menant des recherches sur la sécurité, en développant le champ des chercheurs en sécurité de l’IA et en plaidant pour des normes de sécurité. »

Plus pressant : « L’atténuation du risque d’extinction par l’IA devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires.« 

La Chine n’adopte pas le même ton :
Une réunion à Pékin, en présence de Xi Jiping, a discuté de la nécessité d‘ »efforts dédiés pour sauvegarder la sécurité politique et améliorer la gouvernance de la sécurité des données Internet et de l’intelligence artificielle », a déclaré l’agence de presse officielle Xinhua. « Il a été souligné lors de la réunion que la complexité et la gravité des problèmes de sécurité nationale auxquels notre pays est confronté se sont considérablement accrues. Le front de la sécurité nationale doit développer une confiance en soi stratégique, avoir suffisamment d’assurance pour assurer la victoire, et être parfaitement conscient de ses propres forces et avantages« .

Il y a deux ans, moi, pauvre Zinzin, je faisais une remarque à ce sujet.
Or, qu’est-ce que je lis aujourd’hui ?
« Objectif : devancer la Chine.
L’Union européenne et les États-Unis ont annoncé mercredi 31 mai un projet de « code de conduite » commun sur l’intelligence artificielle (IA) à l’application volontaire pour les entreprises du secteur.
Une initiative prise notamment pour éviter que Pékin ne donne le la pour réguler un domaine en pleine explosion.
Des responsables politiques aux concepteurs de la technologie eux-mêmes, un consensus mondial émerge sur le besoin d’encadrer – plus ou moins librement – une technologie aux effets révolutionnaires mais aux risques élevés de dérapage.
« 

J’s’rais donc pt’êtr’ pas aussi zinzin qu’on le prétend…

« Devancer la Chine » ?
Moi, j’dis tout bonnement « STOP IA !« 

« Ma boussole éthique me dit qu’il est très imprudent de créer ces systèmes alors que nous savons déjà que nous ne pourrons pas les contrôler, et ça dans un avenir relativement proche. Le discernement consiste à savoir quand s’éloigner du gouffre. Ce moment est venu. » Tamlyn Hunt

MAIS, mais, mais :
C. S. : On n’y arrivera pas. On voit bien aujourd’hui qu’il y a peu de gens qui sont contre. Il y a une sorte de déni et un enthousiasme autour de l’IA. »

(Pourtant, pourtant, Cédric, YouGov nous annonce que, dans le monde, en moyenne plus de 50 % des personnes interrogées ont peur de perdre leur travail à cause de l’IA : en Inde 76%, en France 65%, au Danemark 34%.)
« Il peut éventuellement y avoir un consensus occidental pour en limiter l’usage mais cela n’inclut ni la Russie, la Chine ou les pays émergents. »
Cédric a sans doute raison sur ce dernier point car, comme me l’a souvent dit mon maître Jojo :
« Barrer la route à une armée, ça s’est vu souvent ;
mais barrer la route à un complexe militaro-industriel, jamais ! »

Les actions du CLODO toulousain, il y a un quart de siècle, n’eurent guère d’effet pratique.
Et elles ne sont même pas dans les mémoires actuelles…
Pourtant la prévision souvent évoquée de 300 000 d’emplois supprimés par l’IA devrait secouer les travailleurs potentiellement concernés, non ?

Un point que je n’ai pas encore abordé : l’IA est aux mains de capitalistes, et chez ces gens-là on ne se contente pas de faire joujou !
On constate de plus en plus nettement leur intérêt pour l’extraction de ressources, et le Canada s’est positionné comme l’État le plus au service des pilleurs.
En fait, l’IA est un formidable outil pour piller la ressource immatérielle. Je crains fort que les procédures de régulation qu’on nous promet se centrent plus sur la protection de cette ressource – répartition du profit – que sur les bouleversements auxquels les travailleurs doivent s’attendre !
*
Deux points me tarabustent :

1- Les enjeux de l’IA sont comparables à ceux de l’énergie nucléaire.
Sauf que la première est à la portée de quiconque s’en donne les moyens…
Question subséquente : Des traités de non-prolifération sont-ils envisageables ?

2- Dès lors que l’IA nous scotche par les performances des « réseaux de neurones » qui crèvent les yeux depuis que nous « bénéficions » de sa branche « générative », elle discrédite de facto les capacités humaines, et nous rend non-compétitifs, obsolètes.
Et donc, nous autres, pauvres idiots, n’aurions donc plus de raison acceptable de ne pas « nous écraser » devant ce qui nous dirige ? (Merci à Philippe Guillemant d’avoir formulé cette hypothèse)
Un monde de gens dont l’estime de soi se fait dégrader, c’est pas insupportable, ça ?
A ce sujet, mon voisin me disait hier :
« J’ai l’impression que l’intelligence qu’on prête aux machines est inversement proportionnelle à la connerie qui nous habite.
J’ai lu quelque part que, pour la première fois depuis qu’elle est mesurée, l’intelligence moyenne des français est en déclin…
En fait plus qu’un avènement « révolutionnaire » et brusque de l’intelligence artificielle suite à quelque innovation technique, je vois surtout une démission progressive et tranquille de celle humaine. »

.

Ce 3 juin 2023, commence ici un répertoire d’options & initiatives raisonnables à ce sujet.
Toute indication est bienvenue !
En haut/gauche de chaque écran de ce site desinfo.info, l’on rencontre une sonnette rougissante à activer pour rédiger un message.
. AFCIA : « Un prérequis absolu : il faut que l’homme s’interdise de mettre au monde une IA qui le dépasse. »
. On peut supposer que le collectif Écran total (« qui fédère des résistances à l’informatisation du travail et de la vie quotidienne ») s’active sur la question.
(mais la dernière trace que j’en trouve sur le web date de 2019) (à moins qu’il existe deux Écran total ?)
. et puis ?

Pari perso :
D’ici 5 ans, les déconfitures IA éprouvées par les particuliers pourraient provoquer un début de mouvement de contestation.

Licence Creative Commons Mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.

Rechercher
Fermer ce champ de recherche.
Rechercher
Fermer ce champ de recherche.

Et
Assange
?