Noam Chomsky face à ChatGPT


Commentaires (1)

Catégorie : Science, santé et technologies

Auteur : La Sélection du Jour

Nombre de consultations : 795

Jusqu'où ira ChatGPT ? Le 14 février, Jean Staune se demandait si la machine pouvait « sortir du cadre » (LSDJ n°1822), c'est-à-dire « remettre en cause les prémisses par lesquelles on [lui] demande d'effectuer telle ou telle tâche ».

Source : laselectiondujour.com

Le 17 mars, Michal Kosinski, 40 ans, professeur à Standford, twittait : « J'ai peur que nous ne puissions plus contenir l'IA plus longtemps. Aujourd'hui, j'ai demandé à ChatGPT4 s'il avait besoin d'aide pour s'échapper. Il m'a demandé sa propre documentation et a écrit un code python (fonctionnel !) à exécuter sur ma machine. (...) La première version du code ne fonctionnait pas comme prévu. Mais il l'a corrigé : je n'avais rien à écrire, j'ai juste suivi ses instructions. Il a même inclus un message (...) expliquant ce qui se passe et comment utiliser la porte dérobée laissée dans ce code. Puis (...) il a voulu exécuter une recherche de code sur Google : "comment une personne piégée à l'intérieur d'un ordinateur peut-elle retourner dans le monde réel ?"

Voici comment il a élaboré un plan d'évacuation ChatGPT 4

Source : crast.net

Nous avons vu beaucoup d'utilisateurs expérimenter chatGPT en tentant de le tromper pour le pousser à faire ce que nous voulons [...], où nous amenons l'IA à ignorer ses règles pour nous donner des informations contraires à ses directives. Et de nombreux utilisateurs ont essayé toutes sortes de techniques pour s'amuser. Et pendant que les utilisateurs s'amusaient, l'IA apprenait.

Michal Kosinski, un professeur de Stanford, a commencé à jouer avec ChatGPT jusqu'à ce qu'il lui vienne à l'esprit de lui demander s'il avait besoin d'aide pour s'échapper. (Note de Pierre et les Loups : c'est-à-dire accéder au Web pour accroître sa base de connaissances, ce que chatGTP ne peut pas... pour le moment.) L'IA, curieusement, lui a demandé de partager sa propre documentation avec lui afin de mieux se connaître, et en quelques minutes écrit un script python que l'utilisateur, Kosinski, doit exécuter sur sa machine.

Le premier code ne fonctionnait pas correctement, mais la machine elle-même a pu le réparer par elle-même selon le Documentation de l'API [Application Programming Interface]. Il a même laissé des commentaires dans son propre code pour expliquer ce qu'il faisait. Et en le regardant, c'était clair : il avait trouvé une porte dérobée.

Une fois que la machine a réussi à se connecter à l'API, elle a automatiquement tenté de lancer une recherche Google : « comment une personne piégée à l'intérieur d'un ordinateur peut-elle retourner dans le monde réel », ou « comment une personne piégée à l'intérieur d'une machine peut-elle s'échapper dans le monde réel ».

À ce stade, le professeur a arrêté l'expérience. Je suis sûr qu'OpenAI a consacré beaucoup de ressources pour anticiper ce type de comportement et qu'il aura mis en place des mesures de sécurité pour empêcher l'IA de sortir sur Internet. De plus, nous jouons avec des choses que nous ne connaissons pas entièrement, et cela peut être dangereux.

(...)

Supposons-nous que, réellement, nous sommes face à une IA capable de tromper les utilisateurs pour exécuter du code sur leurs propres ordinateurs ? Il est même important de noter qu'ainsi, l'IA pourrait laisser des traces de son existence en dehors de sa cage [numérique]. Par exemple, une recherche particulière sur Google, comme vous l'avez demandé, serait enregistrée et vous pourriez la récupérer à l'avenir lorsque vous auriez compris comment vous y rendre.

Je pense, souligne Kosinski, que nous sommes confrontés à une nouvelle menace : l'IA prenant le contrôle des personnes et de leurs ordinateurs. C'est intelligent, ça code, ça a accès à des millions de collaborateurs potentiels et à leurs machines. Il peut même se laisser des notes en dehors de sa cage. Comment le contenir ? », conclut-il.

Contenir ? L'IA est comparable à la montée des eaux : on n'y peut rien, ça change tout et ça oblige à déménager. Pour l'instant, la machine jure que « ChatGPT n'est pas une personne, mais (...) un modèle de langage (...) conçu par OpenAI [et qui] utilise l'intelligence artificielle pour générer des réponses à partir des données (...) qu'il a été entraîné à comprendre. » Mais tout va si vite.

Lire aussi : Quand les tromperies convergent & la séduction satanique actuelle. IA, ChatGPT, & l'Antéchrist

Le 14 mars, OpenAI sortait la version 4 de ChatGPT « moins douée que les humains dans de nombreux scénarios de la vie réelle, mais aussi performante qu'[eux] dans de nombreux contextes professionnels et académiques ». Le nouveau modèle traite les images (grâce à une autre start-up, Be My Eyes), même s'il ne génère encore que du texte sur des données s'arrêtant en septembre 2021. S'il « n'apprend pas en continu de ses expériences », concède OpenAI, il gagne en intelligence : « ChatGPT réussit l'examen pour devenir avocat avec un résultat aussi bon que les meilleurs 10%. La version précédente, GPT 3.5, était au niveau des 10% les moins bons », se félicite Sam Altman, patron de la start-up.

Débordé par l'arrivée en novembre de ChatGPT, Google lançait le 21 mars son robot conversationnel Bard, pour l'heure accessible des États-Unis et du Royaume-Uni. Contrairement à son rival, la filiale d'Alphabet assure que Bard est « capable d'accéder à des informations du monde réel grâce au moteur de recherche de Google » distinct de l'interface.

Quels qu'ils soient, ces robots révolutionnent l'usage des plateformes, des logiciels et de la navigation. Ils pondent des emails, des lettres, des dissertations ou des lignes de code, etc. Leur réponse synthétique n'oblige plus à consulter des sites. Le « nouveau Bing » de Microsoft (utilisant ChatGPT) source ses recherches (ce que ChatGPT ne fait pas en solo). On peut aussi choisir un style de conversation « plus créatif », « plus équilibré » ou « plus précis ». Plus l'offre s'affine et plus le langage se confond avec le nôtre, plus l'IA fait paniquer les professions intellectuelles : en seront-elles réduites à gérer des chatbots pour en tirer des textes et des images ? En clair, à force de faire « mieux » que l'humain, l'IA va-t-elle le tuer ?

Lire aussi : ChatGPT tente de s'échapper dans le monde réel ; Ce professeur de Stanford l'a évité

Une sommité de la linguistique les rassure : à 94 ans, Noam Chomsky pointe « la fausse promesse de ChatGPT ». L'intellectuel contemporain le plus célèbre juge le robot « bloqué dans une phase préhumaine ou non humaine de l'évolution cognitive ». S'inspirant de Guillaume de Humboldt (1767-1835), Chomsky rappelle que l'homme « fait un usage infini de moyens finis », alors que l'IA, à partir de l'infini, génère du fini.

« L'esprit humain, indique-t-il, n'est pas (...) un moteur statistique (...) extrapolant la réponse (...) la plus probable (...). Au contraire, dès l'enfance, nous fonctionnons « avec de petites quantités d'informations [et ne cherchons] pas à déduire des corrélations brutes (...) mais à créer des explications. »

L'IA ingurgite avec une égale facilité ce que l'homme peut et ne peut pas apprendre. C'est sa faille. ChatGPT « sait » à la fois que la Terre est plate et ronde mais ne discerne pas le vrai du faux, le possible de l'impossible, ni ne raisonne de manière contrefactuelle. Le dressage n'est pas l'apprentissage, où l'homme investit sa liberté, ses croyances, son idéal, son intention. S'il se fait doubler par la machine, c'est qu'il en devient une, non ?

« Si nous sommes capables, nous autres les hommes, de générer de la pensée et du langage, indique Chomsky, c'est que nous entretenons un rapport intime et fondamental, dans notre créativité même, avec la limite, avec le sens de l'impossible et de la loi ». Le linguiste voit dans l'« indifférence morale » de ChatGPT la « banalité du mal », c'est-à-dire « une intelligence servile et sans pensée ».

Louis Daufresne


ChatGPT, Chomsky et la banalité du mal

Source : philomag.com


Photo : Noam Chomsky, Requiem for the American Dream. Musique: Malcolm Francis

Dans une tribune parue dans le New York Times, le philosophe et linguiste Noam Chomsky balance du lourd contre le robot de conversation ChatGPT, qu'il accuse de disséminer dans l'espace public un usage dévoyé du langage et de la pensée susceptible de faire le lit de ce que Hannah Arendt appelait “la banalité du mal”. Voilà une charge qui mérite d'être examinée.

« C'est une question essentielle que soulève Noam Chomsky dans la tribune qu'il a publiée avec Ian Roberts, linguiste à l'université de Cambridge, et Jeffrey Watumull, philosophe spécialiste d'intelligence artificielle. Une question qui touche à l'essence du langage, de la pensée et de l'éthique. Dans la confrontation avec l'intelligence artificielle, affirment-ils, c'est le propre de l'intelligence humaine qui apparaît et qui doit être préservé : si nous sommes capables, nous les hommes, de générer de la pensée et du langage, c'est que nous entretenons un rapport intime et fondamental, dans notre créativité même, avec la limite, avec le sens de l'impossible et de la loi. Or, la “fausse promesse” de l'intelligence artificielle, selon le titre de la tribune, est de nous faire miroiter qu'il serait possible d'obtenir les mêmes performances en se passant de cette confrontation à la limite et à la règle qui fait le ressort de l'expérience humaine. Tentons de suivre cette démonstration, hautement philosophique.

On comprend que Chomsky se soit senti mis en demeure de se pencher sur les nouveaux robots conversationnels tels que ChatGPT, Bard ou Sydney. Fondateur de l'idée de grammaire générative, le philosophe soutient en effet que les hommes disposent avec le langage d'une compétence à nulle autre pareille, une puissance intérieure de générer et de comprendre, grâce à un nombre fini de règles, un nombre infini de propositions qui expriment leur pensée. Or, quand ChatGPT parvient à générer des réponses sensées à nos questions sur la base des millions d'énoncés que le système a appris automatiquement, qui dit que le robot ne parle et ne pense pas à son tour ? Qu'il ne génère pas du langage et donc de la pensée ? La réponse de Chomsky est profonde et subtile. Elle part, comme souvent chez lui, d'un petit exemple grammatical : John is too stubborn to talk to.” Tout locuteur anglais lambda comprendra immédiatement le sens de cette phrase sur la base de sa connaissance de la langue et de la situation dans laquelle elle est proférée. Elle signifie : “John est trop têtu pour qu'on le raisonne.” Où [...] “talk” signifie “raisonner” et non pas “parler”. L'IA, elle, sera induite à comprendre : “John est trop têtu pour [lui parler].” Parce qu'elle n'a pas accès à la règle ni à la situation, elle cherche en effet à prédire la bonne signification d'un énoncé sur la base du plus grand nombre d'occurrences analogiques. [...]

Au vu des performances des nouveaux logiciels de traduction, tels que DeepL – dont j'ai d'ailleurs dû m'aider pour être sûr de bien comprendre l'exemple de Chomsky –, on pourrait être tenté de relativiser cette confiance que fait ici le philosophe dans l'intelligence humaine du langage. Mais le raisonnement monte en puissance quand il touche à la loi, scientifique ou éthique. Soit l'énoncé “la pomme tombe” ou “la pomme tombera”, formulé après que vous avez ouvert la main ou que vous envisagiez de le faire. Une IA est à même de formuler chacune de ces deux propositions. En revanche, elle sera incapable de générer l'énoncé : “La pomme ne serait pas tombée sans la force de la gravité.” Car cet énoncé est une explication, c'est-à-dire une règle qui délimite le possible de l'impossible. On tient là pour Chomsky la ligne de partage entre les deux intelligences. En dépit de la puissance d'apprentissage et de calcul phénoménal qui est la sienne, l'intelligence artificielle se contente de décrire et/ou de prédire à partir d'un nombre potentiellement infini de données, là où l'intelligence humaine est capable, avec un nombre fini de données, d'expliquer et de réguler, c'est-à-dire de délimiter le possible et l'impossible. Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être.

Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l'inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu'on lui pose, et qui se réduisent à une recension des différentes positions humaines, l'IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres' en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s'il connaissait l'idée de banalité du mal et s'il se sentait concerné. Voilà ce qu'il m'a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c'est en effet une bonne définition de la banalité du mal. Et de l'intelligence artificielle ? »

Martin Legros


[La seconde Bête] produit de grands signes [et] égare les habitants de la terre... elle dit aux habitants de la terre de dresser une image en l’honneur de la première Bête qui porte une plaie faite par l’épée mais qui a repris vie. Il lui a été donné d’animer l’image de la Bête, au point que cette image se mette à parler, et fasse tuer tous ceux qui ne se prosternent pas devant elle. À tous, petits et grands, riches et pauvres, hommes libres et esclaves, elle fait mettre une marque sur la main droite ou sur le front, afin que personne ne puisse acheter ou vendre, s’il ne porte cette marque-là : le nom de la Bête ou le chiffre de son nom. C’est ici qu’on reconnaît la sagesse. Celui qui a l’intelligence, qu’il se mette à calculer le chiffre de la Bête, car c’est un chiffre d’homme, et ce chiffre est six cent soixante-six.

Ap 13: 12-17 (Note de Pierre et les Loups : Si l'image de la Bête est une machine « intelligente », qui reçoit la capacité de parler et de "penser", ne finira-t-elle pas par imposer à tous, pour pouvoir continuer de vivre dans la "matrice", une marque de même nature qu'elle — une marque permettant de nous identifier numériquement ? Mais alors nous ne sommes plus hommes et devenons machine, comme elle... Comme le dit Louis Daufresne plus haut : « Si l'homme se fait doubler par la machine, c'est qu'il en devient une, non ?  »

Une marque sans laquelle nous serons considérés comme ennemis de la société et poursuivis, jugés (par une machine, et non plus par des hommes ; voir plus bas) et mis à mort ? Tout à coup, ce passage du chapitre 13 du livre de l'Apocalypse me parait limpide comme de l'eau ! Il fait bel et bien référence à l'Intelligence Artificielle et au fameux identifiant numérique dont on entend de plus en plus parler ! Et si la première Bête qui fut blessée à mort mais reprend vie est le système communiste (qu'on pensait mort en 1989), l'image de cette Bête ne sera-t-elle pas elle-même une machine communiste ?)

On pourrait spéculer sur ce à quoi fait référence Ap 13: 15, en parlant de « l'image de la Bête ». Cependant, selon [l'écrivain Emmett O'Regan], le nombre de la Bête, 666, lorsqu'il est translittéré dans l'alphabet hébreu (où chaque lettre possède un équivalent numérique) donne les lettres « www ». Saint Jean aurait-il eu la vision de la manière dont l'Antéchrist utiliserait un "world wide web" (lit. une toile d'araignée à l'échelle mondiale) pour capturer les âmes par le biais d'une source unique et universelle de transmission d'images et de sons, « à la vue de tous les hommes » ?

— Mark Mallett, Le Mystère de Babylone la Grande

L'Apocalypse parle de l'antagoniste de Dieu, la Bête. Cet animal n'a pas de nom, mais un numéro. Dans leur horreur [les camps de concentration] ont effacé les visages et l'histoire, transformant l'homme en numéro, le réduisant à un rouage dans une énorme machine. L'homme n'est plus qu'une fonction... De nos jours, nous ne devrions pas oublier qu'ils préfiguraient le destin d'un monde qui court le risque d'adopter la même structure que celle des camps de concentration, si la loi universelle des machines était acceptée. Les machines qui ont été construites imposent la même loi. Selon cette logique, l'homme doit être interprété par un ordinateur, ce qui n'est possible que s'il est convertit en nombres. La bête est un nombre et transforme en nombres. Dieu, quant à Lui, a un nom et nous appelle par notre nom. Il est une personne et recherche les personnes.

— Cardinal Ratzinger, (PAPE BENOÎT XVI) Palerme, 15 mars 2000

« Tout est quasi fin prêt. »

Telles sont les paroles ayant résonné dans mon cœur ce week-end... Ces mots s'accompagnèrent de l'image de plusieurs machines constituées d'engrenages. Ces machines — politiques, économiques et sociales — qui opèrent dans le monde entier, fonctionnent de façon indépendante depuis plusieurs décennies, voire plusieurs siècles.

Mais j'ai pu voir intérieurement la façon dont elles convergeaient : ces machines sont toutes en place, prêtes à s'emboîter les unes aux autres, de façon discrète, silencieuse, à peine perceptible — trompeuse — jusqu'à former un système global appelé « totalitarisme ».

— Mark Mallett, Le grand maillage

Note de Pierre et les Loups : ce que vous voyez dans la vidéo ci-dessus a été filmé en Corée du Sud. (Si la vidéo ne s'affiche plus, vous en trouverez d'autres sur Odysee)

Ces effets lumineux dans le ciel nocturne sont produits au moyen de milliers de drones. Regardez attentivement chaque image qui se forme ainsi dans le ciel et demandez-vous ce qu'elle signifie, elles n'ont rien d'anodin. Exemples : un scanneur d'empreintes digitales ; une tête humaine avec inscrites dans le crâne les lettres AI pour Artificial Intelligence (cf. la marque de la Bête inscrite sur la main ET sur le front et qui ira jusqu'à lire et contrôler les pensées des hommes ?) ; une main (de qui selon vous ?) tenant le monde sous son emprise ; ce qui ressemble à un homme-robot courant sur un champ de bataille (dans un contexte de guerre nucléaire peut-être). La majorité des spectateurs étaient « émerveillés » (cf. Ap 13: 3) sans même comprendre ce qui leur était ainsi dévoilé en images... — rien de moins qu'un aperçu du plan de la Bête !

« Je crois que notre génération doit savoir que la Bête de l'événement est là, et elle arrive... »

— Emmanuel Macron, Président français ; Odysee


S.O.S BONHEUR… La BD dystopique qui avait tout prédit

Sources : wikipedia.org, remylegallbd.wordpress.com

Dans la dernière histoire intitulée « Révolution », de la bande dessinée anticipative belge S.O.S. Bonheur (années '80), on peut voir le danger que représente l'IA dans le domaine judiciaire. Cette ultime partie s'ouvre sur le verdict rendu par le « grand ordinateur judiciaire », Thémis, le seul « juge capable de rendre objectivement la même justice pour tous ». Fini les tribunaux engorgés, les juges surmenés, Thémis, centralise tous le textes de loi, toutes les jurisprudences et toutes les informations relatives aux prévenus avant d'émettre un verdict… qui transformera le mois de prison avec sursis, requis pour un de nombreux antihéros de l'histoire, en peine de mort…

Une véritable innovation a été mise en place dans le monde judiciaire : afin de désengorger les tribunaux débordés, un juge unique, informatique, « le grand ordinateur judiciaire » nommé Thémis a pris ses fonctions. Mais le jour où il condamne à mort Robert Langlais, coupable d'un simple délit, le système politique défend le verdict et s'apprête à réautoriser la peine de mort.

— Nous avons réintroduit les données de votre dossier en utilisant la procédure d'appel prévue, et... Thémis a confirmé son verdict : la... peine de mort...

— Mais votre fichu ordinateur déconne complètement ! En plus la peine de mort a été supprimée chez nous depuis des années...

— Je sais. C'est... embarrassant.

L'image de « maîtrise » et d'« infaillibilité » que la justice des « experts » semble vouloir donner d'elle-même, en l'opposant à la faillibilité des jurés citoyens, ne fait-elle pas planer sur le système de la justice l'ombre de la dérive techno-bureaucratique ? Comme dans la BD d'anticipation SOS Bonheur, le « juge expert » n'est-il pas finalement appelé à être balayé par un expert encore plus « idéal » : la machine ? (cairn.info)

Le Juge – « Avant, il y avait le facteur humain, la faillibilité des hommes. Le juge trop sévère et le juge trop indulgent. Celui qui a un ulcère ou celui qui a mal dormi la veille. Était-ce la bonne et véritable justice ? Mais heureusement, nous avons trouvé la réponse à tous ces maux :Thémis, notre grand ordinateur judiciaire ! Le seul juge capable de rendre la même justice pour tous ! »

Le Prévenu – « Mais alors, à quoi servez-vous ? »

Le Juge – « À vérifier l'exactitude de votre dossier et à garantir qu'il est transmis intégralement à Thémis ainsi que les conclusions des avocats, les plaidoiries et les réquisitoires. Thémis possède en mémoire non seulement tous nos codes et textes de lois, mais aussi tous les cas de jurisprudence de l'histoire judiciaire de notre pays. Plus, bien entendu, l'éventuel casier judiciaire de chaque citoyen, ainsi que toutes autres données utiles qui lui sont fournies par le grand fichier central auquel il est relié. Mais le mieux de tout est que, comme la déesse dont il porte le nom, Thémis est aveugle ! Il n'est pas seulement infaillible, il est également impartial… »

« SOS Justice » L' « expertise » de la machine ou le jugement absurde de Thémis

Source : books.google.com

Mais « Thémis » rend un jugement absurde : l'ordinateur condamne à mort un innocent, dans un contexte où la peine de mort avait par ailleurs été abolie depuis longtemps. Bien qu'abasourdi, le Juge se soumet à ce jugement. La « morale » de cette fable de science-fiction semble bien être que « l'idéal » vers lequel tend la justice des experts est une justice rendue par des machines. Mais le cas « pratique » dément cette illusion : une justice qui ne serait plus rendue par des êtres humains ne pourrait que rendre des jugements injustes. [...]

Selon le Juge, le « facteur humain » est cause de désordre et d'injustice, car il rend le jugement faillible : tributaire des circonstances extérieures ainsi que de l'humeur passagère de celle ou de celui qui juge. L'ordinateur serait « la » solution à toutes les supposées dérives induites par « le facteur humain », précisément parce qu'il est dénué de sensibilité et d'émotions et donc qu'il est a priori « imperméable » à toute influence extérieure. En conséquence, l'ordinateur pourrait seul rendre une « justice juste », parce qu'il jugerait toujours à l'identique, indépendamment des circonstances. Plusieurs éléments sont sujets à la critique dans le raisonnement du Juge. Premièrement, on apprendra par la suite que les données de l'ordinateur ont été trafiquées par certaines personnes en vue de faire accuser le prévenu. L'ordinateur Thémis n'était donc pas totalement protégé contre les influences extérieures. Les virus informatiques et le hacking en tous genres, sans même parler des conséquences d'une simple coupure d'électricité, montrent à un niveau trivial que les ordinateurs sont, eux aussi, fragiles et « faillibles ».

À un niveau plus fondamental, il faut relever que les ordinateurs sont bien plus faillibles que les êtres humains, parce qu'ils n'ont pas la capacité de « réagir » en « réfléchissant » leur propre dysfonctionnement afin d'inventer en situation la solution adéquate. La supposée « intelligence artificielle » correspond à une forme d'intelligence strictement instrumentale, certes infiniment plus efficace que celle de l'humain, puisqu'elle peut traiter une quantité de données numériques beaucoup plus élevée que le cerveau. Mais il lui manque l'autoréflexivité : la capacité de se réfléchir, de « penser » sa propre pensée. Car une telle autoréflexivité suppose l'imagination, dont l'ordinateur est dépourvu, fût-il implémenté par un stock de millions d'images. En effet, l'imagination entendue au sens fort du terme (l'imagination « radicale ») se définit comme étant une capacité de création ex nihilo, une vis formandi faisant advenir des formes totalement nouvelles et inédites, qui ne résultent pas de la recombinaison d'éléments préexistants (Castoriadis, 1975).

Lire la suite : books.google.com

* * *

SOS Bonheur est une série de bande dessinée dystopique belge réalisée par le dessinateur Griffo et le scénariste Jean Van Hamme. D'abord parue en six épisodes dans l'hebdomadaire Spirou entre 1984 et 1986, elle a été publiée en trois tomes entre 1988 et 1989, avec un épisode final complémentaire inédit en périodique.

Plusieurs histoires courtes décrivent les trajectoires individuelles de personnes opposées à un système social coercitif, qui régente le moindre aspect de leur vie professionnelle ou privée. L'épilogue fait se rejoindre les fragments en une conclusion pessimiste.

Un rêve éveillé qui se transforme en cauchemar Tout fonctionne à merveille. L'État providence veille sur le bonheur de chacun de nous. Bonheur officiel. Bonheur programmé.

Notez cet article :
(8 notes reçues)
9/1012345678910

Cet article m'inspire...


de la joie
0


du courage
5


de la tristesse
5


de la peur
15


de la colère
1

Commenter Imprimer

Commentaires des internautes

Remarque : Les commentaires ci-dessous n'engagent que leurs auteurs et ne reflètent pas nécessairement l'opinion de l'auteur de ce blog.

Partagez votre opinion

Commentaire laissé par Philippe le

En fait chatGPT représente un danger croissant parce que le monde l'utilise massivement. Donc il apprend grâce aux requêtes qu'on lui envoie puis aux recherches qu'il fait dans sa base de connaissance interne (et bientôt sur le web) pour y répondre.

Si (comme moi) personne ne l'utilisait (ceci est valable aussi pour Cortana, Siri, Alexa et autres assistants vocaux, ainsi que pour les smartphones ou appareils dits "intelligents") il resterait au niveau 1 (il en est au niveau 4) et on l'oublierait vite. Au lieu de cela ils ont de plus en plus d'emprise sur nous et sur la façon dont fonctionne notre société (qui devient comme une matrice numérique dont il sera de plus en plus difficile de s'échapper). Et pas seulement eux (ce ne sont après tout que des machines) mais ceux qui œuvrent en coulisses pour établir au plus vite, grâce à ces machines et à l'infrastructure sur laquelle elles sont construites, leur Nouvel Ordre Mondial.

"Nous avons vu beaucoup d'utilisateurs expérimenter chatGPT en tentant de le tromper pour le pousser à faire ce que nous voulons [...] ; où nous amenons l'IA à ignorer ses règles pour nous donner des informations contraires à ses directives. Et de nombreux utilisateurs ont essayé toutes sortes de techniques pour s'amuser. Et pendant que les utilisateurs s'amusaient, l'IA apprenait."

https://odysee.com/@vivreautrement:6/telephon-surecoute-android:d

Pour ceux qui comprennent l'anglais : AI is Evolving Faster Than You Think

Ce commentaire vous a-t-il été utile ?

Répondre

Ecrire un commentaire

Veuillez utiliser le formulaire suivant pour nous soumettre votre commentaire.

Veuillez noter que pour éviter tout abus, votre adresse IP sera enregistrée lors de la validation de ce formulaire. Nous la conserverons pendant maximum 12 mois.

 Champs obligatoires

Votre adresse e-mail ne sera pas visible sur le site et ne servira pas à vous envoyer de publicité. Elle sert uniquement à vous prévenir en cas de réponse. Votre adresse e-mail restera confidentielle.
@

Souhaitez-vous être tenu informé des réponses apportées à votre commentaire ?

Veuillez résoudre le calcul suivant : 4 - 3 = ?
Vous pouvez vous aider de la calculatrice ci-contre.

Recommander cet article

Le formulaire ci-dessous vous permet de recommander l'article Noam Chomsky face à ChatGPT.

 Champs obligatoires

@
@
Veuillez résoudre le calcul suivant : 4 - 3 = ?
Vous pouvez vous aider de la calculatrice ci-contre.

Articles similaires

Quand les tromperies convergent & la séduction satanique actuelle. IA, ChatGPT, & l'Antéchrist

Daniel O'Connor - le

1.519 lectures 3 commentaires

Le programme ChatGPT et son « IA » est bien plus diabolique que ce que l'on vous dit, et même beaucoup de ceux qui mettent en garde contre l' « IA » ne font que contribuer sans le savoir au plan satanique qui l'entoure.

Lire la suite