à propos d'IA en 2023 : "Il existe bien une différence entre ce qu'une machine dit et ce qu'elle "comprend" ; d'ailleurs, elle ne comprend rien."

"La responsabilité appartient ainsi aux concepteurs plutôt qu'aux utilisateurs,
comme affirme aussi la nouvelle législation européenne en matière d'intelligence artificielle. Un
output susceptible de porter atteinte au bien-être de l'utilisateur est supposé avoir été provoqué causalement par le fabricant d'un chatbot, même si celui-ci n'avait formé aucune intention de léser celui-là et ne pouvait même, par conception, avoir la connaissance de cet output
particulier." Alexei Grinbaum, "Parole de machines – Dialoguer avec une IA", humenSciences, mai 2023, 192p. 17,90 €

Source de polémiques récentes, voir d'interdiction dans certains pays, ChatGPT, édité par OpenIA, et ses consoeures IA nous interpellent : quelle place leur réserver dans nos sociétés ? Comment les utiliser et au profit de qui ? Comment interagir avec elles ? Monsieur Alexei Grinbaum fait le point, à fin mars 2023. Sa dernière oeuvre est donc d'actualité sur le sujet, étant donné sa compétence reconnue. 

Que lors une interaction humain-machine, la machine réponde de manière quasi-humaine – avec apparement de l'empathie, de l'émotion, etc – éveille en nous le même type de réaction émotionnelle ne veut pas dire que l'émotion est ressentie du côté du silicium : ce ne sont que des réactions statistiquement correctes pour réagir face à un humain, et entraîner une projection des sentiments par l'être humain. Que le transformeur au coeur de l'IA ne soit qu'un automate engloutissant quelques TeraOctets de données de conversations ne lui permet pas d'accéder au signifiant : elle manipule des éléments de langages  pour produire un rendu qui soit statistiquement et socialement convenable. C'est tellement dénué de sens qu'il est nécessaire de coupler ce transformeur à une autre IA, spécialisée, elle, dont le seul rôle est de vérifier que le projet de rendu sera socialement acceptable.

Si il n'y a pas de signifié, il n'y a encore moins d'intention puisqu'il n'y a pas de conscience : l'IA est naïve, innocente, "adamesque" en ce qu'elle ne peut connaître ni le bien ni le mal, n'ayant pas d'intention. C'est un Golem, un Robot. Une comparaison avec la Kabbale et le travail talmudique est tout à fait pertinente, d'autres écrits mystiques nous guident aussi : " Au commencement était le Verbe (λόγος), et le Verbe était auprès de Dieu, et le Verbe était Dieu." Nous nous situons donc avant le bien et le mal.

Le travail de l'IA conversationnelle est donc sur le mot, le verbe, l'écrit, l'oral n'étant considéré que comme une synthèse vocale. Nous sommes donc sur la forme et il ne faut pas s'y tromper. Cela dit, étant donné la potentiellement grande qualité de l'écrit généré, il est nécesaire d'y inclure une signature (watermark) pour diférencier ce qui est texte généré, sans ancrage philosophique ou intentionnel, de texte écrit, avec les trois niveaux de sens évoqués plus haut.

Il existe déjà des DeadBots permettant de poursuivre un dialogue artificiel après le décès de l'interlocuteur. Serait-ce une nouvelle manière de faire le deuil ?

Une éthique reste à définir, avant peut être de légaliser. Aujourd'hui nous sommes face à des Golem qui s'expriment sans comprendre ce qu'il signent. On est encore loin des trois lois de la robotique d'Asimov.


Ce livre dense et généreusement sourcé se lit bien, il serait à conseiller à nos décideurs avant qu'ils ne cèdent à l'émotion ou à un respect trop légaliste du RGPD : les IA conversationnelles existent, interdites ou autorisées, et nous devons faire avec. De ce fait si certains métiers risquent d'évoluer voir de disparaître, au moins un nouveau métier émerge : influenceur d'IA !

_________________________________________________

A titre d'exemple, j'ai soumis ce texte à ChatGPT v3.5 en lui demandant de le résumer. Au bout de trois essais, voici le résultat :

"L'article aborde la question de la place des IA conversationnelles dans notre société et explore leur utilisation ainsi que les interactions avec les êtres humains. Il souligne que bien que ces machines puissent répondre de manière quasi-humaine, elles ne possèdent pas de réelle compréhension des émotions ou des intentions. Les IA conversationnelles se basent sur des modèles statistiques et manipulent des éléments de langage sans accéder au sens profond des informations.

L'auteur souligne également que l'IA est dépourvue de signifié et d'intention, la plaçant dans un état d'innocence similaire à celui du Golem. Il fait référence à des écrits mystiques et philosophiques pour appuyer cette idée. L'accent est mis sur le travail de l'IA conversationnelle axé sur le mot et l'écrit, considérant l'oral comme une simple synthèse vocale. Ainsi, il est suggéré d'inclure une signature pour différencier les textes générés de manière algorithmique des textes écrits avec une intention et une philosophie.

L'article mentionne également l'existence des "DeadBots" qui permettent des interactions artificielles après la disparition d'une personne, soulevant la question de l'utilisation de ces technologies dans le processus de deuil.

Enfin, l'auteur souligne la nécessité de définir une éthique pour les IA conversationnelles et met en garde contre les émotions excessives ou une stricte conformité au RGPD. Il conclut en soulignant que les IA conversationnelles existent, qu'elles soient autorisées ou interdites, et que cela peut entraîner l'émergence d'un nouveau métier d'influenceur d'IA."


Aucun commentaire:

meilleur site Nethique.info
Annuaire du Hub PageRank Actuel Creative Commons License
Cette création est mise à disposition sous un contrat Creative Commons.