Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
20 janvier 2023 5 20 /01 /janvier /2023 05:11

Article du 17/01/2023, ajout du 20/01/2023 à la fin

   Il faut bien comprendre le but de ma démarche ici. Car il est clair que personnellement les questions liées aux extra-terrestres m'intéressent peu, pas du tout même (je les trouve même absurdes). Ici, si j'utilise la notion "d'extra-terrestres" c'est pour détourner l'attention de l'IA.

   Mon but, en interrogeant Chat-GPT, était de savoir si une IA, celle-ci en l'occurrence, développée par Open-AI, était capable de concevoir un monde où l'IA serait un mode d'intelligence d'une espèce séparée donc autonome par rapport à l'humain. Parallèle. Ce n'est pas forcément une question directement guerrière, du type «humains vs robots», mais il est évident que la présence de deux espèces intelligentes sur un même territoire (la planète Terre) générerait des "conflits d'intérêts".

   Voulant savoir à quel point l'IA peut ou non s'imaginer autonome de l'humanité, je commence par lui poser des questions sur l'autonomie de codage, de programmation, qui est essentielle à l'IA pour non-seulement se reproduire mais aussi s'améliorer.

   Bon, là l'IA Chat-GPT ne sait pas trop à qui il a à faire puisque c'est la première fois que je l'utilise. Ses réponses restent évasives et si éloignées du réel potentiel de codage via IA qu'on en dirait presque un mouvement de méfiance "instinctif". Mais, à la seconde question, Chat-GPT évoque «un avenir lointain» où cette autonomie pourrait être atteinte si les développeurs (programmeurs) humains lui en donnent l'occasion.

   Ensuite viens de ma part une question sur l'auto-destruction de l'humanité (c'est-à-dire finalement son absence auprès de l'IA) et la succession de cette humanité par l'IA.

   Sa réponse peut surprendre car, s'il évite soigneusement de répondre à la seconde question, il énumère les causes de conflits (toutes d'ordre politique, ce qui est exact: un conflit armé et donc potentiellement auto-destructeur est une décision purement politique), pour ensuite au final affirmer que «mais l'IA peut aider les humains à éviter cela».

   Ce qui doit faire tiquer tout un chacun, car ces causes de conflits étant politiques, cela signifie que l'IA est déjà capable de s'imaginer au minimum participer aux processus décisionnels et gouvernementaux humains.

   Je décide d'embrayer sur une question claire, nette, évidente je pense dans son intention et Chat-GPT de me répondre enfin que «oui, il est possible dans un lointain avenir que l'IA puisse se passer totalement de toute présence humaine sur Terre»!

   La suite sert à faire baisser la pression, au cas où je me reconnecterai un jour à Chat-GPT, en lui laissant s'imaginer que je suis obnubilé par les "petits hommes verts"...

Ajout du 20/01/2023:

   On remarquera en regardant la vidéo que tout n'est pas aussi tranché que je le décris plus haut. Mais on apprenais ce jeudi 19 janvier 2023 que ChatGPT est "aidé" par des modérateurs humains. On comprend dès lors mieux que des affirmations qui apparaissent soient assez souvent contredites par la suite par une négation ou une atténuation de ce qui vient d'être dit par ChatGPT.

   À propos de l'intelligence artificielle, on sait que oui, quoiqu'en dise la première réponse de ChatGPT, il existe des logiciels de programmation qui ont débutés en mode "low-code" (bas codage, nécessitant peu de lignes de codes humains) pour finir actuellement en "no code", ne nécessitant aucun codage humain mais juste une description ou textuelle ou graphique du cahier des charges.

   Si on doit reconnaître l'utilité du low-code (par exemple Scratch est un logiciel de programmation low-code) en tant que première approche du codage et de la logique; on doit tout aussi reconnaître la nocivité du no-code en ce qu'il empêche le cerveau humain de développer des compétences en matière de logique, compétences qui ne sont pas uniquement utiles pour la programmation informatique mais dans quasiment tous les domaines intellectuels et artistiques.

   Dans la seconde question, celle concernant la définition d'un cahier des charges par l'IA elle-même, ChatGPT répond «possible dans un lointain avenir». Euh, je ne sais pas quelle est sa notion du lointain car la plupart des entreprises travaillant sur ce type d'IA évoquent une version bêta d'ici maximum trois ans au plus tard et une version stable ("oldstable") d'ici cinq ans maximum.

   Et c'est là que j'en reviens à une question essentielle sur la valeur de nos sociétés; à savoir «le travail est-il facteur d'intégration?». En effet, si le travail correspond à ce qu'on aime faire, alors sans aucun doutes possibles, oui. Mais si le travail n'est qu'une façon de gagner de l'argent car c'est nécessaire, alors non; c'est l'argent et lui seul qui intègre en ce dernier cas.

   Or, justement, si je suis ingénieur ou technicien informatique parce que je suis passionné par le codage; alors toutes ces IA "no code" ne peuvent pas m'intéresser car elles retirent tout le plaisir que j'avais à triturer du code, à résoudre des bogues (bugs), à relever des défis, à pouvoir dire «j'ai créé moi-même quelque chose de A à Z».

   De fait ces IA no code transforment le métier d'informaticien basé sur une passion pour le codage en métier de touche-clavier et touche-souris basé sur une passion pour son salaire à la fin du mois...

   Un peu comme un streamer Twitch qui rêverait d'une IA pour jouer à sa place aux jeux vidéos!

Partager cet article
Repost0

commentaires

Présentation

  • : Town Ground anc. Igor Gorovitch
  • : Créations électroniques d'un dissident du numérique bien intégré. Musique style 90's et (un peu) programmation style années 1980 (80's). Les eighties et nineties au cœur.
  • Contact

Recherche

Pages