• AgoraVox sur Twitter
  • RSS
  • Agoravox TV Mobile

Accueil du site > Tribune Libre > Comprendre la menace de l’Intelligence Artificielle Avec Laurent (...)

Comprendre la menace de l’Intelligence Artificielle Avec Laurent Ozon

Laurent Ozon esst notre invité sur la chaîne Youtube.

Au programme de cet entretien mensuel pour présenter les sujets de notre Lettre Confidentielle, l’intelligence artificielle :

« ChatGPT, Midjourney… faut-il avoir peur de ces nouvelles applications de l’intelligence artificielle ?

Ou assiste-t-on simplement à une transformation profonde des pratiques professionnelles ?

Pour tenter d’y voir un peu plus clair sur ces sujets au coeur de l’actualité, il est intéressant de revenir sur un des enjeux centraux autour des IA : sont-elles « intelligentes » ?

Pour répondre à cette question, il faut préalablement définir ce que signifie l’intelligence. »

https://geopolitique-profonde.com/

Tags : High-tech Prospective et futur Intelligence artificielle




Réagissez à l'article

16 réactions à cet article    


  • vote
    JL 4 mai 2023 14:53

    Laurent Ozon évoque la numérisation du monde réel. Cette numérisation a abouti à la création d’un monde virtuel, parallèle mais non affine, loin s’en faut.

     

    Pour cette raison, et bien d’autres, au sujet de l’IA, plutôt que de parler d’intelligences artificielles je préfère parler des intelligences virtuelles.

     


    • vote
      JL 4 mai 2023 20:04

      @JL
       
       de la même façon qu’il ne faut pas appeler vaccin ce qui n’en est pas, il ne faut pas appeler intelligence ce qui n’est qu’illusion d’intelligence.
       
       Une véritable intelligence artificielle serait de notre monde. Ces machines sont d’un autre monde, elles sont d’un monde virtuel : ce sont des intelligences virtuelles. Ne nous laissons pas leurrer.
       


    • vote
      Gaspard Delanuit Gaspard Delanuit 5 mai 2023 01:38

      @JL

      "ce sont des intelligences virtuelles."

      Même pas, car il ne faut pas appeler intelligence ce qui n’est qu’illusion d’intelligence. Ce sont des machines à calculer. Ce sont réellement des machines et elles font réellement des calculs.

    • vote
      Zero9 Zero9 4 mai 2023 16:53

      Aucune intelligence la dedans, c’est juste des bases de données informatique.


      • vote
        PLACIDE2 4 mai 2023 17:59

        @Zero9 Je connais une personne qui exerce dans ce domaine et parle de "deep learning" (apprentissage profond) ; elle travail avec des données et réalise des algorithmes ; d’après ce que j’ai compris de ses explications (car c’est un autre monde pour moi) ces algorithmes permettent des programmes qui APPRENNENT.


      • vote
        Gaspard Delanuit Gaspard Delanuit 5 mai 2023 01:42

        @PLACIDE2

        Non, ce sont là des jeux de mots et des métaphores à prendre au second degré. Une machine ne peut rien "apprendre" puisqu’elle ne "comprend" rien. Elle peut être programmée pour accumuler des données, c’est tout. 


      • vote
        PLACIDE2 5 mai 2023 05:53

        @Gaspard Delanuit Oui mais peut être que l’acquisition incessante de nouvelles données modifie ses "compétences" et élargi ses capacités de d’analyse et de réponses à des différences ; et qu’elle hiérarchise alors ses réponses de façon autonome .


      • vote
        Gaspard Delanuit Gaspard Delanuit 5 mai 2023 08:18

        @PLACIDE2

        "Oui mais peut être que l’acquisition incessante de nouvelles données modifie ses "compétences" et élargi ses capacités de d’analyse et de réponses à des différences ; et qu’elle hiérarchise alors ses réponses de façon autonome"

        Pour qu’il en soit ainsi, il faut d’abord de la vie. La supposition que vous faites peut concerner les animaux et même peut-être les plantes, mais pas les machines. L’intelligence est une propriété du vivant (qui ne comprend pas cela ne peut pas aller plus loin). 

      • vote
        PLACIDE2 5 mai 2023 09:26

        @Gaspard Delanuit
        Où avez-vous vu le mot intelligence dans mes posts ?" Pour qu’il en soit ainsi, il faut d’abord de la vie" je n’ai pas d’a priori à ce sujet .


      • vote
        juanyves juanyves 5 mai 2023 11:41

        @PLACIDE2
        Ce que certains appellent apprentissage n’a rien à voir avec l’apprentissage humain. Ce n’est qu’une gestion statistique d’évènements qui découle de la loi de Bayes. L’arbre de la gestion informatique de la question (problème) posée se défini par des noeuds qui correspondent schématiquement à "connaissant certains paramètres A’s quelle est la probabilité que B arrive. Chaque fois que le système informatique tombe juste sur ce noeud il gagne 1 point, s’il tombe faux alors on cherche quel est le paramètre qui permet de différencier la réponse et on l’introduit dans la liste des paramètres. On a donc un "apprentissage" vu qu’avec ce nouveau paramètre introduit on améliore la réponse statistique du système. Ce n’est donc pas de l’apprentissage au vrai sens du terme qui inclut une autre approche sinon seulement une amélioration d’une réponse statistique sur un noeud donné. Étant donné que toute question se divise en des milliards de noeuds et de la vitesse de gestion des opérations binaires que cela suppose on a un retour en temps réel qui donne l’impression d’une réponse réfléchie. Ce qui est faux. Ce n’est qu’une illusion dépendante de la programmation qui a été faite au départ, comme toute perception de la gestion informatique d’un écran d’ordinateur ou il n’y a aucun déplacement mais seulement une gestion de points (pixels) qui s’allument ou s’éteignent pour donner l’impression de mouvement, d’écriture ou de vie réelle.
        L’IA n’a absolument rien d’intelligent, ce n’est tout au plus que de l’Intelligence Assistée ou Augmentée, l’intelligence restant au niveau de celui qui l’utilise.
        Le danger que suppose l’IA provient de la méconnaissance de ce qu’elle représente et surtout de l’illusion qu’elle donne. La grosse partie du travail s’est faite sur l’interface de communication : cad sur la façon de transmettre le résultat avec des intonation , une assurance, une autorité et une fluidité des sons particulièrement surprenante afin de parfaire l’illusion d’une réponse intelligente. ChapGpt et consorts sont avant tout des modèles de langage. Ce n’est qu’une réponse statistique extraordinaire, facinante et extrêmement rapide à une question ou problème posé. La faculté du système à gérer ses erreurs statistiques n’a rien à voir avec l’intelligence mais seulement avec la mémoire, le stockage des données et la vitesse de traitement des "noeuds du problème".
        L’énorme danger que représente l’IA n’est pas dans son fonctionnement mais dans l’illusion et la fascination qu’elle procure sur des personnes ignorantes et sur l’usage qui peut en être fait par des gens sans scrupule pour tromper les gens auxquels ils s’adressent, se faisant passer pour ce qu’ils ne sont pas. D’autant plus que cette fascination est renforcée par toute une littérature de science fiction, les communication d’abrutis comme l’Alexandre, les prophètes du transhumanisme ou les gourous de la finance qui veulent s’approprier le peu que détiennent encore les gogos.
        Il suffit d’imaginer ce qu’on pu faire des gens avec la poudre (fusil) face à des "sauvages" qui ne connaissaient rien d’autre que des flèches et des morceaux de bambous.
        Ce sont avant tout des modèles de langage basés sur un traitement informatique et statistique absolument extraordinaire.
        Ce qui est dangereux n’est pas la puissance de traitement et de correction des erreurs que suppose l’IA mais bien l’illusion et les possibilités de tromperies qu’elle suppose. Le terme d’Intelligence Artificielle est déjà en lui-même une immense tromperie
        Craig Martell, directeur de l’intelligence numérique et artificielle au ministère américain de la défense :
        Martell en se réferant spécifiquement aux modèles linguistiques d’IA générative, comme ChatGPT, dit qu’ils posent un "problème fascinant" : "ils ne comprennent pas le contexte, et les gens prendront leurs paroles pour des faits parce que les modèles parlent de manière autoritaire".


      • vote
        Gaspard Delanuit Gaspard Delanuit 5 mai 2023 11:59

        @PLACIDE2

        "Où avez-vous vu le mot intelligence dans mes posts ?"

        Vous parlez d’une machine qui serait capable d’apprendre. Or, pour apprendre il faut de l’intelligence. Ce qui est dépourvu d’intelligence (une chaise, une chaussure, un ordinateur, un algorithme) ne peut pas apprendre (ce qui ne signifie pas que cela ne se modifie pas au contact de l’environnement, mais que cette modification n’est pas un apprentissage). 

         "Pour qu’il en soit ainsi, il faut d’abord de la vie" je n’ai pas d’a priori à ce sujet."

        Je ne sais pas ce que vous appelez ici "a priori", le sens courant de ce terme (péjoratif) est très différent du sens philosophique. "L’intelligence est une propriété du vivant" exprime une connaissance a priori au sens kantien de l’expression. 

         https://fr.wikipedia.org/wiki/A_priori_et_a_posteriori#Th%C3%A9ories


      • vote
        Gaspard Delanuit Gaspard Delanuit 5 mai 2023 12:07

        @juanyves

        "L’énorme danger que représente l’IA n’est pas dans son fonctionnement mais dans l’illusion et la fascination qu’elle procure sur des personnes ignorantes et sur l’usage qui peut en être fait par des gens sans scrupule pour tromper les gens auxquels ils s’adressent, se faisant passer pour ce qu’ils ne sont pas. D’autant plus que cette fascination est renforcée par toute une littérature de science fiction, les communication d’abrutis comme l’Alexandre, les prophètes du transhumanisme ou les gourous de la finance qui veulent s’approprier le peu que détiennent encore les gogos."

        Très juste. Le cinéma, même s’il est distrayant, est une catastrophe par les sottises qu’il a véhiculé pendant un demi-siècle au sujet de prétendus robots intelligents. De nombreux adultes ont été biberonnés avec ces histoires absurdes et maintenant qu’ils sont adultes ils prennent ça au premier degré. 

      • vote
        Gaspard Delanuit Gaspard Delanuit 5 mai 2023 12:12

        @juanyves

        "Ce que certains appellent apprentissage n’a rien à voir avec l’apprentissage humain."

        Ni même avec l’apprentissage animal. Un corbeau peut apprendre et c’est facile à constater. Mais pas une machine à calculer. Toutes ces expressions de "deep learning" et de "’IA forte" sont des slogans commerciaux foireux. 

      • vote
        PLACIDE2 5 mai 2023 12:13

        @juanyves
        Merci pour votre éclairage, je comprends mieux .


      • 1 vote
        juanyves juanyves 5 mai 2023 13:49

        @juanyves
        Nous sommes au stade où il suffit de rentrer dans une machine un texte suffisamment long et parlé avec une certaine voix pour qu’ensuite le résultat soit donné avec cette même voix. Que se passera-t-il le jour où le gens recevront un message parlé (publicitaire ou non) avec une voix connue (proche ou autre) proposant ou exigeant quelque chose qui pourrait être problématique dans d’autres circonstances. Le spam écrit peut encore se combattre.


      • vote
        PLACIDE2 5 mai 2023 15:47

        @juanyves
        "2001 l’odyssée de l’espace "m’a induit en erreur ,je n’avais pas compris que quelqu’un avait programmé l’ordi pour sacrifier les astronautes en cas de problème dans la mission ,et j’ai attribué une initiative à l’ordinateur ; cela me rappelle que dans ma vie professionnelle j’ai vu un employé s’être vu refusé une retour après avoir démissionné de( la grosse )l’entreprise avec comme motif que ce n’était pas possible au niveau informatique ; finalement l’IA n’est qu’un paravent de plus .



Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON


Publicité





Palmarès