@Gaspard Delanuit
Vous me faites sourire !
En fait, je suis directeur de recherche émérite au CNRS... et j’ai
beaucoup travaillé sur les méthodes d’apprentissage et comment permettre à un
système artificiel de donner des réponses alors qu’il ne peut construire aucune
représentation exhaustive de son environnement (environnement au sens abstrait).
Ce qu’il est important dans les sciences, c’est de passer de représentations
conceptuelles, abstraites indispensables (ex : concepts de la mécanique
quantique...) à des outils ou des principes qui permettent de devenir
quantitatif (ex : équation de Schrôdinger). La science doit être prédictive et quantitative.
Le problème est que votre vision de l’intelligence est exclusivement qualitative
et que par conséquent, elle ne permet en aucune façon de concevoir des systèmes
capables (plus ou moins) d’être intelligents, c’est-à-dire que prendre des
décisions ou donner des réponses en dehors de situations prévues. Relisez mon
premier commentaire : j’y décris (sommairement certes) quelques méthodologies appliquées
pour commencer à concevoir des systèmes artificiels autonomes. C’est cela qui
est important... ce sont ces idées qui risquent de faire basculer nos sociétés
en produisant des millions de chômeurs.
Là, nous discutons de façon formelle sur la notion d’intelligence et
sur la nécessité de la réserver au vivant alors que terme "vivant"
n’est même pas défini !!! Savez-vous qu’il faudrait des ouvrages entiers pour
essayer de définir ce qui est vivant ? Notre discussion est stérile et ne ferait
en aucune façon progresser l’intelligence dite artificielle.
Je vous souhaite une bonne journée.