GillesH38 a écrit : ↑09 févr. 2024, 14:17
Jeuf a écrit : ↑09 févr. 2024, 12:26
Les robots imitent les humains avec des erreurs et on appelle ça des hallucinations. Les enfants jouent à imiter les adultes et commettent aussi des erreurs, différentes des enfants.
Les robots de conversation sont dans leur enfance. Quand ils auront grandi, dans quelques années, il n'y aura plus d'erreurs manifestes qui font gloser en ce moment.
Les robots de conversation ne parlent absolument pas comme des enfants, ce n'est pas de maturité dont ils sont dépourvus, c'est d'une représentation concrète du monde,qu'ont tous les enfants a contrario. Ils ne s'alimentent qu'à des textes, pas à des réalités sensorielles. Ca ne peut pas donner la même chose.
C'est ce que je dis : le robots font d'autres genre d'erreurs que les enfants. Les uns sont corrigé par le temps, on le sait, les autres finiront par l'être aussi, même si ce ne sont pas du tout les même genre d' erreurs.
Sur le fait de ne pas avoir de représentation du monde appuyé par les sens : c'est aussi le cas d'humains. Par exemple en physique fondamentale j'ai lu un peu , vu des graphiques (on aura pas de mal à ajouter un module de lecture d'image à des IA qui pour l'instant ne font que de la lecture de texte, si ce n'est pas déjà fait), je peux répondre à quelques questions et exposer des idées. Mais je n'ai pas eu de travaux pratiques dans ce domaine dans mes études ni après!
Les savants théoriciens vont aussi très loin en abstraction, les travaux pratiques sont loin...
à l'école, on fait un va et vient entre travaux pratiques et cours théoriques, très bien, mais ...la théorie peut se comprendre seule pour un bon cerveau, non? ah tiens, c'est pas un thème d'un livre nommé "critique de la raison pure"? trop épais pour que j'aille chercher la réponse ...