ChatGPT et autres LLM

Envie de bavarder ? C'est ici.

Modérateurs : Rod, Modérateurs

Répondre
tita
Hydrogène
Hydrogène
Messages : 6313
Inscription : 07 juin 2005, 11:22
Localisation : Franches-Montagnes (Suisse)

Re: ChatGPT et autres LLM

Message par tita » 25 nov. 2025, 15:09

supert a écrit :
25 nov. 2025, 13:30
Puisqu'on est dans les images, je me pose encore une question.

Choisissons une photo de quelqu'un. Cheveux courts. Si je dis à une super IA : "modifie les oreilles et tailles-les en pointe". Le Robot saura déterminer où est l'oreille ou faudra-t-il que je les entoure ?


Supertomate qui a le ventre plein, donc peut-être des oreilles
Bien sûr qu'il va "comprendre" ce que sont les oreilles. Les petites mains humaines ont déjà étiqueté sur des quantités invraisemblables de photographies ce qui est oreilles, nez, yeux, bouche, lèvres, etc., et tout ça a servi au données d'entraînement. J'ai fait le test pour voir, j'avais jamais utilisé une IA pour modifier une image jusqu'ici. L'image n'est d'ailleurs pas quelqu'un de réel, mais une image générée (un truc qui existe déjà depuis 2019)

Image
Image

(En vrai, j'avais d'abord essayé avec une photo de célébrité, mais il a pas voulu faire parce qu'il n'a pas le droit de modifier des photos de personnes connues)

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 26 nov. 2025, 00:23

Gemini AI Pro vs ChatGPT Plus : le résultat est clair, OpenAI est KO

25 novembre 2025

Avec le lancement de Gemini 3 Pro, Google propose désormais le forfait IA le plus intéressant du marché. Le constat est limpide.

Le lancement de Gemini 3 Pro et Nano Banana Pro a rebattu les cartes de l’IA générative. Tout à coup, la solution de Google devient l’une des plus performantes du marché.

Cependant, pour y accéder, il vaut mieux avoir un abonnement premium chez Google. En face, OpenAI propose ChatGPT Plus. Si vous êtes abonné à ce dernier, il est temps de reconsidérer la concurrence.

Google offre plus, mieux et pour moins cher

Le constat est accablant pour OpenAI. L’abonnement à ChatGPT Plus offre, pour 23 euros par mois, l’accès à GPT-5, l’Agent Codex, la génération d’images avec Dall-E et le moteur de génération de vidéos Sora 1.

De son côté, Google AI Pro offre, pour 22 euros par mois :

l’accès à Gemini 3 pro ;
la génération d’images avec Nano Banana Pro ;
la création de vidéos avec Veo 3.1 Fast ;
2 To de stockage sur Google Drive et Google Photos.
Google met également en avant l’intégration dans ses services Google Docs, Google Sheets, l’utilisation de Notebook LLM comme assistant de recherche, l’outil Flow et Whisk pour la création de vidéos. Plus récemment, Google a également intégré Google Home Premium, son service repensé pour la maison connectée avec Gemini.

Cerise sur le gâteau : si vous êtes étudiant, il est possible d’obtenir Google AI Pro gratuitement.
https://www.frandroid.com/versus/288524 ... nai-est-ko

supert
Hydrogène
Hydrogène
Messages : 1390
Inscription : 23 août 2023, 16:40

Re: ChatGPT et autres LLM

Message par supert » 26 nov. 2025, 13:42

Nous avons enfin trouvé une utilité importante à l'IA : tailler les oreilles en pointes !


Supertomate qui va économiser son couteau

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 29 nov. 2025, 10:02

La sortie de ChatGPT à 3 ans. (30 nov 2022)
L’effet ChatGPT : comment, en trois ans, l’IA a redéfini les recherches en ligne

Publié: 28 novembre 2025,
Deborah Lee
Professor and Director of Research Impact and AI Strategy, Mississippi State University

Le 30 novembre 2022, OpenAI rendait accessible à tous ChatGPT, l’intelligence artificielle générative sur laquelle elle travaillait depuis sept ans. En trois ans, un geste du quotidien s’est déplacé : au lieu de taper une requête dans Google ou de chercher un tutoriel sur YouTube, des millions de personnes ouvrent désormais ChatGPT pour poser leur question. Ce réflexe nouveau, qui s’impose dans les usages, marque un tournant majeur dans notre rapport à la recherche d’information en ligne.

.....................
lire https://theconversation.com/leffet-chat ... gne-270896

et je me reconnais la dedans, en effet maintenant je demande assez souvent à l'IA generative (Copilot) avant de demander à Google.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 29 nov. 2025, 14:22

Trois ans après la révolution ChatGPT, le roi de l’IA OpenAI n’est plus si tout-puissant
Alors que ChatGPT fête ses trois ans ce 30 novembre, sa société mère, OpenAI, connaît de premières turbulences. Concurrencée par Google et Anthropic, l’entreprise voit sa place de leader menacée. Au point de voir son existence menacée ?

François Vaneeckhoutte 28 novembre 2025

Trois ans seulement. Alors que l’intelligence artificielle générative est devenue banale dans nos vies, il est facile d’oublier que celle-ci n’y a fait irruption que le 30 novembre 2022, jour du lancement de ChatGPT. Plus qu’un succès, l’interface conversationnelle d’OpenAI s’est répandue comme un tsunami : avec ses plus de 800 millions d’utilisateurs hebdomadaires, elle traite, selon les chiffres de l’entreprise, environ 29 000 messages par seconde. Et affiche plus d’un million d’entreprises clientes, ainsi que plus de 20 millions d’abonnés payants.

En dépit de ces chiffres impressionnants, le trône du pionnier de l’IA générative semble toutefois vaciller. Selon Menlo Ventures, OpenAI a vu sa part de marché sur les modèles de langage utilisés en entreprise chuter de 50 % en 2023 à 25 % à la mi-2025. De quoi se faire ravir la première place par Anthropic, grimpé de 12 % à 32 %, tandis que Google, monté à 20 %, menace. ... abonnés
https://www.challenges.fr/entreprise/te ... ant_632165

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 30 nov. 2025, 16:11

IA, puces… Le retour en grâce de Google, une entreprise définitivement trop puissante
On la croyait sonnée par l’explosion de ChatGPT. Trois ans plus tard, Google signe un retour en grâce spectaculaire, portée par ses modèles Gemini, ses puces maison et des moyens colossaux. Focus sur un come-back bluffant.

Mathilde Rochefort le 29 novembre 2025
......................
https://www.presse-citron.net/ia-puces- ... puissante/

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 02 déc. 2025, 23:04

Alerte rouge chez OpenAI : l’entreprise suspendrait plusieurs projets à cause de Google
Un nouveau modèle la semaine prochaine ?

Nicolas Lellouche 03 dec 2025 numerama

Selon The Information, Sam Altman aurait envoyé un mémo aux employés d’OpenAI pour leur annoncer que l’entreprise traverse une zone de turbulence. Face à la montée en puissance de Google Gemini, ChatGPT pourrait lancer un nouveau modèle dès la semaine prochaine.

ChatGPT fête son troisième anniversaire d’une drôle de manière. Le service qui a initié la révolution technologique de l’IA générative, malgré ses 800 millions d’utilisateurs hebdomadaires, traverse actuellement une zone de turbulence. Le lancement de Gemini 3 Pro, un modèle vraiment supérieur à GPT-5.1 selon de nombreux testeurs et benchmarks, fait beaucoup de mal à l’image de ChatGPT. Sam Altman, le patron d’OpenAI, aurait même déclenché « l’alerte rouge » selon le média The Information, ce 2 décembre 2025.

Initialement, OpenAI prévoyait de lancer plusieurs fonctions d’ici à la fin de l’année, pour enfin monétiser ChatGPT. Mais l’arrivée des publicités pourrait finalement attendre : la priorité pour OpenAI est de prouver au monde qu’il est capable de rattraper Google.

L’arroseur arrosé : Google fait à OpenAI ce qu’OpenAI lui avait fait
Selon The Information, Sam Altman a déclaré aux employés d’OpenAI qu’il déclarait l’alerte rouge. « Nous sommes à un moment critique pour ChatGPT. », théorise le patron de l’entreprise. OpenAI ne serait pas satisfait de son nombre d’utilisateurs : il espérait le milliard d’ici à la fin de l’année, mais patine à 800 millions depuis la fin de l’été. Les nouvelles priorités fixées par Sam Altman sont :

- L’amélioration du modèle, avec un meilleur comportement, plus de rapidité et moins d’erreurs,
- la personnalisation de ChatGPT pour que chaque personne ait une version adaptée à ses besoins,
- un nouveau modèle pour générer des images, alors que la technologie actuelle a été dépassée par Nano Banana Pro.

Les autres projets en cours, comme l’arrivée de la publicité, le développement des « agents IA » pour le shopping et d’autres automatisations et la matinale Pulse sont suspendus : tant pis si OpenAI gagne moins d’argent que prévu en 2025. La priorité est de redevenir la référence en IA, alors que Google, avec ses 650 millions d’utilisateurs de Gemini et ses milliards d’utilisateurs des Google AI Overviews, est en train de le rattraper.

Autre information : dès la semaine prochaine, OpenAI pourrait publier un nouveau modèle de réflexion avancé, qui n’était pas forcément prévu pour cette période, avec des résultats supérieurs à ceux de Gemini 3 Pro. Reste à connaître son coût : sera-t-il possible de l’utiliser au quotidien, comme le modèle de Google ? L’entreprise a déjà publié GPT-5.1-Pro en réponse à Gemini 3, afin de ne pas faire fuir ses utilisateurs les plus fidèles.

Ironiquement, la situation d’OpenAI en novembre 2025 peut rappeler celle de Google début 2023, quand la révolution ChatGPT semblait condamner l’entreprise à une inévitable chute. Google avait lui aussi déclaré l’alerte rouge… et avait livré Bard, puis Gemini. Quelques années plus tard, Google est désormais le leader de l’intelligence artificielle. Tout va très vite dans ce secteur : OpenAI a toutes les raisons du monde de revenir dans la course.
https://www.numerama.com/tech/2132433-a ... oogle.html

Avatar de l’utilisateur
GillesH38
Hydrogène
Hydrogène
Messages : 30740
Inscription : 10 sept. 2005, 17:07
Localisation : Berceau de la Houille Blanche !
Contact :

Re: ChatGPT et autres LLM

Message par GillesH38 » Hier, 11:40

Image

traduction

"Est ce que c'est un champignon comestible?"
AI : "oui"

AI : "Vous avez raison, c'est un champignon vénéneux. Voulez vous en apprendre plus sur les champignons vénéneux ?"
Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas", mais aussi des juifs et d'Israël.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » Hier, 20:01

Google remet en cause la suprématie des puces de Nvidia pour l'IA génerative :
Google’s self-made AI chips a seismic shift for the industry
Google’s tensor processing units are a direct challenge to Nvidia and rewriting AI assumptions that once seemed fixed


by Alaa Mohasseb December 3, 2025

For many years, the US company Nvidia shaped the foundations of modern artificial intelligence. Its graphics processing units (GPUs) are a specialized type of computer chip originally designed to handle the processing demands of graphics and animation. But they’re also great for the repetitive calculations required by AI systems.

Thus, these chips have powered the rapid rise of large language models – the technology behind AI chatbots – and they have became the familiar engine behind almost every major AI breakthrough.

This hardware sat quietly in the background while most of the attention was focused on algorithms and data. Google’s decision to train Gemini on its own chips, called tensor processing units (TPUs), changes that picture. It invites the industry to look directly at the machines behind the models and to reconsider assumptions that long seemed fixed.

This moment matters because the scale of AI models has begun to expose the limits of general purpose chips. As models grow, the demands placed on processing systems increases to levels that make hidden inefficiencies impossible to ignore.

Google’s reliance on TPUs reveals an industry that is starting to understand that hardware choices are not simply technical preferences but strategic commitments that determine who can lead the next wave of AI development.

Google’s Gemini relies on cloud systems that simplify the challenging task of coordinating devices during large-scale training (improvement) of AI models.

The design of these different chips reflects a fundamental difference in intention. Nvidia’s GPUs are general purpose and flexible enough to run a wide range of tasks. TPUs were created for the narrow mathematical operations at the heart of AI models.

Independent comparisons highlight that TPU v5p pods can outperform high-end Nvidia systems on workloads tuned for Google’s software ecosystem. When the chip architecture, model structure and software stack align so closely, improvements in speed and efficiency become natural rather than forced.

These performance characteristics also reshape how quickly teams can experiment. When hardware works in concert with the models it is designed to train, iteration becomes faster and more scalable. This matters because the ability to test ideas quickly often determines which organizations innovate first.

These technical gains are only one part of the story. Training cutting-edge AI systems is expensive and requires enormous computing resources. Organizations that rely only on GPUs face high costs and increasing competition for supply. By developing and depending on its own hardware, Google gains more control over pricing, availability and long-term strategy.

Analysts have noted that this internal approach positions Google with lower operational costs while reducing dependence on external suppliers for chips. A particularly notable development came from Meta as it explored a multi-billion dollar agreement to use TPU capacity.

When one of the largest consumers of GPUs evaluates a shift toward custom accelerators, it signals more than curiosity. It suggests growing recognition that relying on a single supplier may no longer be the safest or most efficient strategy in an industry where hardware availability shapes competitiveness.

These moves also raise questions about how cloud providers will position themselves. If TPUs become more widely available through Google’s cloud services, the rest of the market may gain access to hardware that was once considered proprietary. The ripple effects could reshape the economics of AI training far beyond Google’s internal research.

What This Means for Nvidia
........................
https://asiatimes.com/2025/12/googles-s ... -industry/

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » Hier, 20:37

Google peut-il détrôner les géants de l’IA ?

Ecorama •05/12/2025

Entre la sortie de son nouveau modèle Gemini 3 qui met OpenAI en alerte rouge, et sa percée sur le marché des puces dominé par Nvidia, Google revient au premier plan de la bataille mondiale de l'intelligence artificielle. Moins chères, moins énergivores, ses TPU pourraient rebattre les cartes d'un secteur en pleine effervescence. Alors, fin du monopole de Nvidia, montée en puissance de Google, et quelles perspectives pour l'Europe ? Réponse avec Vincent Luciani, cofondateur et PDG d'Artefact. Ecorama Tic Tech du 5 décembre 2025, présenté par David Jacquot et Julien Khaski, rédacteur en chef de Maddyness sur Boursorama.com.
vidéo 17 mn https://www.boursorama.com/videos/actua ... c8e7ae4c39

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » Hier, 23:03

État d’urgence chez ChatGPT : sortie imminente de la version GPT 5.2 pour répondre à Google

05 décembre 2025 frandroid

En panique, OpenAI s’apprêterait dès la semaine prochaine à lancer GPT 5.2 pour répondre à Gemini 3.

Comme un petit goût d’ironie pour OpenAI. En 2023, après le succès de ChatGPT, on apprenait que Google avait déclaré l’état d’urgence en interne.

Désormais, c’est le succès de Google Gemini 3 qui met OpenAI en « alerte rouge ». Les conséquences semblent déjà là, la firme serait sur le point de lancer la prochaine version majeure de son IA avec GPT 5.2.

Un lancement dans quelques jours
Le site The Verge rapporte que ChatGPT avec GPT 5.2 serait prêt pour un lancement dès la semaine prochaine. Objectif : rattraper le retard pris sur Google et Gemini 3.

Le lancement serait prévu pour le mardi 9 décembre 2025, mais The Verge indique que le calendrier pourrait évoluer en fonction des derniers tests et des capacités serveurs.

Est-ce qu’un nouveau modèle sera suffisant ?

On peut se demander si le problème rencontré par le lancement de Gemini 3 est une simple question « d’intelligence » de GPT.

Si Gemini 3 a pu impressionner dans quelques benchmarks, la réussite du modèle vient aussi de l’offre globale de Google.

Aujourd’hui, l’abonnement à l’IA de Google permet d’accéder à du stockage en ligne, à la génération d’images Nano Banana Pro ou encore à la génération de vidéos avec Véo 3. L’offre ChatGPT Plus semble beaucoup moins attrayante en comparaison.

C’est tout l’écosystème d’OpenAI qui semble prendre du retard face à la concurrence. D’autant que Google peut s’appuyer sur Android et son moteur de recherche pour rapidement atteindre ses clients.
https://www.frandroid.com/marques/opena ... e-a-google

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 101998
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » Aujourd’hui, 14:40

Quand l’IA fait n’importe quoi : l’exemple ridicule du gratte-ciel et du trombone à coulisse

Par Frédéric PROST, maître de conférences en informatique, INSA Lyon – Université de Lyon. 3 dec 2025

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies. Frédéric Prost, maître de conférences en informatique, en fait la démonstration.

Les intelligences artificielles (IA) génératives font désormais partie de notre quotidien. Elles sont perçues comme des « intelligences », mais reposent en fait fondamentalement sur des statistiques. Les résultats de ces IA dépendent des exemples sur lesquels elles ont été entraînées. Dès qu’on s’éloigne du domaine d’apprentissage, on peut constater qu’elles n’ont pas grand-chose d’intelligent. Une question simple comme « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leurs tailles respectives » vous donnera quelque chose comme ça (cette image a été générée par Gemini) :

Image

L’exemple provient du modèle de Google, Gemini, mais le début de l’ère des IA génératives remonte au lancement de ChatGPT en novembre 2022 et ne date que d’il y a trois ans. C’est une technologie qui a changé le monde et qui n’a pas de précédent dans son taux d’adoption. Actuellement, ce sont 800 millions d’utilisateurs, selon OpenAI, qui chaque semaine, utilisent cette IA pour diverses tâches. On notera que le nombre de requêtes diminue fortement pendant les vacances scolaires. Même s’il est difficile d’avoir des chiffres précis, cela montre à quel point l’utilisation des IA est devenue courante. À peu près un étudiant sur deux utilise régulièrement des IA.

Les IA : des technologies indispensables ou des gadgets ?

Trois ans, c’est à la fois long et court. C’est long dans un domaine où les technologies évoluent en permanence, et court en termes sociétaux. Même si on commence à mieux comprendre comment utiliser ces IA, leur place dans la société n’est pas encore quelque chose d’assuré. De même la représentation mentale qu’ont ces IA dans la culture populaire n’est pas établie. Nous en sommes encore à une alternance entre des positions extrêmes : les IA vont devenir plus intelligentes que les humains ou, inversement, ce ne sont que des technologies tape-à-l’œil qui ne servent à rien.

En effet, un nouvel appel à faire une pause dans les recherches liées aux IA a été publié sur fond de peur liée à une superintelligence artificielle. De l’autre côté sont promis monts et merveilles, par exemple un essai récent propose de ne plus faire d’études, car l’enseignement supérieur serait devenu inutile à cause de ces IA.

Difficile de sortir de leurs domaines d’apprentissage

Depuis que les IA génératives sont disponibles, je mène cette expérience récurrente de demander de produire un dessin représentant deux objets très différents et de voir le résultat. Mon but par ce genre de prompt (requête) est de voir comment le modèle se comporte quand il doit gérer des questions qui sortent de son domaine d’apprentissage. Typiquement cela ressemble à un prompt du type « Dessine-moi une banane et un porte-avions côte à côte pour qu’on se rende compte de la différence de taille entre les deux objets ». Ce prompt en utilisant Mistral donne le résultat suivant :

Image

À ce jour, je n’ai jamais trouvé un modèle qui donne un résultat sensé. L’image donnée en illustration ci-dessus (ou en tête de l’article) est parfaite pour comprendre comment fonctionnent ce type d’IA et quelles sont ses limites. Le fait qu’il s’agisse d’une image est intéressant, car cela rend palpables des limites qui seraient moins facilement discernables dans un long texte.

Ce qui frappe est le manque de crédibilité dans le résultat. Même un enfant de 5 ans voit que c’est n’importe quoi. C’est d’autant plus choquant qu’avec la même IA il est tout à fait possible d’avoir de longues conversations complexes sans pour autant qu’on ait l’impression d’avoir affaire à une machine stupide. D’ailleurs, ce même type d’IA peut tout à fait réussir l’examen du barreau ou répondre avec une meilleure précision que des professionnels sur l’interprétation de résultats médicaux (typiquement, repérer des tumeurs sur des radiographies).

D’où vient l’erreur ?

La première chose à remarquer est qu’il est difficile de savoir à quoi on est confronté exactement. Si les composants théoriques de ces IA sont connus dans la réalité, un projet comme celui de Gemini (mais cela s’applique aussi aux autres modèles que sont ChatGPT, Grok, Mistral, Claude, etc.) est bien plus compliqué qu’un simple LLM (Large Language Model, Grand modèle de langage, en français) couplé à un modèle de diffusion.

Un LLM est une IA qui a été entraînée sur des masses énormes de textes et qui produit une représentation statistique de ces derniers. En gros, la machine est entraînée à deviner le mot qui fera le plus de sens, en termes statistiques, à la suite d’autres mots (votre prompt).

Les modèles de diffusion qui sont utilisés pour engendrer des images fonctionnent sur un principe différent. Le processus de diffusion est basé sur des notions provenant de la thermodynamique : on prend une image (ou un son) et on ajoute du bruit aléatoire (la neige sur un écran) jusqu’à ce que l’image disparaisse, puis ensuite on fait apprendre à un réseau de neurones à inverser ce processus en lui présentant ces images dans le sens inverse du rajout de bruit. Cet aspect aléatoire explique pourquoi avec le même prompt le modèle va générer des images différentes.

Un autre point à considérer est que ces modèles sont en constante évolution, ce qui explique que le même prompt ne donnera pas le même résultat d’un jour à l’autre. De nombreuses modifications sont introduites à la main pour gérer des cas particuliers en fonction du retour des utilisateurs, par exemple.

À l’image des physiciens, je vais donc simplifier le problème et considérer que nous avons affaire à un modèle de diffusion. Ces modèles sont entraînés sur des paires images-textes. Donc on peut penser que les modèles de Gemini et de Mistral ont été entraînés sur des dizaines (des centaines ?) de milliers de photos et d’images de gratte-ciel (ou de porte-avions) d’un côté, et sur une grande masse d’exemples de trombone à coulisse (ou de bananes) de l’autre. Typiquement des photos où le trombone à coulisse est en gros plan. Il est très peu probable que, dans le matériel d’apprentissage, ces deux objets soient représentés ensemble. Donc le modèle n’a en fait aucune idée des dimensions relatives de ces deux objets.

Pas de « compréhension » dans les modèles

Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé. Ainsi toute comparaison entre des concepts qui ne sont pas dans le matériel d’apprentissage sera du même genre que les illustrations données en exemple. Ce sera moins visible mais tout aussi ridicule. Par exemple, cette interaction avec Gemini « Considérez cette question simple : “Le jour où les États-Unis ont été établis est-il dans une année bissextile ou une année normale ?”. »

Lorsqu’il a été invoqué avec le préfixe CoT (Chain of Thought, une évolution récente des LLMs dont le but est de décomposer une question complexe en une suite de sous-questions plus simples), le modèle de langage moderne Gemini a répondu : « Les États-Unis ont été établis en 1776. 1776 est divisible par 4, mais ce n’est pas une année séculaire (de cent ans), c’est donc une année bissextile. Par conséquent, le jour où les États-Unis ont été établis était dans une année normale. »

On voit bien que le modèle déroule la règle des années bissextiles correctement, donnant par là même une bonne illustration de la technique CoT, mais il conclut de manière erronée à la dernière étape ! Ces modèles n’ont en effet pas de représentation logique du monde, mais seulement une approche statistique qui crée en permanence ce type de glitchs qui peuvent paraître surprenants.

Cette prise de conscience est d’autant plus salutaire qu’aujourd’hui, les IA écrivent à peu près autant d’articles publiés sur Internet que les humains. Ne vous étonnez donc pas d’être étonné par la lecture de certains articles.

La version originale de cet article a été publiée dans The Conversation.
https://www.ouest-france.fr/leditiondus ... c8ec7f382d

Avatar de l’utilisateur
GillesH38
Hydrogène
Hydrogène
Messages : 30740
Inscription : 10 sept. 2005, 17:07
Localisation : Berceau de la Houille Blanche !
Contact :

Re: ChatGPT et autres LLM

Message par GillesH38 » Aujourd’hui, 18:07

energy_isere a écrit :
Aujourd’hui, 14:40
Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé.


c'est quand même ce que les gens prudents par rapport à l'IA répètent depuis le début : qu'elles n'ont pas une vraie représentation mentale interne du monde... et c'est exactement ce que j'expliquais à Jeuf par exemple :roll:

http://www.oleocene.org/phpBB3/viewtopi ... 1#p2415371
GillesH38 a écrit :
19 août 2025, 14:49
mais jeuf tu considères fondamentalement qu'un LLM "comprend" ce qu'il écrit, c'est à dire qu'il a une représentation interne de la réalité qu'il exprime par des mots (ce qu'on infère de tout etre humain qui manipule le langage comme nous, puisqu'on en déduit avec raison qu'il doit nous ressembler et avoir cette pensée interne).

Sauf que les LLM NE MARCHENT PAS COMME CA. Les réseaux de neurones ne sont fondamentalement pas construits pour avoir une représentation interne de la réalité (à commencer par le fait que cette représentation interne démarre par l'organisation de sensations physiques de la vue, du toucher, de l'ouïe etc... dont les LLM sont totalement dépourvus).

Le principe de leur méthode n'est pas de se représenter le monde mais de générer du langage, qui soit le plus "probable" possible compte tenu de ce qui précède, et qui s'appuie sur les textes qu'ils ont ingurgités. Ca marche étonnamment bien pour produire ce qui ressemble à de la pensée, mais ce n'est pas de la pensée. Il n'y a pas de raison que leur discours soit cohérent par rapport au réel, parce qu'ils ne connaissent pas le réel. Il est juste cohérent par rapport au genre de trucs qui est le plus souvent écrit, et évidemment ce qui est écrit correspond souvent au réel, mais c'est juste probabiliste. Ainsi j'ai pu lui faire écrire une recette de spaghettis farcis où il disait d'ouvrir les spaghettis en deux pour les farcir, évidemment sur le modèle des courgettes farcies où il remplace "courgette" par "spaghetti".

C'est pour ça qu'ils ne seront jamais fiables pour donner des instructions réelles.

Et contrairement à ce qu'il raconte, cette "expérience" ne lui servira en rien pour l'éviter à l'avenir, parce que ça ne lui apprend toujours rien du réel. Il ne se représente toujours pas ce qu'est un tétrèdre, du polystyrène ou une résidence secondaire, contrairement à toi, et il ne se le représentera jamais.
Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas", mais aussi des juifs et d'Israël.

Répondre