https://www.clubic.com/actualite-590536 ... -l-ia.html"Aucun moyen que ça tienne" : le verdict sans appel du PDG d'IBM sur l'IA
Par Naïm Bada, le 08 décembre 2025 clubic
Arvind Krishna refroidit brutalement l’enthousiasme pour les méga centres de données dédiés à l’IA, en chiffrant une équation économique bien moins glamour qu’annoncée. Le message est sec, presque goguenard, mais il s’appuie sur des ordres de grandeur qui laissent peu de place au doute.
Le PDG d’IBM estime que la frénésie actuelle autour des capacités IA repose sur un socle financier fragile, et que la course au toujours plus risque d’étouffer ses propres promesses. Entre coûts d’équipement vertigineux, cycles de remplacement courts et facture énergétique en embuscade, la réalité dépasse déjà les slogans. Les premiers calculs publics laissent entrevoir des montants colossaux pour des rendements encore à démontrer, ce qui pousse Krishna à parler cash.
8 000 milliards de dollars : pourquoi l'équation économique de l'IA ne boucle pas
Le calcul donne le vertige et c'est bien l'objectif de la manœuvre. Un seul gigawatt de capacité de calcul coûte la bagatelle de 80 milliards de dollars à construire et équiper selon les chiffres avancés par le dirigeant. Comme l'industrie ambitionne de déployer une centaine de gigawatts pour soutenir l'IA générative, la facture totale grimperait mécaniquement à 8 000 milliards de dollars. Pour espérer rentrer dans ses frais avec une telle mise de départ, le secteur devrait générer des centaines de milliards de bénéfices annuels quasi immédiatement.
L'argent n'est même pas le seul problème puisque le temps joue contre les géants de la tech. La durée de vie utile des puces spécialisées ne dépasse guère cinq ans avant d'être techniquement dépassée par une nouvelle génération plus performante. Cette obsolescence éclair oblige les exploitants à tout racheter en permanence et transforme l'investissement initial en un gouffre financier sans fond. Krishna souligne avec malice que personne ne peut amortir une infrastructure aussi lourde quand il faut la remplacer avant même qu'elle ait rapporté son premier dollar de profit réel.
L'autre facette du problème réside dans la consommation vorace de ces cathédrales numériques. Les projections actuelles indiquent que la demande en électricité des centres de calcul pourrait bientôt rivaliser avec celle de nations industrialisées entières. Cette gourmandise énergétique impose des contraintes physiques que même des chèques en blanc ne pourront pas effacer. Le dirigeant d'IBM remet en cause la pertinence de cette course à la puissance brute alors que les gains d'intelligence réelle des modèles commencent à plafonner.
La stratégie de la fuite en avant semble donc compromise. Les entreprises qui parient sur une arrivée imminente d'une superintelligence pour justifier ces dépenses risquent de se heurter à un mur de réalité. Krishna suggère que l'avenir appartient aux architectures plus sobres et non à ceux qui empilent les processeurs graphiques jusqu'au ciel. Le message est passé et il est clair que la seule loi de Moore ne suffira plus à payer les factures d'électricité.
Source : Tech Radar
ChatGPT et autres LLM
Modérateurs : Rod, Modérateurs
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usinenouvelle.com/technos-e ... 2LOJY.htmlIA : parti de Meta, Yann LeCun prend ses distances avec la «Silicon Valley hypnotisée par les modèles génératifs»
Clap de fin pour Yann LeCun chez Meta. Après douze années passées dans l’entreprise de Marc Zuckerberg, le chercheur en intelligence artificielle monte sa propre start-up. L’occasion pour lui de travailler sur les ‘world models’, des modèles comprenant le monde physique, avec de la mémoire et des capacités de raisonnement.
Léna Corot le 8 décembre 2025
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.boursorama.com/actualite-ec ... b46e3d4238OpenAI lance un nouveau modèle pour défendre son trône face à Google
AFP •11/12/2025
OpenAI a lancé jeudi son nouveau modèle d'intelligence artificielle (IA), GPT-5.2, dans une tentative de réaffirmer sa suprématie quelques jours après le déclenchement d'une "alerte rouge" en interne face à la concurrence grandissante du Gemini de Google et d'autres modèles.
Ce lancement intervient alors que le patron d'OpenAI, Sam Altman, avait demandé, dans un message d'"alerte rouge" à ses équipes début décembre, de recentrer en urgence les ressources sur ChatGPT, le produit phare de l'entreprise de San Francisco.
La directrice des applications d'OpenAI, Fidji Simo, a confirmé dans un point presse jeudi que cette "alerte rouge" avait permis "une augmentation des ressources allouées à ChatGPT" et été "utile" pour finaliser GPT-5.2.
Mais elle a contesté l'idée que la sortie de GPT-5.2 avait été avancée en raison de ce climat d'urgence, selon le média Wired.
OpenAI présente cette nouvelle itération, qui se décline en plusieurs modèles (instantané, raisonnement, professionnel), comme sa version la plus performante à ce jour. L'entreprise revendique des progrès notables en matière de raisonnement, de création de présentation, de perception des images, de gestion d'une série de tâche et de code informatique.
OpenAI assure que la version "Thinking" commet 38% d'erreurs factuelles (ou "hallucinations") en moins que la précédente.
Ces améliorations visent à endiguer les avancées de la concurrence, comme le modèle Claude d'Anthropic, moins connu du grand public mais réputé parmi les professionnels, et la percée de Google.
- Vidéo payantes -
Le géant de la recherche en ligne a lancé en novembre son modèle Gemini 3 et revendiqué plus de 650 millions d'utilisateurs mensuels pour son assistant. De son côté, OpenAI affirme que 800 millions d'internautes utilisent ChatGPT chaque semaine.
A la différence de Google, qui dégage des milliards de dollars de trésorerie chaque trimestre grâce à son activité ancienne, essentiellement publicitaire, OpenAI perd lui de l'argent chaque mois et ne prévoit pas d'être rentable avant 2029.
Son patron Sam Altman s'est toutefois voulu rassurant jeudi sur la chaîne américaine CNBC. "Nous sommes confiants dans notre capacité à continuer de stimuler la croissance des revenus pour répondre à cette montée en puissance du calcul", a-t-il déclaré.
OpenAI s'est en effet engagé à acquérir, sur huit ans, pour 1.400 milliards de dollars de capacités informatiques supplémentaires, autrement dit pour acheter des millions de puces, construire les centres pour les faire fonctionner et assurer l'électrification et le refroidissement de ces structures.
Ces montants colossaux suscitent des interrogations croissantes, vu l'écart avec les revenus actuels d'OpenAI. L'entreprise devrait atteindre fin 2025 un chiffre d'affaires annualisé d'au moins 20 milliards de dollars, avait déclaré début novembre Sam Altman, promettant "plusieurs centaines de milliards d'ici 2030".
"Sans cette montée en puissance du calcul, bien sûr, nous ne pouvons pas stimuler la croissance des revenus, mais nous voyons bien plus de raisons d'être optimistes que pessimistes", a-t-il assuré jeudi.
Le dirigeant a également noté qu'OpenAI facturait désormais les utilisateurs pour la génération de vidéos via son outil Sora. "Les utilisateurs n'ont manifesté aucune réticence à payer pour générer des vidéos qu'ils aiment", a assuré Sam Altman.
Sam Altman avait par ailleurs annoncé en octobre un assouplissement à partir de décembre des restrictions de ChatGPT pour permettre les conversations érotiques pour les adultes.
Fidji Simo a indiqué à la presse qu'elle s'attendait à voir ce "mode adulte" finalement disponible au premier trimestre 2026, l'entreprise souhaitant mieux prédire l'âge des utilisateurs avant d'introduire cette fonctionnalité.
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
lire https://www.numerama.com/tech/2149749-c ... arche.htmlC’est un fait, ChatGPT est en déclin : voici les concurrents IA qui grignotent ses parts de marché
La compétition fait rage
27 dec 2025
Le 25 décembre, SimilarWeb a publié sur X ses chiffres concernant les parts de marché du trafic web de l’IA générative en 2025. Un premier constat émane des résultats de la plateforme d’analyse de trafic web : ChatGPT perd du terrain, mais qui en profite réellement ?
.................
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usine-digitale.fr/intellige ... OJGWE.htmlIntelligence artificielle : Les investissements dans les centres de calcul ont atteint un montant record de 61 milliards de dollars en 2025
Célia Séramour Publié le 23 décembre 2025
L'un des sites établis par OpenAI et Oracle pour l'implantation de centres de calcul dans le Wisconsin.
La nouvelle ruée vers l’or de l’intelligence artificielle générative ne se joue pas seulement dans les modèles ou les algorithmes. Elle se joue désormais dans le béton, le cuivre, les transformateurs électriques et les mégawatts disponibles. Partout dans le monde, une course d’une ampleur inédite est engagée pour construire et financer les centres de calcul capables d’alimenter l’IA générative. Derrière les annonces technologiques, ce sont des investissements industriels colossaux qui redessinent la géographie du numérique mondial.
Des dizaines de milliards engagés pour ces centres de calcul
Depuis deux ans, les montants engagés dans les data centers explosent. En 2025, les transactions liées aux centres de données ont dépassé les attentes, atteignant un montant record de 61 milliards de dollars (environ 52 milliards d’euros), comme le rapporte le S&P Global Market Intelligence, stimulé par la demande des infrastructures d’IA malgré certaines inquiétudes des investisseurs sur les valorisations sectorielles.
Plus de 100 transactions de centres de données ont ainsi été recensées au cours des onze premiers mois de l’année, pour une valeur totale qui dépasse déjà celle de toutes les transactions réalisées en 2024, selon les données de S&P Global Market Intelligence. La majorité de ces transactions ont eu lieu aux États-Unis, suivis par la région Asie-Pacifique.
Au premier rang de cette effervescence, les géants technologiques multiplient les projets à plusieurs milliards de dollars (voire des dizaines), souvent en partenariat avec des fonds d’investissement, des énergéticiens ou des acteurs du nucléaire.
Amazon, Google, Meta, Microsoft en tête
Meta finance à hauteur de 27 milliards de dollars un campus géant de plusieurs gigawatts en Louisiane (Hyperion), Microsoft sécurise des capacités électriques équivalentes à celles d’un parc nucléaire (incluant un contrat portant sur 10,5 GW de nouvelles capacités renouvelables aux États-Unis et en Europe) tandis que Google investit directement dans des producteurs d’énergie pour verrouiller son approvisionnement (référence au rachat d’Intersect Power, une société spécialisée dans l’énergie des centres de données pour 4,75 milliards de dollars).
De son côté, Amazon accélère en Asie comme en Europe, sans pour autant négliger sa terre natale : le géant du cloud, qui construit depuis plusieurs années des infrastructures pour le gouvernement américain et ses agences, veut aller plus loin en leur donnant accès à des outils d’IA et prévoit, en conséquence, de bâtir des centres de calcul pour l’équivalent de 1,3 GW de capacité énergétique... Enfin, rappelons le projet Stargate, initié en janvier 2025, qui vise à sécuriser 10 gigawatts pour quelques 500 milliards engagés par plusieurs acteurs, notamment OpenAI, Oracle, ainsi que SoftBank. L’initiative avance progressivement avec des objectifs toujours ambitieux.
Une échelle complètement démesurée
Tous ces projets ont un point commun : leur échelle. Là où un centre de données qualifié de classique affiche généralement une puissance comprise entre 10 et 25 mégawatts, un centre de calcul taillé pour l’IA peut dépasser 100 mégawatts, une puissance équivalente à la consommation annuelle d’environ 100 000 foyers. L’inférence, c’est-à-dire la phase d’utilisation des modèles par les utilisateurs finaux, représenterait à elle seule entre 80 et 90% de la puissance de calcul mobilisée par l’IA, ce qui ancre la consommation énergétique dans la durée, bien au-delà des phases ponctuelles d’entraînement.
À ce niveau, chaque site devient un acteur à part entière du système électrique local. Un seul campus pouvant consommer autant d’électricité qu’une ville moyenne. Cette industrialisation du numérique marque une rupture : l’IA n’est plus seulement une affaire de logiciels, mais une industrie lourde. Et elle repose sur une contrainte centrale : l’énergie.
Une consommation qui pourrait atteindre 945 TWh en 2030
À l’échelle mondiale, les centres de données représentent aujourd’hui environ 1,5% de la consommation totale d’électricité, soit 415 térawattheures en 2024. Ce chiffre peut sembler modeste rapporté à la consommation globale, mais il masque des réalités locales beaucoup plus marquées. Aux États-Unis, les centres de données concentrent déjà 4,4% de la demande électrique nationale, contre 2,3% dans l’Union européenne, 1,5% au Japon et 1,1% en Chine.
Pour prendre le cas de la France, la consommation des centres de données, estimée à 10 TWh au début des années 2020, pourrait atteindre 12 à 20 TWh en 2030. Plus inquiétant encore, la consommation mondiale pourrait “au moins plus que doubler d’ici 2030″ pour atteindre environ 945 TWh, sous l’effet combiné de la numérisation de l’économie et de l’essor de l’IA, comme le souligne l’Autorité de la concurrence dans sa dernière étude publiée ce mois-ci et rendant compte de l’impact environnemental de l’IA générative (faisant ainsi suite à un premier avis rendu en juin 2024 sur le fonctionnement concurrentiel du secteur).
Une mainmise sur l’énergie
Dans ce contexte, l’accès à une énergie abondante, décarbonée et prévisible devient un avantage stratégique décisif. Les grands acteurs américains l’ont compris depuis longtemps. Ils signent des contrats d’achat d’électricité de long terme, investissent dans les renouvelables, s’intéressent de près au nucléaire – y compris aux petits réacteurs modulaires (SMR) ou à la fusion – et n’hésitent plus à intégrer l’énergie dans leur stratégie industrielle.
L’objectif est double : sécuriser l’approvisionnement et stabiliser les coûts, dans un environnement où l’électricité peut représenter entre 30 et 50% des charges d’exploitation d’un centre de données.
Un vent de panique souffle sur l’Amérique, un nouvel élan pour l’Europe ?
Le résultat de ce mouvement est sans appel : près de la moitié de la capacité américaine est regroupée dans seulement cinq grands pôles régionaux, ce qui accentue les tensions locales sur les réseaux électriques. L’Europe et la France apparaissent alors comme des terrains attractifs. La France, en particulier, dispose d’un atout rare : une électricité massivement décarbonée, un réseau robuste et des prix historiquement compétitifs pour les acteurs électro-intensifs.
Résultat, Paris est devenue la troisième place européenne pour les centres de données - comptant 683 MW de capacité installée fin 2024, derrière Francfort (environ 2 900 MW) et Londres (1 000 MW), pour environ 322 centres de données. De fait, la consommation électrique du secteur pourrait atteindre jusqu’à 28 TWh en 2035, soit près de 4% de la consommation nationale. Le gouvernement français multiplie d’ailleurs les annonces pour accélérer les implantations, simplifier les procédures et attirer les investissements.
Des tensions au niveau des ressources
Mais cette ruée n’est pas sans contrepartie. Derrière les mégadeals et les chiffres spectaculaires, les tensions s’accumulent sur les réseaux électriques, le foncier, l’eau et, plus largement, sur l’acceptabilité environnementale de ces infrastructures. En France, les centres de données ont déjà prélevé environ 0,6 million de mètres cubes d’eau en 2023, avec une croissance annuelle proche de 20%, sans compter les prélèvements indirects liés à la production d’électricité. Dans certaines régions, la question n’est plus de savoir si des centres de données peuvent être construits, mais s’ils peuvent être alimentés sans évincer d’autres usages industriels ou résidentiels.
C’est sur ce point précisément qu’intervient l’analyse de l’Autorité de la concurrence, publiée la semaine dernière. Plutôt que de se prononcer sur l’opportunité environnementale de l’IA, elle pose une question plus structurelle : que fait cette course aux infrastructures énergivores à la concurrence ? Son constat est clair : l’accès à l’énergie, au réseau et à l’information environnementale est en train de devenir un nouveau facteur de différenciation concurrentielle majeur.
Un marché qui se structure autour des ressources
En creux, l’étude dessine ainsi une perspective plus large : la structuration du marché de l’IA ne se jouera pas uniquement sur la qualité des modèles, mais sur la capacité à maîtriser les ressources physiques qui les rendent possibles. Électricité, eau, foncier, réseau : ces contraintes, longtemps périphériques dans le débat technologique, deviennent centrales.
Et à mesure que les investissements s’accélèrent et que les projets de “campus de centres de calcul” se multiplient, elles pourraient bien décider quels acteurs domineront durablement l’IA mondiale — et lesquels resteront en marge.
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
Afin d'étancher la soif de processeurs pour l'IA NVIDIA voudrait faire 2 millions de H200 pour le marché Chinois, au pris de 27 000 $ l'unité.
Ca fait un montant astronomique de 54 milliards de dollars !
lire : https://www.taipeitimes.com/News/biz/ar ... 2003849833
et en particulier :
Ca fait un montant astronomique de 54 milliards de dollars !
lire : https://www.taipeitimes.com/News/biz/ar ... 2003849833
et en particulier :
https://www.usine-digitale.fr/electroni ... DD4AA.htmlByteDance s’apprête à dépenser plus de 12 milliards d’euros en puces Nvidia en 2026
Le mastodonte chinois prévoit de dépenser des sommes astronomiques dans les puces de Nvidia taillées pour l’IA, dans un contexte de hausse de la demande. Un investissement qui reste soumis à la validation effective par la Chine de la vente des H200 auprès d’entreprises du pays.
Célia Séramour Publié le 2 janvier 2026
.................
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usine-digitale.fr/big-tech/ ... MAVHU.htmlIA générative : 800 millions d’appareils Samsung bientôt équipés de Gemini
Le géant sud-coréen veut doubler le nombre d’appareils mobiles équipés du modèle d’intelligence artificielle Gemini de Google. Une stratégie lui permettant de se démarquer de son adversaire Apple.
Célia Séramour Publié le 5 janvier 2026
Alors que le Consumer Electronics Show ouvre ses portes ce 5 janvier à Las Vegas, Samsung lève le voile sur ses ambitions pour l’année 2026. Le géant sud-coréen prévoit ainsi de doubler le nombre de ses appareils mobiles - incluant smartphones et tablettes - intégrant des fonctionnalités “Galaxy AI”, rendues possibles grâce à l’intégration du modèle Gemini de Google.
Le groupe, qui avait déployé des fonctionnalités d’IA reposant sur Gemini sur environ 400 millions d’appareils mobiles, prévoit donc de porter ce chiffre à 800 millions en 2026, rapporte Reuters. Cette initiative, portée par T.M. Roh, récemment nommé au poste de co-CEO de Samsung Electronics, devrait offrir un coup d’accélérateur majeur à la firme de Mountain View et apporter davantage de visibilité à ses modèles d’IA.
La course à l’IA se poursuit
En plaçant l’IA de Google au cœur de son écosystème, Samsung marque une étape dans sa stratégie : d’une part, il s’allie à un géant technologique américain capable de lui apporter les ressources en intelligence artificielle dont il a besoin ; d’autre part, il marque une certaine distance avec OpenAI et ses modèles et montre à son plus proche concurrent, Apple, qu’il est capable de prendre de l’avance sur ce terrain.
Samsung ne compte par ailleurs pas s’arrêter en si bon chemin : le géant a annoncé que sa dernière gamme d’appareils électroménagers, qui inclut les dernières versions de son réfrigérateur Bespoke AI et de son micro-ondes encastrable, intègre également des fonctionnalités d’IA visuelle. Sous le capot ? Une optimisation signée Google, mêlant Gemini et Google Cloud.
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usine-digitale.fr/intellige ... 7XJII.html[IA Insider] La prochaine génération de système pour l’intelligence artificielle s’appelle Rubin et est signée Nvidia
Célia Séramour Publié le 6 janvier 2026
Jensen Huang, CEO de Nvidia, présente Vera et Rubin au CES 2026.
Oubliez Blackwell, Nvidia met un coup d’accélérateur avec Rubin. “Plus gros, plus fort, plus vite” pourrait être la devise du géant des puces. Profitant du CES 2026, Nvidia enterre déjà sa puce Blackwell (à peine sortie) pour annoncer Rubin, sa nouvelle bête de course. Promesse ? 10 fois plus de performances en inférence que Blackwell — oui, vous avez bien lu. Son PDG, Jensen Huang, jamais à court de superlatifs, vante une architecture révolutionnaire pour l’IA générative et les data centers.
Cerise sur le gâteau : Rubin serait aussi plus économe en énergie — parfait pour calmer les critiques sur l’empreinte carbone de l’IA. Disponibilité ? Mystère, mais Nvidia a déjà des commandes qui pleuvent. La liste des prétendants est déjà bien trop longue : AWS, Microsoft, Google, Meta, Oracle, Dell, HPE, Lenovo, Cisco, CoreWeave, Nebius, Nscale, Lambda, OpenAI, Anthropic, Cohere, Mistral AI, Runway, Thinking Machines, Cursor, Perplexity, ou encore xAI.
Bref, la course aux puces IA tourne à la surenchère… et les concurrents doivent encore digérer Blackwell. À quand la prochaine annonce ? 2027, sans doute.
......................
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.boursier.com/actualites/eco ... 54010.htmlDeepfakes : l'Espagne durcit sa législation face aux dérives de l'IA générative
E.N. source Reuters Publié le 13/01/2026
Madrid a validé un projet de loi visant à encadrer plus strictement les deepfakes générés par l'intelligence artificielle et l'utilisation des images et voix sans consentement.
L 'Espagne renforce son dispositif réglementaire pour encadrer les usages de l'intelligence artificielle (IA). Ce mardi, le Conseil des ministres a validé un projet de loi destiné à lutter contre les deepfakes - des contenus truqués générés par IA imitant l'image ou la voix de personnes réelles - et à renforcer les règles de consentement encadrant l'utilisation des images et des voix, alors que plusieurs Etats européens cherchent à endiguer la diffusion de contenus sexuels générés par IA.
Le texte prévoit un renforcement de la protection des mineurs et fixe à 16 ans l'âge minimum pour consentir à l'utilisation de sa propre image. Il limite également la réutilisation d'images publiées en ligne, ainsi que l'exploitation de voix ou de traits physiques recréés par IA, en l'absence d'une autorisation explicite.
Cette initiative s'inscrit dans un cadre européen plus large. En effet, l'Union européenne a intensifié ses efforts pour encadrer les deepfakes, avec de nouvelles règles obligeant les Etats membres à incriminer pénalement les deepfakes à caractère sexuel non consentis d'ici à 2027. Le texte intervient également dans un contexte de surveillance accrue des outils d'IA à l'échelle mondiale.
Les usages commerciaux également visés
Plusieurs plateformes sont sous le regard des autorités après la diffusion d'images deepfake à caractère sexuel, notamment le chatbot Grok, développé par l'entreprise xAI d'Elon Musk, qui fait l'objet d'enquêtes dans plusieurs pays. Plus tôt ce mois-ci, le gouvernement espagnol a demandé au parquet d'évaluer si certains contenus générés par IA pouvaient relever de la pédopornographie, une analyse actuellement en cours. Le projet de loi doit encore faire l'objet de consultations avant son approbation finale et sa transmission au Parlement.
Le ministre de la Justice, Felix Bolaños, a insisté sur la nécessité de clarifier les limites du partage en ligne. "Le fait que des personnes partagent des images personnelles ou familiales sur les réseaux sociaux ne donne pas une liberté absolue pour utiliser ces images dans d'autres contextes", a-t-il affirmé.
La réforme vise aussi directement les usages commerciaux de l'IA. Le projet de loi considère comme illégitime l'utilisation de l'image ou de la voix d'une personne générée par IA à des fins publicitaires ou commerciales sans son consentement préalable, renforçant ainsi la protection des droits à l'image et à la personnalité. Des exceptions sont toutefois prévues. Selon Felix Bolaños, les usages créatifs, satiriques ou fictionnels impliquant des personnalités publiques resteraient autorisés, à condition que les contenus soient clairement identifiés comme ayant été générés par IA, afin d'éviter toute confusion du public.
- energy_isere
- Modérateur

- Messages : 102777
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.clubic.com/actualite-595702 ... -mois.htmlCet analyste renommé en est persuadé : OpenAI sera en faillite dans les 18 prochains mois
Par Samir Rahmoune. le 17 janvier 2026
OpenAI est l'entreprise qui a lancé l'incroyable mode de l'intelligence artificielle avec ChatGPT. Mais elle pourrait bien aussi être la société qui ne bénéficiera pas à l'avenir de cette incroyable bond technologique
L'intelligence artificielle, ça demande beaucoup, beaucoup d'investissements. Les grandes entreprises du secteur annoncent constamment de grandes levées de fonds, et des dépenses à venir folle. Et c'est particulièrement le cas d'OpenAI, dont les dépenses sont à estimées à près de 1 milliard par mois. Une consommation fantastique de la trésorerie qui fait dire à certains qu'OpenAI pourrait avoir du mal à finir 2027 !
Dans 18 mois, OpenAI pourrait bien être totalement à sec
Chez OpenAI, les chiffres sont devenus complètement fous. On se souvient ainsi qu'en octobre dernier, Sam Altman s'était engagé à dépenser pas moins de 1 400 milliards de dollars dans le développement d'infrastructures pour l'IA. Une croissance pharaonique qui fait dire à certains qu'OpenAI pourrait ne plus vivre très longtemps.
C'est le cas de l'expert financier du Council on Foreign Relations, Sebastian Mallaby, qui vient d'écrire un article dans le New York Times dans lequel il estime que l'entreprise devrait être à sec « au cours des 18 prochains mois ».
OpenAI a un défaut majeur face à ses concurrents comme Google ou Microsoft
Et chez Sebastian Mallby, ce constat ne vient pas d'un scepticisme quant à la technologie de l'intelligence artificielle, bien au contraire. Il note ainsi que « les entreprises mettent généralement des décennies à déployer avec succès de nouvelles technologies », alors qu'en comparaison, les sociétés d'IA ont montré des progrès « spectaculaires ».
Ici le problème n'est pas l'intelligence artificielle, mais OpenAI. La firme présidée par Sam Altman doit en effet dépenser sans compter, comme les autres géants de la tech comme Google, Meta ou Microsoft, sans pour autant pouvoir compenser par des revenus gigantesques générés par des activités parallèles, comme c'est le cas des GAFAM.
Et il voit peu de marge de manoeuvre pour l'entreprise. « Même si OpenAI revient sur bon nombre de ces promesses et en finance d'autres grâce à ses actions surévaluées, l'entreprise doit tout de même trouver des sommes colossales » affirme-t-il ainsi. Pour lui, le destin possible d'OpenAI est de finir en faillite, puis finalement d'être « absorbé par Microsoft, Amazon ou un autre géant disposant de liquidités importantes ». Alors, est-ce l'avenir ?

