A non, Meta vient de diffuser Llama, plus performant que Gpt3 mais avec seulement 60B parametres vs 175B :Silenius a écrit : ↑03 mars 2023, 08:23Selon les rumeurs, gpt4 ne serait pas beaucoup plus gros que gpt3.5 mais serait entraine avec plus de donnees, car l'optimum est de 22,5 tokens par parametre.
La carte A100 sera supplantée par la H100 plus puissante.
Sinon, pour que chatgpt ait acces au web, il suffit d'installer l'extension Webchatgpt sur votre navigateur, ça fonctionne assez bien.
“We trained LLaMA 65B and LLaMA 33B on 1.4 trillion tokens. Our smallest model, LLaMA 7B, is trained on one trillion tokens,”
donc pour les plus petits modeles, ils s'ameliorent encore avec plus de donnees.
Une equipe a utilise le generateur d'image StableDiffusion pour recreer les images vues par des sujets en analysant les images Fmri de leur cerveau :