Je lâche ici quelques liens
https://crfm.stanford.edu/2023/03/13/alpaca.html
et lance une discussion et un concours sur comment « capturer l’IA en localhost »
Je lâche ici quelques liens
https://crfm.stanford.edu/2023/03/13/alpaca.html
et lance une discussion et un concours sur comment « capturer l’IA en localhost »
LLaMA: Open and Efficient Foundation Language Models
LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS
C’est énorme.
J’ai pu essayer le modèle llama7B… L’IA en localhost ça fonctionne!
Pour le modèle 30B, il me manque de la RAM
Il faut aussi un bon GPU pour pratiquer l’apprentissage.
Quelqu’un d’autre a essayé de son côté?