Arrivera-t-on à dompter l'IA ? chatGPT, fuite de llama, apprentissage alpaca

Je lâche ici quelques liens

https://crfm.stanford.edu/2023/03/13/alpaca.html

et lance une discussion et un concours sur comment « capturer l’IA en localhost »

LLaMA: Open and Efficient Foundation Language Models
LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS

C’est énorme.
J’ai pu essayer le modèle llama7B… L’IA en localhost ça fonctionne!

Pour le modèle 30B, il me manque de la RAM
Il faut aussi un bon GPU pour pratiquer l’apprentissage.

Quelqu’un d’autre a essayé de son côté?