Calcul GPU massif

Bonjour,

Toujours intéressé par les propositions des CHATONS comme alternative aux GAFAM, je me demandais si certaines propositions permettaient de s’émanciper des serveurs de calcul GPU tels que ceux proposés par Amazon.
Je n’ai pas trouvé de manière de chercher l’information sur le site chatons.org, alors je tente ma chance sur le forum !

Merci d’avance pour les réponses.

Bonjour @jmfavreau, bienvenue sur le forum, je n’ai à ce jour jamais entendu parler de tels projets chez les CHATONS - ce qui ne veut pas dire que ça n’existe pas.

Après peut-être qu’ici des personnes ont des « homelabs » avec la possibilité de racker du GPU et mettre un JupyterHub ou du genre ? Là tu auras aucune garantie je suppose.

J’imagine que ça va aussi dépendre de ton projet, des acteurs comme Evolix pourront peut-être te proposer ça sur mesure mais ça aura probablement un coût non négligeable.

Dépendamment de ton projet, tu peux peut-être te rapprocher de structures communautaires/libres qui partagent ton centre d’intérêt, elles auront peut être des infrastructures dédiées.

Sinon, tu peux toujours voir pour racker une machine en DC, peut-être en voyant avec un FAI associatif, ils le font parfois.

D’autres personnes ici auront possiblement plus d’info :slight_smile:

Bonjour,
Bonjour,

Toujours intéressé par les propositions des CHATONS comme alternative
aux GAFAM, je me demandais si certaines propositions permettaient de
s’émanciper des serveurs de calcul GPU tels que ceux proposés par
Amazon.

Pour que ça rentre dans le cadre des chatons il faut au moins avoir des
drivers/pilotes libres (les firmwares/micrologiciels et BIOS non libres
sont tolérés par la charte par contre).

Du coup faut aussi voir le support OpenCL pour nouveau/radeon/amdgpu.

Y’a aussi sans doute des entreprises qui ont des forks de ces drivers
juste avec plus de support OpenCL mais le plus simple est sans doute
d’utiliser les projets upstreams.

Apparemment le support pour les GPU « Southern/Sea Island » à l’air
pas trop mal[1] car le support OpenCL 1.1 est quasi finit.

Ensuite il faut sans doute une carte mère qui supporte l’IOMMU pour
faire ça de façon sécurisé afin que le GPU ne puisse pas compromettre
tout le système. Par contre je sait pas si on peut facilement mettre
plusieurs GPU dans un seul ordi et partager tout ça facilement.

Ensuite j’imagine qu’il faut aussi un moyen de donner accès au GPU(s)
d’une façon ou d’une autre (par exemple dans un conteneur, etc) et/ou
d’en partager l’accès comme avec libvirt kvm avec un gpu virtio avec la
3D activée.

Sinon côté nouveau tout est « work in progress »[2] pour la partie
« compute ».

Y’a peut aussi être moyen d’avoir des accélérations à base de FPGA et
puces dédiées, mais la pareil faut voir le statuts en libre et bien
choisir le matériel et construire une architecture par dessus.

Références:

Salut, nous avons ce projet dans nos cartons.

Une alternative prend forme au sein du collectif CopyLaRadio

Relié par toile de confiance, les stations forment des essaims privés SSH/IPFS, qui disposent des services NextCloud (Rpi) et Ollama (PC Gamer)

« Made In Ẑen » alimente cette organisation en émettant des jetons à partir de Ğ1 pour comptabiliser les parts investies par chacun et assurer une répartition des € en « 1/3 convertible, 1/3 Infrastructure, 1/3 R&D »,

MadeInZen

Notre association dispense « des formations pour devenir hébergeur et former de nouveaux auto-hébergeurs », le principe est simple, on transmet le savoir faire pour « switcher » le flux de vos données des « datacenters privés » vers chez vous ou un autre membre de la toile de confiance.

« Sagittarius » est le premier PC à être mis en service il met à disposition un hébergement NextCloud + un accès à l’IA. Il est situé au « G1FabLab » qui lui fourni alimentation électrique, connexion réseau et protection contre la foudre…


Le système est « clonable » et cette façon d’utiliser nos clefs permet de devenir propriétaire de notre infrastructure commune et d’en distribuer les charges et bénéfices… En nous faisant quitter le « Grand Méchant Cloud » ensemble :wink:

A votre disposition pour en discuter

1 « J'aime »

Salutations !
Ca fait un moment que je n’étais pas passé dans le coin, et je viens de tomber sur ce sujet.

Je n’ai pas connaissances de chatons proposant ce type de services, par contre hors GAFAM tu as plusieurs hébergeurs qui en proposent :

  • OVH et scaleway via des instances GPU que tu peux provisionner
  • DRI (pour qui je travaille pour être transparent) en accès mutualisé via un service de namespaces Kubernetes à la demande. Ils ne sont pas (plus?) chatons mais restent souverain avec une démarche éthique et écologique que je trouve sérieuse (sinon je ne serai pas là :grin: )

N’hésitez pas à me ping si ça vous intéresse !

1 « J'aime »