Considerations about GPU support #3
Replies: 5 comments 19 replies
-
D'après mes souvenirs, il n'y a pas si longtemps, peut-être 2 commits auparavant, j'étais sous Ubuntu 20.04. J'avais spécifiquement opté pour la version v3.10.10 de Python. Avec la version v3.10.12, j'avais rencontré des soucis, que ce soit avec biniou ou CUDA, et je n'avais pas osé essayer la v3.10.11. Sous cette combinaison d'Ubuntu 20.04 et de Python forcé à v3.10.10, biniou fonctionnait sans rencontrer d'erreurs relatives à CUDA. Cependant, il y a 2 ou 3 commits de cela, après avoir mis à jour biniou sur cette machine sous Ubuntu 20.04, tout en conservant Python à la version v3.10.10, des problèmes sont survenus. Biniou refusait de se lancer, et j'ai soupçonné des complications liées à CUDA ou d'autres raisons que j'ai du mal à me remémorer. Suite à ma mise à jour vers Ubuntu 22.04, l'accès à CUDA m'est devenu impossible. Il semble que le principal obstacle soit que le pilote de ma vieille Quadro FX 1800 n'est plus supporté dans les dépôts officiels d'Ubuntu. Du coup, je n'ai plus accès à mon pilote NVIDIA. Enfin, je serais incapable de déterminer si, à l'époque, ma Quadro FX d'antan avait apporté une quelconque accélération. |
Beta Was this translation helpful? Give feedback.
-
J'ai abandonné la fx1800 et Je suis actuellement en train de tester biniou sur debian 12, xeon 4coeurs, avec 28go de ram et une NVIDIA Quadro K620 (2GB VRAM), | NVIDIA-SMI 525.125.06 Driver Version: 525.125.06 CUDA Version: 12.0 Voici mes observations initiales : Les modèles textuels semblent fonctionner correctement, mais les modèles d'images, en particulier mini-midjourney et LCM, rencontrent des problèmes d'insuffisance de mémoire CUDA. Sans webui.sh lancé, l'utilisation de la VRAM est d'environ 1MB, qui passe à 4MB avec webui.sh lancé, puis monte à environ 1990MB selon les modèles exécutés. Comme avec Pinokio, le lanceur de modèle full GPU/CUDA, si la VRAM est épuisée, cela provoque un crash. Je continue les tests et je fournirai davantage de détails dès que possible.
|
Beta Was this translation helpful? Give feedback.
-
Auparavant, avec ma carte graphique QuadroFX1800 et une RAM de 8Go, je ne pouvais pas vraiment utiliser les chatbots car le temps de réponse était extrêmement long, parfois plusieurs heures, même pour un simple 'bonjour'. Maintenant, avec une mise à niveau à 28 Go de RAM et une carte Quadro avec 2 Go, je remarque une différence considérable. Les réponses pour des prompts complexes ne prennent que quelques minutes au maximum, ce qui représente une nette amélioration par rapport à ma configuration précédente.
Le seule module image avec cuda (pour le moment ma config biniou est en mode cuda) le seul module image que je suis arrivé à utiliser est le module x2 de Real ESRGAN, là encore ca dépend des images que je lui donne en entrée pour agrandissement. |
Beta Was this translation helpful? Give feedback.
-
Je suis prêt à fournir une vidéo de mon écran pour vous aider, à condition de savoir exactement ce que vous cherchez à tester. J'effectue de nombreux tests rapidement sans prendre le temps de m'arrêter pour faire des captures d'écran, mais je suis disposé à assister si je comprends quel type d'informations vous recherchez, avec ou sans CUDA. Ma machine est un Xeon, comme mentionné précédemment, qui sera bientôt équipée de 64 Go de RAM et d'une NVIDIA avec 24 Go de VRAM. J'ai entamé les tests avec Biniou sur cette machine quand elle avait seulement 8 Go de RAM. J'apprécie vraiment Biniou, je suis prêt à remonter tous types d'infos cuda ou pas de ma bécane. |
Beta Was this translation helpful? Give feedback.
-
J'appelle ca passer en mode cuda, ou en mode cpu. La prodédure pour switcher fonctionne parfaitement bien il me semble. |
Beta Was this translation helpful? Give feedback.
-
TLDR;
About GPU support (to say it another way : cuda support) :
I'd like to keep biniou required hardware as minimal as possible concerning the default installation (8GB / no GPU), but biniou may already be usable with cuda. I don't have access to recent Nvidia hardware to confirm it, but replacing torch, torchvision and torchaudio cpu-only version of biniou by the default one should enable cuda, as each module does an auto-detection of the device to use.
On Debian 12, it could be done with something like that :
Rollback if not working :
Main reason to use cpu-only version by default is saving RAM. In fact, the default torch version works as well as the cpu-only if you have enough RAM.
Please also take in consideration that CPU offloading is not supported yet, but will be in the future.
If anybody using biniou and having Nvidia hardware could confirm it is working, i will modify the installers to detect cuda and install the default torch version instead of the cpu-only one.
Edit : thanks to @koinkoin-project for confirming CUDA is usable following this procedure. Installer will be modified asap to detect which version of PyTorch to use at installation. See this wiki page for more information about CUDA support.
Beta Was this translation helpful? Give feedback.
All reactions