Comment installer LM Studio pour exécuter des LLM hors ligne sous Linux

LM Studio est une application de bureau facile à utiliser qui vous permet de télécharger, installer et exécuter des grands modèles de langue (LLMs) locaux sur votre machine Linux.

En utilisant LM Studio, vous pouvez échapper aux limitations et aux inquiétudes de confidentialité associées aux modèles d’IA basés dans le cloud, tout en profitant d’une interface similaire à ChatGPT.

Dans cet article, nous vous guiderons à travers l’installation de LM Studio sous Linux en utilisant le format AppImage, et fournirons un exemple de l’exécution d’un LLM spécifique localement.

Reqûetes systèmes

Les exigences minimales en matériel et logiciel pour l’exécution de LM Studio sous Linux sont :

  • Carte graphique NVIDIA ou AMD avec au moins 8Go de VRAM.
  • Un processeur compatible avec AVX2 et au moins 16Go de RAM sont requis.

Installation de LM Studio sous Linux

Pour commencer, vous devez télécharger la dernière version de LM Studio AppImage depuis le site officiel ou le dépôt.

Download LM Studio AppImage

Une fois l’AppImage téléchargé, vous devez le rendre exécutable et extraire le contenu de l’AppImage, qui se déploiera automatiquement dans un répertoire nommé squashfs-root.

chmod u+x LM_Studio-*.AppImage
./LM_Studio-*.AppImage --appimage-extract

Maintenant, navigatez vers le répertoire extrait squashfs-root et définissez les permissions appropriées pour le fichier chrome-sandbox, qui est un fichier binaire assistant dont l’application a besoin pour s’exécuter de manière sécurisée.

cd squashfs-root
sudo chown root:root chrome-sandbox
sudo chmod 4755 chrome-sandbox

Maintenant, vous pouvez exécuter l’application LM Studio directement à partir des fichiers extraits.

./lm-studio
LM Studio On Ubuntu

C’est tout! LM Studio est maintenant installé sur votre système Linux, et vous pouvez commencer à explorer et à exécuter des ML locaux.

Exécution d’un Modèle de Langue Localement sous Linux

Après avoir installé et lancé LM Studio avec succès, vous pouvez commencer à l’utiliser pour exécuter des modèles de langue locaux.

Par exemple, pour exécuter un modèle de langue pré-entraîné appelé GPT-3, cliquez sur la barre de recherche en haut et tapez “GPT-3” puis cliquez sur Télécharger.

Download LLM Model in LM Studio
Downloading LLM Model

Une fois le téléchargement terminé, cliquez sur l’onglet “Discuter” dans le panneau de gauche. Dans l’onglet “Discuter”, cliquez sur le menu déroulant en haut et sélectionnez le modèle GPT-3 téléchargé.

Vous pouvez maintenant commencer à discuter avec le modèle GPT-3 en tapant vos messages dans le champ d’entrée situé en bas de la fenêtre de discussion.

Load LLM Model in LM Studio

Le modèle GPT-3 traitera vos messages et fournira des réponses en fonction de son entraînement. N’oubliez pas que le temps de réponse peut varier en fonction de la hardware de votre système et de la taille du modèle téléchargé.

Conclusion

En installant LM Studio sur votre système Linux en utilisant le format AppImage, vous pouvez facilement télécharger, installer et exécuter des grands modèles de langue locaux sans dépendre de services basés sur le cloud.

Cela vous donne un meilleur contrôle sur vos données et votre privacy tout en vous permettant de profiter des avantages des modèles AI avancés. N’oubliez pas de toujours respecter les droits de propriété intellectuelle et de conformité aux termes d’utilisation pour les LLMs que vous téléchargez et exécutez avec LM Studio.

Source:
https://www.tecmint.com/lm-studio-run-llms-linux/