
LM Studio, Installation et utilisation ðÿš € €
Vous voulez propulser votre carrière informatique? Réservez un appel gratuit pour découvrir comment obtenir la certification Cisco CCNA en 12 semaines avec notre soutien personnalisé.
Imaginez que vous avez un assistant personnel ultra-intelligent, capable de répondre à vos questions, d’écrire du texte, de code ou même d’analyser les données … mais au lieu de dépendre d’Internet et d’envoyer vos demandes à des serveurs distants, cet assistant fonctionne directement par vous-même ordinateur. ðÿ– ¥ ï¸ Â Â Â Â Â Â Â Â Â Â – Studio LMUne plate-forme qui vous donne accès aux modèles d’intelligence artificielle (LLMS) localement, sans dépendre du cloud. Dans ce tutoriel, nous verrons comment installer LMStudio, étape par étape et comprendre les concepts clés associés.
Qu’est-ce que LM Studio? ðÿ¤ ”
Il s’agit d’une application de bureau qui vous permet d’exécuter Modèles de grande langue (LLMS) localement sur votre ordinateur. Concrètement, cela signifie que vous pouvez discuter avec l’intelligence artificielle avancée Sans connexion Internet Et sans envoyer vos données à un serveur externe. ðÿ ”’
Les principales caractéristiques
- UN interface de chat intuitif et familier ðÿ terminé
- Un modèle de recherche et de téléchargement de modèles via Visage étreint ðÿ¤—
- Et serveur local Compatible avec l’API Openai ðÿ
- Et système de gestion du modèle et configurations avancées œ ™ ï¸
ðÿ —ï¸ Préréquis et configuration minimale
Avant d’installer l’application, vérifiez que votre machine répond aux exigences suivantes:
ðÿ– ¥ ï¸ macOS
- Processeur : Silicon Apple (M1 / M2 / M3 / M4)
- Système : macOS 13.4 ou plus récent (14,0+ pour les modèles MLX)
- BÉLIER : 16 Go minimum recommandé (8 Go possible mais limité)
ðÿ– ¥ ï¸ fenêtres
- Processeur : x64 ou arm64 (Snapdragon x Elite)
- Système : Windows 10/11
- BÉLIER : 16 Go minimum recommandé
- Processeur : AVX2 Prise en charge de l’instruction requise
ðÿ § Linux
- Système : Ubuntu 20.04 ou plus récent
- Architecture : X64 seulement (Aarch64 non pris en charge pour le moment)
- Processeur : AVX2 Prise en charge de l’instruction requise
ðÿ «¥ Installation de LM Studio
1ï¸ Âƒ £ Télécharger LM Studio
ðÿ «Allez visiter la page de téléchargement officielle et téléchargez l’installateur correspondant à votre système.
2ï¸ Âƒ £ Installateur LM Studio
Sous-fenêtres ðÿ
- Double-cliquez sur le fichier
.exe
Téléchargé. - Suivez les instructions de l’assistant d’installation.
- Une fois terminé, lancez l’application à partir du menu Démarrer.
Sous-macos ðÿ
- Ouvrir le fichier
.dmg
. - Faites glisser l’icône du logiciel dans le dossier des applications.
- Lancez l’application à partir du Finder ou des projecteurs.
Sous Linux ðÿ §
- Accédez à votre fichier de téléchargement:
cd ~/Téléchargements
- Ajoutez les autorisations d’exécution:
chmod +x LMStudio.AppImage
- Exécutez la commande suivante:
./LMStudio.AppImage
ðÿš € Commencez par LM Studio
ðÿ «œ Télécharger un modèle d’IA
- Ouvrir la demande et allez à l’onglet Découvrir.
- Rechercher un modèle (ex: “dire”, “phi-3”, “gemma”).
- Sélectionnez une version en fonction de votre puissance matérielle.
- Cliquez sur “Télécharger” Pour récupérer le modèle.
ðÿ “œ Astuce : Utiliser â + 2
(Mac) ou Ctrl + 2
(Windows / Linux) pour accéder rapidement à l’onglet Discover.
ðÿ “œ Chargez un modèle en mémoire
- Ouvrez l’onglet “Cat”.
- Cliquez sur “Modèle de chargeur” (
â + L
Sur Mac,Ctrl + L
Sur Windows / Linux). - Sélectionnez le modèle Téléchargé.
- Configurer les paramètres Si nécessaire, alors Chargez le modèle.
ðÿ’¡ Que signifie “charger un modèle”? Cela alloue la mémoire nécessaire à l’exécution du modèle local.
ðÿ «œ Commencez à discuter avec un modèle
- Une fois le modèle chargé, tapez un message dans l’interface.
- Observez une réponse AI en temps réel! ðÿš €
ðÿ «» Gérer vos conversations
L’application vous permet de Gérer plusieurs discussions Comme dans le chatppt:
- Créer un nouveau chat :
â + N
(Mac) ouCtrl + N
(Windows / Linux) - Organiser en fichiers :
â + Shift + N
(Mac) ouCtrl + Shift + N
(Windows / Linux) - Dupliquer un chat : Cliquez sur
•••
Puis “dupliquer” - Conversations d’exportation (ils sont stockés en JSON)
ðÿ “œ Emplacement du fichier de chat :
- Mac / linux :
~/.lmstudio/conversations/
- Fenêtre :
%USERPROFILE%\.lmstudio\conversations
ðÿ “- discuter avec des documents (chiffon)
Tu peux ajouter des fichiers (.pdf, .docx, .txt) à vos conversations pour interagir avec leur contenu.
- Si le document est courtLe modèle l’ingère complètement.
- Si le document est longl’application utilise GÉNÉRATION AUGURATIVE (RAG)qui extrait les parties pertinentes pour les fournir à l’IA.
ðÿ “œ Conseils pour optimiser le chiffon : Formuler des demandes détaillées et utiliser des mots clés pertinents pour améliorer la précision des réponses.
ð utilisation en mode serveur
Ce projet propose une API Openai compatible Pour interagir avec vos modèles à partir d’applications ou de scripts:
- API de compatibilité openai
- API LM Studio REST (Beta)
Vous pouvez ainsi appeler votre IA local via des demandes HTTP, comme avec une API GPT.
Mode hors ligne ð ”: travailler sans Internet!
La demande ne nécessite pas Pas de connexion Internet Pour: œ… exécuter les LLM locaux œ… discuter avec des documents! Servir les demandes via l’API locale
Seules les opérations suivantes nécessitent Internet:  Téléchargez de nouveaux modèles pour rechercher des modèles sur un visage étreint œ œ Vérifiez les mises à jour de l’application
ðÿ † Š Pourquoi choisir LM Studio plutôt que Olllama?
Si vous avez déjà testé Olllama pour exécuter des modèles d’IA locaux, vous avez sûrement remarqué que son installation et son utilisation nécessitent des manipulations de ligne de commande. Bien que efficace, cette approche peut être un frein pour ceux qui préfèrent une solution clé en main.
LM Studio, en revanche, brille avec sa simplicité. Son installation se fait en quelques clics, sans avoir besoin de lignes de commande ou de configuration complexe. De plus, son interface graphique intuitive vous permet de télécharger, configurer et exécuter des modèles sans effort. Que vous soyez un curieux débutant ou un utilisateur avancé, cette application vous offre une expérience fluide et accessible, où Olllama peut sembler plus technique et austère. ðÿš €
Avec cette application, pas besoin de se soucier des dépendances compliquées ou d’apprendre des commandes spécifiques: tout est conçu pour une adhérence rapide et efficace. Alors pourquoi compliquer la vie? ðÿtention
Félicitations! ðÿater ‰ Vous avez réussi et configuré LMStudio. Vous pouvez maintenant explorer le monde fascinant de LLMS locauxTestez différents modèles et expérimentez-vous en confidentialité. ðÿ ”’
ðÿš € Et maintenant?
Dites-moi quel sujet vous aimeriez voir la semaine prochaine!
- ðÿ¤– Créer un chatbot local?
- ðÿ »§ Optimiser les performances d’IA sur votre PC?
- ðÿ’¾ Explorez les meilleurs modèles disponibles?
Partagez vos suggestions en commentaires! ðÿ «© ðÿ» ¥
A bientôt pour une nouvelle aventure IA! ðÿš € ðÿ¤–
Rejoignez la première communauté informatique dédiée et déverrouillez tous nos bonus exclusifs, y compris la formation complète «Devenez un expert pour accélérer votre carrière aujourd’hui. Rendez-vous dans la communauté maintenant