LM Studio, Installation et utilisation ðÿš € €
7 mins read

LM Studio, Installation et utilisation ðÿš € €


Vous voulez propulser votre carrière informatique? Réservez un appel gratuit pour découvrir comment obtenir la certification Cisco CCNA en 12 semaines avec notre soutien personnalisé.

Imaginez que vous avez un assistant personnel ultra-intelligent, capable de répondre à vos questions, d’écrire du texte, de code ou même d’analyser les données … mais au lieu de dépendre d’Internet et d’envoyer vos demandes à des serveurs distants, cet assistant fonctionne directement par vous-même ordinateur. ðÿ– ¥ ï¸ Â Â Â Â Â Â Â Â Â Â – Studio LMUne plate-forme qui vous donne accès aux modèles d’intelligence artificielle (LLMS) localement, sans dépendre du cloud. Dans ce tutoriel, nous verrons comment installer LMStudio, étape par étape et comprendre les concepts clés associés.

Qu’est-ce que LM Studio? ðÿ¤ ”

Il s’agit d’une application de bureau qui vous permet d’exécuter Modèles de grande langue (LLMS) localement sur votre ordinateur. Concrètement, cela signifie que vous pouvez discuter avec l’intelligence artificielle avancée Sans connexion Internet Et sans envoyer vos données à un serveur externe. ðÿ ”’

Les principales caractéristiques

  • UN interface de chat intuitif et familier ðÿ terminé
  • Un modèle de recherche et de téléchargement de modèles via Visage étreint ðÿ¤—
  • Et serveur local Compatible avec l’API Openai ðÿ
  • Et système de gestion du modèle et configurations avancées œ ™ ï¸

ðÿ —ï¸ Préréquis et configuration minimale

Avant d’installer l’application, vérifiez que votre machine répond aux exigences suivantes:

ðÿ– ¥ ï¸ macOS

  • Processeur : Silicon Apple (M1 / M2 / M3 / M4)
  • Système : macOS 13.4 ou plus récent (14,0+ pour les modèles MLX)
  • BÉLIER : 16 Go minimum recommandé (8 Go possible mais limité)

ðÿ– ¥ ï¸ fenêtres

  • Processeur : x64 ou arm64 (Snapdragon x Elite)
  • Système : Windows 10/11
  • BÉLIER : 16 Go minimum recommandé
  • Processeur : AVX2 Prise en charge de l’instruction requise

ðÿ § Linux

  • Système : Ubuntu 20.04 ou plus récent
  • Architecture : X64 seulement (Aarch64 non pris en charge pour le moment)
  • Processeur : AVX2 Prise en charge de l’instruction requise

ðÿ «¥ Installation de LM Studio

1ï¸ Âƒ £ Télécharger LM Studio

ðÿ «Allez visiter la page de téléchargement officielle et téléchargez l’installateur correspondant à votre système.

2ï¸ Âƒ £ Installateur LM Studio

Sous-fenêtres ðÿ

  1. Double-cliquez sur le fichier .exe Téléchargé.
  2. Suivez les instructions de l’assistant d’installation.
  3. Une fois terminé, lancez l’application à partir du menu Démarrer.

Sous-macos ðÿ

  1. Ouvrir le fichier .dmg.
  2. Faites glisser l’icône du logiciel dans le dossier des applications.
  3. Lancez l’application à partir du Finder ou des projecteurs.

Sous Linux ðÿ §

  1. Accédez à votre fichier de téléchargement:
    cd ~/Téléchargements
    
  2. Ajoutez les autorisations d’exécution:
    chmod +x LMStudio.AppImage
    
  3. Exécutez la commande suivante:
    ./LMStudio.AppImage
    

ðÿš € Commencez par LM Studio

ðÿ «œ Télécharger un modèle d’IA

  1. Ouvrir la demande et allez à l’onglet Découvrir.
  2. Rechercher un modèle (ex: “dire”, “phi-3”, “gemma”).
  3. Sélectionnez une version en fonction de votre puissance matérielle.
  4. Cliquez sur “Télécharger” Pour récupérer le modèle.

ðÿ “œ Astuce : Utiliser ⌘ + 2 (Mac) ou Ctrl + 2 (Windows / Linux) pour accéder rapidement à l’onglet Discover.

ðÿ “œ Chargez un modèle en mémoire

  1. Ouvrez l’onglet “Cat”.
  2. Cliquez sur “Modèle de chargeur” (⌘ + L Sur Mac, Ctrl + L Sur Windows / Linux).
  3. Sélectionnez le modèle Téléchargé.
  4. Configurer les paramètres Si nécessaire, alors Chargez le modèle.

ðÿ’¡ Que signifie “charger un modèle”? Cela alloue la mémoire nécessaire à l’exécution du modèle local.

ðÿ «œ Commencez à discuter avec un modèle

  1. Une fois le modèle chargé, tapez un message dans l’interface.
  2. Observez une réponse AI en temps réel! ðÿš €

ðÿ «» Gérer vos conversations

L’application vous permet de Gérer plusieurs discussions Comme dans le chatppt:

  • Créer un nouveau chat : ⌘ + N (Mac) ou Ctrl + N (Windows / Linux)
  • Organiser en fichiers : ⌘ + Shift + N (Mac) ou Ctrl + Shift + N (Windows / Linux)
  • Dupliquer un chat : Cliquez sur ••• Puis “dupliquer”
  • Conversations d’exportation (ils sont stockés en JSON)

ðÿ “œ Emplacement du fichier de chat :

  • Mac / linux : ~/.lmstudio/conversations/
  • Fenêtre : %USERPROFILE%\.lmstudio\conversations

ðÿ “- discuter avec des documents (chiffon)

Tu peux ajouter des fichiers (.pdf, .docx, .txt) à vos conversations pour interagir avec leur contenu.

  • Si le document est courtLe modèle l’ingère complètement.
  • Si le document est longl’application utilise GÉNÉRATION AUGURATIVE (RAG)qui extrait les parties pertinentes pour les fournir à l’IA.

ðÿ “œ Conseils pour optimiser le chiffon : Formuler des demandes détaillées et utiliser des mots clés pertinents pour améliorer la précision des réponses.

ð utilisation en mode serveur

Ce projet propose une API Openai compatible Pour interagir avec vos modèles à partir d’applications ou de scripts:

  • API de compatibilité openai
  • API LM Studio REST (Beta)

Vous pouvez ainsi appeler votre IA local via des demandes HTTP, comme avec une API GPT.

Mode hors ligne ð ”: travailler sans Internet!

La demande ne nécessite pas Pas de connexion Internet Pour: œ… exécuter les LLM locaux œ… discuter avec des documents! Servir les demandes via l’API locale

Seules les opérations suivantes nécessitent Internet:  Téléchargez de nouveaux modèles pour rechercher des modèles sur un visage étreint œ œ Vérifiez les mises à jour de l’application

ðÿ † Š Pourquoi choisir LM Studio plutôt que Olllama?

Si vous avez déjà testé Olllama pour exécuter des modèles d’IA locaux, vous avez sûrement remarqué que son installation et son utilisation nécessitent des manipulations de ligne de commande. Bien que efficace, cette approche peut être un frein pour ceux qui préfèrent une solution clé en main.

LM Studio, en revanche, brille avec sa simplicité. Son installation se fait en quelques clics, sans avoir besoin de lignes de commande ou de configuration complexe. De plus, son interface graphique intuitive vous permet de télécharger, configurer et exécuter des modèles sans effort. Que vous soyez un curieux débutant ou un utilisateur avancé, cette application vous offre une expérience fluide et accessible, où Olllama peut sembler plus technique et austère. ðÿš €

Avec cette application, pas besoin de se soucier des dépendances compliquées ou d’apprendre des commandes spécifiques: tout est conçu pour une adhérence rapide et efficace. Alors pourquoi compliquer la vie? ðÿtention

Félicitations! ðÿater ‰ Vous avez réussi et configuré LMStudio. Vous pouvez maintenant explorer le monde fascinant de LLMS locauxTestez différents modèles et expérimentez-vous en confidentialité. ðÿ ”’

ðÿš € Et maintenant?

Dites-moi quel sujet vous aimeriez voir la semaine prochaine!

  • ðÿ¤– Créer un chatbot local?
  • ðÿ »§ Optimiser les performances d’IA sur votre PC?
  • ðÿ’¾ Explorez les meilleurs modèles disponibles?

Partagez vos suggestions en commentaires! ðÿ «© ðÿ» ¥

A bientôt pour une nouvelle aventure IA! ðÿš € ðÿ¤–

Rejoignez la première communauté informatique dédiée et déverrouillez tous nos bonus exclusifs, y compris la formation complète «Devenez un expert pour accélérer votre carrière aujourd’hui. Rendez-vous dans la communauté maintenant





Hosting

Leave a Reply

Your email address will not be published. Required fields are marked *