{"id":77425,"date":"2024-01-15T18:14:41","date_gmt":"2024-01-15T18:14:41","guid":{"rendered":"http:\/\/www.tunimedia.tn\/fr\/comment-faire-fonctionner-une-ia-generative-en-local-sur-son-ordinateur\/"},"modified":"2024-01-15T18:14:41","modified_gmt":"2024-01-15T18:14:41","slug":"comment-faire-fonctionner-une-ia-generative-en-local-sur-son-ordinateur","status":"publish","type":"post","link":"https:\/\/tunimedia.tn\/fr\/comment-faire-fonctionner-une-ia-generative-en-local-sur-son-ordinateur\/","title":{"rendered":"Comment faire fonctionner une IA g\u00e9n\u00e9rative en local sur son ordinateur"},"content":{"rendered":"<p> [ad_1]\n<\/p>\n<div>\n<p class=\"chapo\">Comment faire fonctionner une IA g\u00e9n\u00e9rative en local sur son ordinateur ? L&rsquo;op\u00e9ration est aujourd&rsquo;hui relativement simple, bien qu&rsquo;il faille avoir une machine assez performante pour pouvoir en profiter correctement.<\/p>\n<p>Vous avez probablement d\u00e9j\u00e0 test\u00e9 un ou plusieurs moteurs d\u2019<strong>IA g\u00e9n\u00e9rative<\/strong> comme ChatGPT ou <a title=\"Google\" href=\"https:\/\/www.begeek.fr\/google\">Google<\/a> Bard. Si populaires que soient ces outils dans le cloud, il est aussi possible de les installer sur votre propre ordinateur. Ce faisant, vous gagnez en confidentialit\u00e9, et vous n\u2019aurez pas de souci de non disponibilit\u00e9. Encore faut-il savoir comment proc\u00e9der.<\/p>\n<p>Pour commencer, il vous faut un programme pour ex\u00e9cuter l\u2019IA et vous aurez besoin d\u2019un grand mod\u00e8le de langage (LLM) pour g\u00e9n\u00e9rer les r\u00e9ponses. Ces LLM sont \u00e0 la base des g\u00e9n\u00e9rateurs de texte. GPT-4 est le dernier en date, derri\u00e8re <a href=\"https:\/\/www.begeek.fr\/comment-cacher-vos-conversations-chatgpt-sans-les-supprimer-391401\">ChatGPT<\/a>, et Google a d\u00e9ploy\u00e9 r\u00e9cemment Gemini, derri\u00e8re Google Bard. Si vous n\u2019avez jamais entendu parler de LLM, voici une explication simple. Les LLM sont entra\u00een\u00e9s sur de grandes quantit\u00e9s de donn\u00e9es et ils apprennent \u00e0 reconna\u00eetre les relations entre les mots et phrases. Dit autrement, les LLM sont des moteurs de correction automatique \u00e9volu\u00e9s. Ils ne \u201csavent\u201d pas vraiment quoi que ce soit, mais ils reconnaissent comment les mots devraient s\u2019assembler pour para\u00eetre naturels et avoir du sens. \u00c0 haut niveau, le r\u00e9sultat semble \u00eatre parfaitement r\u00e9el. C\u2019est bien \u00e9videmment plus complexe que cela, mais c\u2019est l\u2019id\u00e9e g\u00e9n\u00e9rale.<\/p>\n<p>Pour faire fonctionner vos propres LLM, vous n\u2019avez pas besoin d\u2019\u00eatre une grande entreprise ou autre : il y en a plusieurs disponibles pour le grand public, dont celui de Meta, LLaMa ; d\u2019autres sont d\u00e9velopp\u00e9s par des chercheurs et des b\u00e9n\u00e9voles. L\u2019id\u00e9e g\u00e9n\u00e9rale est que les LLMs ainsi accessibles aident l\u2019innovation et am\u00e9liorent la transparence sur le sujet.<\/p>\n<p>Dans ce guide, nous utiliserons <a href=\"https:\/\/lmstudio.ai\/\">LM Studio<\/a> pour vous montrer l\u2019installation locale d\u2019un LLM. C\u2019est l\u2019une des meilleures options actuellement. Gratuite \u00e0 utiliser et accessible sur <a title=\"Windows\" href=\"https:\/\/www.begeek.fr\/microsoft\/windows\">Windows<\/a>, macOS et Linux.<\/p>\n<p>La premi\u00e8re \u00e9tape est de t\u00e9l\u00e9charger LM Studio depuis le site officiel et de v\u00e9rifier la configuration minimale demand\u00e9e : utiliser un LLM demande beaucoup de ressources. Il vous faudra un ordinateur Windows ou Linux supportant AVX2 (les machines r\u00e9centes) ou Mac avec puce Apple Silicon sous <a href=\"https:\/\/www.begeek.fr\/les-nouveaux-widgets-de-macos-sonoma-sont-vraiment-utiles-388578\">macOS<\/a> 13.6 ou plus r\u00e9cent et 16 Go de RAM sont recommand\u00e9s. Sur les PC, il faut au moins 6 Go de VRAM.<\/p>\n<p>Une fois logiciel lanc\u00e9, il faut trouver un LLM \u00e0 t\u00e9l\u00e9charger et utiliser. L\u2019un des avantages de LM Studio, c\u2019est qu\u2019il vous recommande des LLM int\u00e9ressants sur l\u2019\u00e9cran principal. Aussi, si vous n\u2019avez aucune id\u00e9e, vous pouvez choisir dans cette liste.<\/p>\n<p>Vous trouverez des LLMs de toutes tailles, complexit\u00e9s, sources de donn\u00e9es, objectifs et vitesses. N\u2019h\u00e9sitez pas \u00e0 fouiller sur le web pour conna\u00eetre les sp\u00e9cificit\u00e9s de chacun. Les LLM peuvent peser plusieurs Go.<\/p>\n<p>Si vous voyez un LLM qui vous int\u00e9resse sur l\u2019\u00e9cran d\u2019accueil, cliquez sur T\u00e9l\u00e9charger. Autrement, il faut effectuer une recherche ou coller une URL dans la zone de texte en haut. Vous pourrez voir la taille de chaque LLM et la date de derni\u00e8re mise \u00e0 jour. Vous pouvez aussi filtrer les r\u00e9sultats pour visualiser les plus t\u00e9l\u00e9charg\u00e9s.<\/p>\n<p>Vous pouvez installer autant de LLM que votre machine le permet, mais s\u2019il y en a au moins un sur votre syst\u00e8me, il appara\u00eetra dans le panneau Mes mod\u00e8les (cliquez sur l\u2019ic\u00f4ne en forme de dossier sur la gauche pour y acc\u00e9der). De l\u00e0, vous pourrez voir les informations de chaque mod\u00e8le install\u00e9, v\u00e9rifier les mises \u00e0 jour et supprimer des mod\u00e8les.<\/p>\n<p>Pour commencer \u00e0 g\u00e9n\u00e9rer du texte, ouvrez le panneau de chat via l\u2019ic\u00f4ne en forme de bulle de dialogue sur la gauche. Choisissez le mod\u00e8le \u00e0 utiliser en haut et saisissez votre prompt dans la bo\u00eete de texte en bas. Appuyez sur Entr\u00e9e. La sortie appara\u00eetra de mani\u00e8re tr\u00e8s similaire aux autres LLMs.<\/p>\n<p>Sur la droite, vous pouvez contr\u00f4ler un certain nombre de param\u00e8tres relatifs au LLM, comme la mani\u00e8re de g\u00e9rer les r\u00e9ponses longues, la d\u00e9l\u00e9gation du calcul au GPU ou la gestion du \u201cpr\u00e9-prompt\u201d, pour indiquer au LLM de toujours r\u00e9pondre dans un style ou un ton particuliers, par exemple.<\/p>\n<p>Cliquez sur le bouton New chat sur la gauche pour d\u00e9marrer une nouvelle conversation et vos anciennes discussions sont \u00e0 retrouver juste dessous, si vous avez besoin d\u2019y revenir. Lorsque la g\u00e9n\u00e9ration d\u2019une r\u00e9ponse est termin\u00e9e, vous pouvez prendre une capture d\u2019\u00e9cran, copier le texte ou g\u00e9n\u00e9rer une nouvelle r\u00e9ponse avec le m\u00eame prompt.<\/p>\n<p>Et voil\u00e0 ! Vous avez toutes les bases pour utiliser un LLM en local. LM Studio est un tr\u00e8s bon point d\u2019entr\u00e9e, tr\u00e8s simple si vous \u00eates un parfait d\u00e9butant.<\/p>\n<\/div>\n[ad_2]\n<br \/><a href=\"https:\/\/www.begeek.fr\/comment-faire-fonctionner-une-ia-generative-en-local-sur-son-ordinateur-391679\">Source link <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>[ad_1] Comment faire fonctionner une IA g\u00e9n\u00e9rative en local sur son ordinateur ? L&rsquo;op\u00e9ration est aujourd&rsquo;hui relativement simple, bien qu&rsquo;il faille avoir une machine assez performante pour pouvoir en profiter correctement. Vous avez probablement d\u00e9j\u00e0 test\u00e9 un ou plusieurs moteurs d\u2019IA g\u00e9n\u00e9rative comme ChatGPT ou Google Bard. Si populaires que soient ces outils dans le &hellip;<\/p>\n","protected":false},"author":1,"featured_media":59503,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[16,335,19,349,239],"tags":[],"class_list":["post-77425","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-high-tech","category-tie-games","category-mode","category-tech-net","category-web"],"jetpack_featured_media_url":"https:\/\/tunimedia.tn\/fr\/wp-content\/uploads\/2023\/05\/intelligence-artificielle.jpg","jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/posts\/77425","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/comments?post=77425"}],"version-history":[{"count":0,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/posts\/77425\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/media\/59503"}],"wp:attachment":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/media?parent=77425"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/categories?post=77425"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/tags?post=77425"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}