<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>PrivateLLM on .NET + Нейросети Песочница</title><link>https://lmcorner.net/ru/tags/privatellm/</link><description>Recent content in PrivateLLM on .NET + Нейросети Песочница</description><generator>Hugo -- 0.150.1</generator><language>ru-ru</language><lastBuildDate>Mon, 23 Mar 2026 23:53:44 +0100</lastBuildDate><atom:link href="https://lmcorner.net/ru/tags/privatellm/index.xml" rel="self" type="application/rss+xml"/><item><title>Локальная LLM. Глава 1</title><link>https://lmcorner.net/ru/posts/local-llm/</link><pubDate>Mon, 23 Mar 2026 23:53:44 +0100</pubDate><guid>https://lmcorner.net/ru/posts/local-llm/</guid><description>&lt;h3 id="всем-привет-"&gt;Всем привет! 🖖&lt;/h3&gt;
&lt;h3 id="краткий-обзор"&gt;Краткий обзор&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Инструмент:&lt;/strong&gt; llama.cpp&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;ОС&lt;/strong&gt;: Windows&lt;/li&gt;
&lt;/ul&gt;
&lt;pre tabindex="0"&gt;&lt;code&gt;1. [Hugging Face Models](https://huggingface.co/models)
2. App: llama.cpp
3. Model: SmolVLM-500M-Instruct-GGUF
4. Win + R -&amp;gt; winget install llama.cpp
5. CMD -&amp;gt; llama-cli -hf ggml-org/SmolVLM-500M-Instruct-GGUF:Q8_0
/// Удаление
1. winget list llama.cpp
2. winget uninstall --id ggml.llamacpp
&lt;/code&gt;&lt;/pre&gt;&lt;h2 id="развертывание-в-деталях"&gt;Развертывание в деталях&lt;/h2&gt;
&lt;h3 id="быстрый-способ-запустить-llamacpp-на-windows"&gt;Быстрый способ запустить llama.cpp на Windows&lt;/h3&gt;
&lt;ol&gt;
&lt;li&gt;Переходим на &lt;a href="https://huggingface.co/models"&gt;Hugging Face Models&lt;/a&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;App:&lt;/strong&gt; llama.cpp&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Model:&lt;/strong&gt; SmolVLM-500M-Instruct-GGUF
&lt;img alt="Hugging Face Model Select" loading="lazy" src="https://lmcorner.net/ru/posts/local-llm/hf-1.png"&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Нажимаем &amp;ldquo;Use this model&amp;rdquo; -&amp;gt; &amp;ldquo;llama.cpp&amp;rdquo;&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;В открывшемся окне появятся инструкции по установке llama.cpp и команда для запуска выбранной модели.
&lt;img alt="Hugging Face Model App Select" loading="lazy" src="https://lmcorner.net/ru/posts/local-llm/hf-2.png"&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;ol start="3"&gt;
&lt;li&gt;Используем WinGet для установки и запуска:&lt;/li&gt;
&lt;/ol&gt;
&lt;pre tabindex="0"&gt;&lt;code&gt;# Нажимаем Win + R и вводим powershell (или используем Терминал)
# 1. Устанавливаем llama.cpp через менеджер пакетов Windows
winget install llama.cpp
# 2. Скачиваем и запускаем модель прямо из Hugging Face в консоли
llama-cli -hf ggml-org/SmolVLM-500M-Instruct-GGUF:Q8_0
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;&lt;img alt="alt text" loading="lazy" src="https://lmcorner.net/ru/posts/local-llm/hf-3.png"&gt;&lt;/p&gt;</description></item></channel></rss>