Содержание статьи
- Софт для локальных LLM
- LM Studio: начало
- Для чего вообще нужны локальные LLM?
- Сценарии использования
- Кодинг
- Писательство и соавторство
- Интерактивная литература и ролевые игры
- Общение с книгой и работа с документами
- Общение с умным собеседником на любые темы
- «Ломаем» ограничения
- Способ 1: джейлбрейк
- Способ 2: редактирование ответа от LLM
- Способ 3: аблитерация
- Способ 4: модели без цензуры — uncensored и nsfw
- Что такое slop и unslop?
- Насколько «умны» локальные LLM?
- Где брать модели? И какие именно стоит качать?
- Какие бывают базовые модели
- Заключение
Локальная генерация текстов одновременно и проще, и сложнее, чем создание картинок. Проще потому, что локальную LLM можно запустить буквально в два клика, если знаешь, куда жать. Без установки драйверов, веселого квеста с Python-окружением и шаманства с расширятелями и улучшателями.
Но самое интересное начинается дальше, особенно если ты еще не знаешь, зачем вообще генерировать тексты. Что ты будешь с ними делать? Картинкой хотя бы можно поделиться в соцсети, а сгенерированным текстом? И еще один серьезный вопрос: какую модель выбрать, чтобы она поместилась в видеопамять и не превратила твой компьютер в грелку для кота?
Впрочем, до выбора модели надо еще дожить. Давай сначала запустим хотя бы что‑то, что будет работать и выдавать результат, а потом будем добиваться его улучшения.
Софт для локальных LLM
В самой первой статье о генеративных ИИ я писал о простейшем приложении для локальной генерации — Fooocus. Его можно скачать, запустить, придумать промпт и нажать на кнопку — и вполне приличная картинка получалась без каких‑то дополнительных телодвижений. Да, по мере накопления опыта ограничения начинают напрягать, и в результате пользователь уходит на WebUI, Forge, SwarmUI или Comfy — далеко не такие дружелюбные, но очень мощные инструменты.
В мире локальных LLM есть свой «Фукус». Его роль выполняет программа LM Studio — бесплатная, но без исходников. Однако, в отличие от Fooocus, в LM Studio не так чтобы много ограничений; пользователи сидят в нем годами, не испытывая насущной потребности в чем‑то помощнее. Тем не менее я перечислю основные проекты для локальной генерации текстов.
- LM Studio (ты находишься здесь) — нативное кросс‑платформенное приложение с инсталлятором, не использует Python и не имеет ни внешних зависимостей, ни возможности установки расширений. Поддерживает GGUF — самый распространенный на Hugging Face формат моделей.
- Jan AI — тоже мультиплатформенное приложение с установщиком — и открытым исходным кодом с регулярными обновлениями. Вероятно, его разработчики вдохновились интерфейсом LM Studio: внешне Jan максимально похож. Здесь нет некоторых приятных фишек LM Studio (например, поиска и скачивания моделей напрямую из Hugging Face), зато — полная открытость.
- AnythingLLM — снова многоплатформенность, снова установщик, открытый исходный код... Клон LM Studio? Вовсе нет: AnythingLLM — мощный инструмент, предназначенный в первую очередь для работы. Здесь серьезная поддержка RAG (работа с документами, когда ИИ отвечает на запросы, основываясь на данных из добавленных тобой файлов, а не на собственных фантазиях) и мощная поддержка разнообразных агентов — фактически программируемых инструментов для взаимодействия модели с внешним миром. Очень мощный продукт, но для начинающих — сложноват и избыточен.
- GPT4All — еще один многоплатформенный проект с установщиком. Пожалуй, даже проще в использовании, чем LM Studio, но не обладает многими полезными возможностями. Имитирует интерфейс ChatGPT, обновления бывают, но нечасто.
- SillyTavern — если твоя цель — текстовые квесты и ролевые игры с детально проработанными персонажами и сквозным сюжетом, то ничего лучше SillyTavern пока не придумали. Карточки персонажей и оригинальные готовые сюжеты (например, путешествие по классическим книгам или сценарий, в котором ты всего лишь голос в голове у ИИ‑персонажа, который будет с тобой спорить и делать наперекор) — в широчайшем ассортименте. Вообще говоря, ролевые игры с LLM — развлечение весьма популярное; об этом свидетельствуют более 700 тысяч карточек персонажей и сценариев на сайте JannyAI. С установкой и настройкой придется повозиться: SillyTavern — всего лишь фронтенд, который работает через локальный API с другим софтом. В то же время некое подобие можно реализовать и в LM Studio — например, через системный запрос или прицепленный к чату файл.
- Oobabooga, или oobabooga text generation WebUI, сознательно создавался как своеобразный A1111, только для текстов. Работа через браузер, масса настроек, привычные игры с Python, окружением и зависимостями.
- Open WebUI — еще один вариант WebUI, с поддержкой разных движков, расширений и API. Штука мощная, но для первого раза — сложноватая.
- Ollama — хардкор, только хардкор. Ollama — классика в мире локальных LLM. Работает через терминал, предоставляет локальный API — чем, собственно, и пользуются многочисленные программы‑надстройки вроде SillyTavern или Open WebUI. Впрочем, есть немало любителей початиться с ИИ прямо в окне терминала.
LM Studio: начало
Итак, обозрев возможные варианты, остановимся на LM Studio — на нем мы и будем потом тестировать разные модели и фишки.
С установкой все просто. Для начала убедись, что у тебя на системном диске есть хотя бы 3 Гбайт свободного места: независимо от пути установки самого приложения, в папку c:\
будут автоматически скачаны необходимые для работы фреймворки.
Затем с сайта lmstudio.ai скачай установщик, запусти — и вскоре на твоем компьютере появится ярлык LM Studio.

Прежде чем приступить к выбору и скачиванию моделей, рекомендую обратить внимание на две настройки. Во‑первых, возможно, тебе имеет смысл отключить использование встроенного прокси‑сервера (он включен по умолчанию, а нужен, по сути, лишь в ситуациях, когда сайт Hugging Face с твоего компьютера напрямую недоступен; открыть настройки можно кликом на иконку в правом нижнем углу интерфейса или комбинацией клавиш Ctrl-,.

Продолжение доступно только участникам
Материалы из последних выпусков становятся доступны по отдельности только через два месяца после публикации. Чтобы продолжить чтение, необходимо стать участником сообщества «Xakep.ru».
Присоединяйся к сообществу «Xakep.ru»!
Членство в сообществе в течение указанного срока откроет тебе доступ ко ВСЕМ материалам «Хакера», позволит скачивать выпуски в PDF, отключит рекламу на сайте и увеличит личную накопительную скидку! Подробнее