Запускаем свой локальный сервер с ИИ-моделью
В этом видео показываем, как установить LM Studio, загрузить языковую модель и запустить собственный сервер на своём компьютере. А затем — подключиться к нему через OpenCode и убедиться, что всё работает.
Что такое LM Studio
LM Studio — бесплатное приложение для запуска языковых моделей локально. Вы скачиваете модель, запускаете сервер — и получаете OpenAI-совместимый API прямо на своём компьютере. Никакие данные не уходят на внешние серверы.
В начале ролика также коротко рассказываем про альтернативу — Ollama. Выбор остаётся за пользователем.
Скачать LM Studio: https://lmstudio.ai/
Модель, используемая в видео: https://huggingface.co/unsloth/Qwen3.6-35B-A3B-GGUF
Смотреть видео
YouTube: https://youtu.be/clVUwwN1oVs
RuTube: https://rutube.ru/video/03b5f0dac527e63c4eaa09456b69f731/
Файл настроек OpenCode
Для подключения OpenCode к локальному серверу LM Studio используется файл конфигурации opencode.json.
Скачайте файл и поместите его в корневую папку вашего проекта.
📥 Скачать:
Проверка запуска сервера
После запуска сервера в LM Studio убедитесь, что он работает. Откройте в браузере:
http://localhost:1234/v1/models
Если сервер запущен, вы увидите JSON-ответ со списком доступных моделей.