Запускаем свой локальный сервер с ИИ-моделью

В этом видео показываем, как установить LM Studio, загрузить языковую модель и запустить собственный сервер на своём компьютере. А затем — подключиться к нему через OpenCode и убедиться, что всё работает.

Что такое LM Studio

LM Studio — бесплатное приложение для запуска языковых моделей локально. Вы скачиваете модель, запускаете сервер — и получаете OpenAI-совместимый API прямо на своём компьютере. Никакие данные не уходят на внешние серверы.

В начале ролика также коротко рассказываем про альтернативу — Ollama. Выбор остаётся за пользователем.

Скачать LM Studio: https://lmstudio.ai/

Модель, используемая в видео: https://huggingface.co/unsloth/Qwen3.6-35B-A3B-GGUF

Смотреть видео

Файл настроек OpenCode

Для подключения OpenCode к локальному серверу LM Studio используется файл конфигурации opencode.json.

Скачайте файл и поместите его в корневую папку вашего проекта.

📥 Скачать:

Проверка запуска сервера

После запуска сервера в LM Studio убедитесь, что он работает. Откройте в браузере:

http://localhost:1234/v1/models

Если сервер запущен, вы увидите JSON-ответ со списком доступных моделей.

Предыдущие видео серии

Тема

YouTube

RuTube

Первый взгляд и настройка рабочего места

Смотреть

Смотреть

Создаём индикатор и стратегию с помощью ИИ

Смотреть

Смотреть

Создаём скрипт с нуля при помощи GPT

Смотреть

Смотреть

Как организовать «рабочее место» для AI-агента

Смотреть

Смотреть