Конструктор нейроофисов — система для создания и управления AI-агентами с собственными ролями, системными промптами и базами знаний. NeuroOffice Builder - конструктор AI-агентов с ролями, RAG и индексацией папок. Поддержка PDF, DOCX, XLSX, локальные LLM.
NeuroOffice Builder позволяет:
- Подключать локальные и облачные LLM (Ollama, LM Studio, Cohere Aya, OpenAI, Anthropic)
- Создавать AI-агентов с ролями (Юрист, Советник, Секретарь и др.)
- Загружать базы знаний (документы, файлы, URL)
- Индексировать целые папки с документами (PDF, DOCX, XLSX)
- Запускать агентов через Web UI
- Наблюдать за работой AI в реальном времени (мониторинг)
- Вести непрерывный чат с сохранением истории
- 🎨 Telegram Mini Apps Style — тёмная тема с зелёными акцентами
- 📂 Индексация папок — автоматическое сканирование директорий с документами
- 📄 Поддержка форматов — PDF, DOCX, XLSX, TXT, MD, CSV
- 🔍 Быстрый поиск — Fuse.js для мгновенного поиска по документам
- 💾 История чата — сохранение диалогов между сессиями
- 🔗 Оркестрация — автоматическая маршрутизация между ролями
- 📚 Цитаты — показ источников в ответах
┌─────────────────────┐ ┌─────────────────────┐
│ Frontend (Vite) │────│ Backend (Express) │
│ http://localhost │ │ http://localhost │
│ :5173 │ │ :3001 │
└─────────────────────┘ └─────────────────────┘
│ │
│ │
▼ ▼
localStorage LLM (Ollama/
(данные UI) LM Studio)
-
Frontend (React + Vite)
- UI в стиле Telegram Mini Apps
- Три вкладки: LLM → Роли → Запуск
- Автосохранение в localStorage
-
Backend (Express.js)
- API для LLM (Ollama, LM Studio, Cohere, OpenAI, Anthropic)
- RAG (поиск по документам через Fuse.js)
- JSON-файлы для данных
-
LLM
- Локальные: Ollama (:11434), LM Studio (:1234), Cohere Aya (:1234)
- Облачные: OpenAI, Anthropic, Google Gemini
# Клонирование репозитория
git clone https://github.com/your-repo/neuro-office-builder.git
cd neuro-office-builder
# Установка зависимостей
npm install
cd backend && npm install
cd ..
# Запуск
npm run dev # Фронтенд на :5173
cd backend && npm start # Бэкенд на :3001Требования:
- Node.js 18+
- Запущенная LLM (Ollama/LM Studio/Cohere)
- Добавить подключение к LLM
- Пресет: "Aya Expanse 8B" (локальная модель на :1234)
- Создать роль (например "Юрист")
- Выбрать LLM
- Написать системный промпт или загрузить из файла
- Добавить базы знаний (файлы .md/.txt или URL)
- Использовать Индексацию папки для массовой загрузки документов
- Использовать Быстрый поиск для проверки содержимого
- Выбрать роль из списка
- Нажать "Запустить и наблюдать"
- Ввести вопрос в чате
- Смотреть мониторинг AI в реальном времени
- Видеть источники (цитаты) в ответах
| Endpoint | Метод | Описание |
|---|---|---|
/api/llms |
GET/POST | Управление LLM |
/api/roles |
GET/POST/PUT/DELETE | Управление ролями |
/api/knowledge-bases |
GET/POST/DELETE | Управление базами знаний |
/api/chat |
POST | Отправка сообщения агенту |
/api/rag/search |
POST | Поиск по документам |
/api/search/files |
POST | Быстрый поиск по файлам |
/api/folders/scan |
POST | Сканирование папки |
/api/folders/import |
POST | Импорт файлов из папки |
neuro-office-builder/
├── backend/
│ ├── server.js # Express API + RAG
│ ├── package.json
│ └── data/ # JSON-файлы данных
│ ├── llms.json
│ ├── roles.json
│ ├── knowledge-bases.json
│ └── conversation-history.json
├── src/renderer/
│ └── App.tsx # React UI
├── package.json
├── SPEC.md # Спецификация
└── README.md # Этот файл
| Функция | Реализация |
|---|---|
| Подключение LLM | Ollama, LM Studio, Cohere, OpenAI, Anthropic |
| Системные промпты | Загрузка из файлов .md/.txt |
| Базы знаний | Загрузка файлов, URL, RAG-поиск |
| Индексация папок | PDF, DOCX, XLSX, TXT, MD, CSV |
| Мониторинг | Real-time отображение работы агентов |
| История чата | Сохранение между сессиями |
| Оркестрация | Автоматическая маршрутизация между ролями |
| Цитаты | Показ источников документов |
MIT License
Танши (Vuntai)
- Email: fiolentashram@gmail.com
- GitHub: andreipromarketing-dev
- ✅ Добавлена поддержка файлов PDF, DOCX, XLSX
- ✅ Добавлена индексация папок
- ✅ Добавлен быстрый поиск по файлам
- ✅ Добавлены цитаты (источники в ответах)
- ✅ Сохранение истории чата на диск
- ✅ Исправлена оркестрация (советник/юрист/секретарь)
- ✅ Исправлена проблема с hanging при вызове LM Studio
- ✅ Создан базовый UI с тремя вкладками
- ✅ Добавлен бэкенд с Express + RAG
- ✅ Интеграция с LM Studio (порт 1234)
- ✅ Автосохранение в localStorage
- ✅ Мониторинг AI в реальном времени
- ✅ Ручная синхронизация с бэкендом
- ✅ Оркестрация ролей (базовая)