Jupetar: 24 ГБ локальных весов и офлайн-пайплайн 2D→3D на десктопе

На dev.to автор raseiri (Odyssey Game Studios) описывает десктопное приложение Jupetar как полностью офлайн-пайплайн генерации 3D на базе ИИ. В посте фигурирует папка моделей порядка 24 ГБ с весами Hunyuan DiT (геометрия) и Paint VAE (текстуры); демонстрационная сборка вынесена в Steam. Для разработчика это способ держать тяжёлый AI 3D-generation pipeline на своей машине — без обязательного облака и подписок.
Дата публикации записи на dev.to: 2 апреля 2026 (по метаданным страницы).
Локальный ИИ вместо облака: почему автор ставит на офлайн
В начале материала автор обращается к типичной боли инди: генерация 3D-ассетов отнимает время и ресурсы. Дальше — критика дорогих SaaS, API paywalls и облачных платформ с претензией на владение сгенерированными мешами; всё это изложено как позиция автора на странице (в том числе во вступлении после обрыва, который даёт краткий анонс на dev.to).
Jupetar позиционируется как офлайн-пайплайн 2D→3D на локальном GPU — альтернатива облачным AI 3D-сервисам с подпиской. Речь не о абстрактном «рендере», а о связке нейросетевых моделей, рантайма и доставки результата в .glb под игровые движки.
«No-Ping»: как режут внешние запросы Hugging Face и скриптов
Ключевая инженерная цель в посте названа «No-Ping» — не дать скриптам постоянно ходить «наружу». Автор описывает отключение автопроверок huggingface_hub и принудительные офлайн-переменные окружения (в статье они приведены как присваивания в os.environ):
os.environ["HF_HUB_OFFLINE"] = "1"
os.environ["TRANSFORMERS_OFFLINE"] = "1"
os.environ["DIFFUSERS_OFFLINE"] = "1"
В связке с этим упоминаются PyTorch, экосистема Hugging Face, библиотеки Diffusers и Transformers — привычный стек локального inference в Python, упакованный в десктопный продукт с упором на автономность.
Стек на уровне заявленного в посте: C# для UI, телеметрии железа и оркестрации, запуск Python-среды и самого пайплайна.
От сырого меша до .glb: этапы ИИ-конвейера в одном приложении
Автор перечисляет цепочку стадий (формулировки и порядок — по тексту поста):
- Geometry: сырой меш через Hunyuan3D.
- Optimization: адаптивный FaceReducer с целевыми полигонажами — порядка ~25k для оружия и ~80k для гуманоидов (числа из статьи, не независимый бенчмарк).
- UV: XAtlas для развёртки.
- Текстуры и PBR: 4K tiled upscaler «с бережным» использованием VRAM; процедурная PBR normal map через производные Sobel (как описывает автор).
- Export: упаковка в .glb для Unity, Unreal или Godot.
Так читатель видит не «магию ИИ», а конкретный конвейер моделей и постобработки — его можно сопоставить с задачами контент-продакшена в инди на базе генеративных моделей.
VRAM, OOM и C#-оркестратор: удержать тяжёлые модели на одной карте
В посте указан ориентир по памяти: целевой диапазон VRAM 8–12 ГБ, базовая конфигурация RTX 3080 10 ГБ. Автор описывает меры против фрагментации VRAM и OOM при совместной загрузке тяжёлых компонентов, в том числе expandable segments в PyTorch на фазе апскейла текстур до 4K.
Отдельно фигурирует C#-оркестратор, который, по описанию, сбрасывает VRAM между стадиями пайплайна. Это зона инструментов разработчика: как ведёт себя связка Python + PyTorch под управлением нативной оболочки, когда в игру вступают большие веса и несколько проходов генерации.
Демо в Steam и проверка: генерация .glb без сети
Автор пишет, что демо вынесено в Steam после прохождения очереди ревью платформы. В приложении описана локальная trial-логика: две бесплатные генерации, чтобы прогнать ИИ-пайплайн на локальном GPU и проверить VRAM без облачной обработки, карты и создания аккаунта — формулировки из поста. Ссылка в материале ведёт на страницу приложения в каталоге Steam (идентификатор 4346660 в URL, как у автора).
Как иллюстрацию автономности автор приводит проверку: отключить Ethernet, загрузить концепт-арт в UI — и генерация полностью текстурированного .glb всё равно выполняется (в посте это названо в духе «ultimate proof»).
Независимые замеры качества мешей, скорости, точного размера дистрибутива на диске и лицензионные детали весов в тексте поста не приведены как проверяемые данные — их нельзя подменять оценочными утверждениями.
Источники
- Raseiri — «We crammed a 24GB AI 3D-generation pipeline into a completely offline desktop app (and the Demo is live)», dev.to: https://dev.to/raseiri/we-crammed-a-24gb-ai-3d-generation-pipeline-into-a-completely-offline-desktop-app-and-the-demo-is-12i5 — дата обращения: 2026-04-04 (UTC). Пересказ технических деталей (Steam, стек, переменные окружения, этапы пайплайна) — по тексту этой публикации. Дата и время публикации для этой записи в доступных метаданных: 2026-04-02T07:39:26Z; автор: raseiri.