Почему LLM — не магия, а инженерия

Большие языковые модели умеют учиться на считанных примерах, писать код, стихи и даже считать. Но те же свойства, что делают их мощными, усложняют вывод в прод.
В Replit используют модели разных масштабов: ~100M параметров — для поиска и антиспама, 1–10B — для GhostWriter (автодополнение кода), 100B+ — для задач с более сложным рассуждением. Опыт команды показывает: главная головная боль — не размер модели, а её «внушаемость».
С LLM взаимодействуют через промпты: подаёшь текст — получаешь ответ. Проблема в том, что на бессмыслицу модель отвечает бессмыслицей. Garbage in, garbage out. Плюс модели склонны зацикливаться и повторять одно и то же, особенно в сценариях, которых не было в обучающих данных.
Для разработчиков и инди-хакеров это значит: качество промптов и контекста напрямую влияет на результат. Чётко формулируй задачу и проверяй граничные случаи — иначе «магия» превратится в баг.