Скрипт автоустановки llama.cpp на ubuntu <code> !/usr/bin/env bash set -euo pipefail Настройки по умолчанию INSTALL_DIR=»$HOME/llama.cpp» # Куда клонировать репозиторийBRANCH=»master» # Ветка репозиторияBACKEND=»cpu» # cpu | cuda Небольшая модель для теста (быстро докачать и запустить) HF_MODEL_DEFAULT=»ggml-org/gemma-3-270m-it-GGUF»HF_MODEL=»$HF_MODEL_DEFAULT» RUN_TEST=1 # 1 = запускать тест, 0 = нетTEST_PROMPT=»Ты локальная LLM. Одним коротким предложением расскажи, что ты умеешь.» # usage()…