LLM-OS-Models/gemma-4-E4B-it-Terminal-SFT-Native-Liquid-2Epoch

터미널 작업 자동화를 위한 Terminal SFT 모델입니다. 입력된 작업/이전 터미널 상태를 보고 다음에 실행할 명령을 JSON 형태로 생성하는 용도로 학습했습니다.

모델 요약

  • Base model: google/gemma-4-E4B-it
  • Training setup: 2 epochs, Gemma native Liquid preprocessing
  • Evaluation snapshot: 2026-05-12 22:58:57 UTC
  • Evaluation result id: gemma4_e4b_it_native_e2

Quickstart

설치와 로그인:

pip install -U vllm transformers huggingface_hub
huggingface-cli login

관련 코드:

  • GitHub: https://github.com/LLM-OS-Models/Terminal
  • vLLM 평가 실행: tb2_lite/scripts/replay_eval.py
  • chat template/fallback 생성: tb2_lite/scripts/prompt_builder.py
  • JSON/command 채점: tb2_lite/scripts/replay_metrics.py

vLLM 직접 실행 예시. 평가 코드와 동일하게 chat template을 우선 사용하고, template이 없으면 ChatML/Gemma fallback을 사용합니다.

from transformers import AutoTokenizer
from vllm import LLM, SamplingParams

model_id = "LLM-OS-Models/gemma-4-E4B-it-Terminal-SFT-Native-Liquid-2Epoch"
tp = 1

tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
llm = LLM(
    model=model_id,
    tokenizer=model_id,
    trust_remote_code=True,
    dtype="bfloat16",
    tensor_parallel_size=tp,
    max_model_len=49152,
    gpu_memory_utilization=0.92,
)

messages = [
    {"role": "system", "content": "You are a terminal automation assistant. Return JSON only."},
    {"role": "user", "content": "Inspect the current directory and list Python files."},
]

def render_chatml(messages):
    parts = []
    for message in messages:
        role = "assistant" if message["role"] == "assistant" else message["role"]
        if role == "tool":
            role = "user"
        parts.append(f"<|im_start|>{role}\n{message['content']}<|im_end|>\n")
    parts.append("<|im_start|>assistant\n")
    return "".join(parts)

def render_gemma4_turn(messages, empty_thought_channel=False):
    parts = ["<bos>"]
    for message in messages:
        role = "model" if message["role"] == "assistant" else message["role"]
        if role == "tool":
            role = "user"
        parts.append(f"<|turn>{role}\n{message['content'].strip()}<turn|>\n")
    parts.append("<|turn>model\n")
    if empty_thought_channel:
        parts.append("<|channel>thought\n<channel|>")
    return "".join(parts)

def render_prompt(model_id, tokenizer, messages):
    model_key = model_id.lower()
    if "gemma-4" in model_key:
        try:
            return tokenizer.apply_chat_template(
                messages,
                tokenize=False,
                add_generation_prompt=True,
                enable_thinking=False,
            )
        except Exception:
            return render_gemma4_turn(
                messages,
                empty_thought_channel=("26b" in model_key or "31b" in model_key),
            )
    try:
        return tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
    except Exception:
        return render_chatml(messages)

prompt = render_prompt(model_id, tokenizer, messages)
sampling = SamplingParams(
    temperature=0.0,
    top_p=1.0,
    max_tokens=1024,
    repetition_penalty=1.0,
)
outputs = llm.generate([prompt], sampling_params=sampling)
print(outputs[0].outputs[0].text)

권장 출력 형식:

{
  "analysis": "brief reasoning about the next terminal action",
  "plan": "short execution plan",
  "commands": [
    {"keystrokes": "ls -la\n", "duration": 0.1}
  ],
  "task_complete": false
}

평가와 동일한 replay 명령:

python tb2_lite/scripts/replay_eval.py \
  --model LLM-OS-Models/gemma-4-E4B-it-Terminal-SFT-Native-Liquid-2Epoch \
  --model-short gemma4_e4b_it_native_e2 \
  --eval-path tb2_lite/data/replay_full.jsonl \
  --output-dir /home/work/.data/tb2_lite_eval/corrected_readme_models_vllm \
  --dtype bfloat16 \
  --tp 1 \
  --max-model-len 49152 \
  --max-tokens 1024 \
  --temperature 0.0 \
  --top-p 1.0 \
  --gpu-memory-utilization 0.92 \
  --thinking-mode off \
  --strip-thinking-history auto \
  --gemma4-empty-thought-channel auto \
  --language-model-only
  • 기본 권장 tensor parallel: 1. OOM이면 --tptensor_parallel_size를 2/4/8로 올리세요.
  • corrected TB2-lite 평가는 temperature=0.0, top_p=1.0, max_tokens=1024로 고정했습니다.
  • Gemma 4는 JSON 출력을 위해 enable_thinking=False를 사용하고, 26B/31B 계열은 평가 코드에서 empty thought channel 처리를 자동 적용합니다.

평가 결과

평가는 corrected TB2-lite replay set에서 vLLM으로 수행했습니다. 순위 점수는 100 * avg_command_f1만 사용하고, first_cmd_exact_pct는 보조 지표로만 봅니다.

  • Rank: 1 / 8
  • Score: 34.98
  • Command F1: 0.3498
  • Command precision: 0.4737
  • Command recall: 0.3576
  • First command exact: 30.4%
  • Valid JSON: 35.0%
  • Steps / tasks: 303 / 50
  • Sec/step: 0.277
  • Load time: 53.2s
  • Template status: model_specific_or_mixed
  • Rank eligible: True
  • Eval timestamp: 2026-05-09T19:31:44.722674
  • 현재 집계된 평가 결과 수: 8

Prompt/template audit:

{
  "template_status": "model_specific_or_mixed",
  "rank_eligible": true,
  "steps": 303,
  "tasks": 50
}

장점

  • 중상위권 점수로, 기본적인 터미널 next-action imitation은 비교적 안정적입니다.
  • 잘못된 명령을 많이 내기보다 보수적으로 맞는 명령을 내는 경향이 있습니다.

모델군 해석

  • 이 repo는 Gemma 4 전용 chat template, thinking history 제거, assistant JSON-only target, base 모델 template 주입 정책으로 다시 학습한 native Liquid 결과입니다.
  • 기존 Gemma SFT의 낮은 점수는 template/target 포맷 충돌과 일부 checkpoint/export 문제를 포함했으므로, 이 native 결과를 새 기준으로 봐야 합니다.
  • 속도는 0.277 sec/step 수준으로 빠른 편입니다.
  • RL 후보성: native 재평가에서도 이 수준 이상이면 Gemma 후보 1개를 추가할 만합니다.

한계와 주의사항

  • recall이 상대적으로 낮아 필요한 명령 일부를 빠뜨릴 수 있습니다.
  • JSON 형식 실패가 있어 실행 전에 파싱 검증/재시도가 필요합니다.
  • Gemma 계열은 학습/평가 chat template 불일치에 민감하므로 vLLM chat_template 경로로만 비교해야 합니다.
  • 이 모델은 자동 터미널 조작 보조용 SFT 모델이며, 일반 대화/범용 추론 성능을 보장하지 않습니다.
  • 생성 명령은 실제 실행 전에 sandbox, allowlist, human review 같은 안전장치를 거쳐야 합니다.

해석 메모

TB2-lite 점수는 일반 지능 벤치마크가 아니라 터미널 next-action JSON 재현 능력을 측정합니다. 따라서 모델 크기, chat template 일치, assistant-only masking, tokenizer, 학습 데이터 holdout 여부가 모두 점수에 영향을 줍니다.

README.md와 MODEL_EVALUATION_REPORT.md의 값이 더 최신이면 해당 값을 우선 확인하세요. 이 모델카드는 완료된 평가 JSON을 기준으로 개별 저장소에 빠르게 반영한 스냅샷입니다.

Downloads last month
1,108
Safetensors
Model size
8B params
Tensor type
F32
·
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for LLM-OS-Models/gemma-4-E4B-it-Terminal-SFT-Native-Liquid-2Epoch

Finetuned
(165)
this model