AWAXIS-Think-27b

FINAL-Bench/Darwin-27B-Opus 기반, 한국어 특화 고품질 SFT를 수행한 추론 모델입니다.

Method

  • Base Model: Darwin-27B-Opus (Qwen3.5-27B family)
  • Korean SFT: 한국어 문화, 역사, 법률, 경제, 사회, 지리 등 한국 특화 지식 중심의 고품질 instruction 데이터로 Supervised Fine-Tuning 수행
  • Thinking Mode: <think> 태그를 통한 Chain-of-Thought 단계적 추론 지원

Benchmark

Benchmark Score
CLIcK (Korean Cultural & Linguistic Knowledge) 81.0%
KMMLU-Pro (Korean MMLU Professional) 74.0%

Model Specifications

Property Value
Architecture Qwen3.5 Hybrid (GatedDeltaNet + Attention, 64 layers)
Parameters ~27B
Hidden Size 5120
Intermediate Size 16384
Context Length 262,144 tokens
Precision BF16
Vocab Size 248,320
Thinking Supported (<think> tags)
License Apache 2.0

Usage

Requirements: transformers >= 4.57.0

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model = AutoModelForCausalLM.from_pretrained(
    "Anserwise/AWAXIS-Think-27b",
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("Anserwise/AWAXIS-Think-27b")

messages = [{"role": "user", "content": "조선시대의 과거제도에 대해 설명해주세요."}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=1024, do_sample=False)
print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:], skip_special_tokens=True))

vLLM

vllm serve Anserwise/AWAXIS-Think-27b \
    --enforce-eager \
    --max-model-len 32768 \
    --dtype bfloat16

Features

  • Darwin-27B-Opus의 강력한 추론 능력 계승
  • 한국어 문화, 역사, 법률, 경제, 사회 등 한국 특화 지식 강화
  • Thinking mode를 통한 단계적 사고 추론
  • 다국어 지원 (한국어, 영어, 일본어, 중국어)
  • 262K 컨텍스트 길이 지원

Training

Item Details
Base Model FINAL-Bench/Darwin-27B-Opus
Method Korean-specialized Supervised Fine-Tuning
Data 한국어 문화·지식 중심 고품질 instruction 데이터
Developer Anserwise

Acknowledgements

Downloads last month
-
Safetensors
Model size
27B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Anserwise/AWAXIS-Think-27b