1. データセット準備
日本語QAデータをGemma-3形式に変換
↓
2. モデルロード
Gemma-3-1b-itをHugging Face Hubから取得
↓
3. LoRA設定
r=16, alpha=32, target_modulesを指定
↓
4. 学習パラメータ設定
learning_rate=3e-4, batch_size=8
↓
5. 学習実行
20エポック学習、損失を監視
↓
6. モデル保存
LoRAのみとマージ版の両方を保存
↓
7. 推論テスト
日本語QAで精度を確認