📊 LoRAファインチューニングフロー

1. データセット準備
日本語QAデータをGemma-3形式に変換
2. モデルロード
Gemma-3-1b-itをHugging Face Hubから取得
3. LoRA設定
r=16, alpha=32, target_modulesを指定
4. 学習パラメータ設定
learning_rate=3e-4, batch_size=8
5. 学習実行
20エポック学習、損失を監視
6. モデル保存
LoRAのみとマージ版の両方を保存
7. 推論テスト
日本語QAで精度を確認
ボタンを押してフローを開始