メインコンテンツまでスキップ
もみじーな
個人開発者
すべての著者を見る

Qwen3.5 Small(0.8b,2b,4b,9b)の画像認識テスト(内容を訂正しました)

· 約2分
もみじーな
個人開発者

※3月4日にかなり修正してます


帰ってきて適当に作ってデバッグログみない自分が悪いのですが昨日作成した分は補助モードに勝手に入っており綺麗にできていただけでした。

補助モードを実装した理由は生成失敗によるミスをなくすためでしたがそれが悪さをしてましたね・・・

補助モードを削除したうえでOpenCVで画像加工処理するように変更しました。

結局,2Bが一番組み込むならいいです。

Thinkingもなんとかきれました。
9Bでも爆速です。

もうしばらくは満足です。

昨日(3月3日)までの分↓
動画はあれみて4bすごいと思われないように限定公開にしました。

小さくて画像認識精度が高いモデルを日頃さがしてるのですがQwen3.5 4Bはかなりよかったです。

テトリス作って画像認識操作テストした動画です。
Qwen3-VL-4Bから2Bまでは処理できてませんがQwen3.5 4Bから圧倒的です。
もちろん画像認識精度だけの問題ではないですが性能がここまであがるとこれからが楽しみです。
ロボットとかドローンとかに組み込めば面白そう?

このクラスが2Bにおさえられたら夢が広がりますがとりあえずQwen3.5 4Bでここまで動くならよさそうです。

ホールド機能つけてないので配置がおかしいところがありますが私がテトリスやるより早いですたぶん・・・・

NZXT H5 Flowを買ったから年内PCを組む

· 約1分
もみじーな
個人開発者

NZXT H5 Flow NieR SQUARE ENIX 15th Anniversary Editionを結局、買いましたね。

売り切れてたらいいやと思ってたんですが昼頃にビックカメラ見たらなぜか少し安く売ってました。
Xとかでも完売みたいな話だったのでビックカメラで売っていることに誰も気づいてなかったんですかね?

昨日,Hyte Y70届いたばっかだけど来年でるだろうRTX6090用にしたいので来年組む予定です。

こいつ何個PCケース買ってるんだって話なんですがね・・・

今見たらまだ在庫あるんですが価格は正常値になってました。

時間があるときにR9700を買おうと思いますがB70の販売があるならそっち買うかもしれないですね。

所詮、AIようなのでCPUは適当に買う予定です。

DDR6でるならそっちがいいんですが現状はDDR4とかでも別に・・・

HYTE Y70 Firefly Limited Editionが届いた

· 約1分
もみじーな
個人開発者

買ったのすら忘れていましたがHYTE Y70 Firefly Limited Editionが届いてしまいました・・・

ConoHaの抽選で当たったバレンタインキーホルダーと比較してますが・・

ケースでかすぎるんよ
A4との比較

一応,割れてないか確認で開封

銀狼版もまだ所持在庫があるので暫くは組まないですがそのうちなんか組みます。

明日,2BコラボのH5 FLOW NieR 15TH ANNIVERSARY EDITIONがでるらしいので狙ってたのですがどうしよかな・・・・

2BコラボケースにRadeon AI PRO R9700でも買って組もうかと思ってたのでちょっと考え中(ケースに入るかは不明)

VPSを強制終了したらOSが壊れかけた話(教訓)

· 約2分
もみじーな
個人開発者

移行が終わって不要なVPSを終了して放置してたのですがふとあの設定どうしてたのかなと思い契約期限切れ前に起動しなおしたらVPSに接続ができませんでした。

コントロールパネルのコンソールから見てみると以下のような画面が

VPS使っててはじめてみました。

まぁ、移行は済んでいるので気持ちは楽でしたね。

リカバリーモードはやってみましたが直らなかったです。

どうしても設定を見たいのもありしかたないのでGrubにinit=/bin/bash追加してシリアル画面に変えたらinitramfsが起動してくれたので助かりました。

画像ではvda1ですが違ったのでfsck -y /dev/vda2をしてexitで出たらなんとか起動したけど今回の原因はVPSを強制終了したせいですね。

さすがに通常使用環境ではしないですけど強制終了って怖いですね・・・

次からはコントロールパネルのシャットダウンボタンを押します・・・

Intel ArcでLora学習するたのメモ(Pony)

· 約4分
もみじーな
個人開発者

IntelでLora学習するためのメモですがIntel Arc Pro B60でしかテストしてないので他で動くのか不明
VRAMが20GB超えるのでoptimizerの変更が必要かも

寝る前にテストしたやつをまとめました。
Githubにbatファイルで動作テストしたやつ上げましたので必要があればそっちを
Githubはこちら

学習するための手順

必要かも

エラーが出た記憶もあるので必要ならインストールしてください。
Docker触ってた時のメモかもしれないので不明(たぶんいらない)
1.base-toolkit
インストール後 以下を実行する。

& "C:\Program Files (x86)\Intel\oneAPI\setvars.bat"

2.vc_redist.x64.exeまたは[https://learn.microsoft.com/ja-jp/cpp/windows/latest-supported-vc-redist?view=msvc-170]

準備

PowerShellを使うので必要があれば

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser -Force

ダウンロード

git clone https://github.com/ostris/ai-toolkit.git
cd ai-toolkit

環境を構築する

venvはお好み
今回は除外
install順番は崩さないでください。

python -m pip install --upgrade pip
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/xpu
pip install intel-extension-for-pytorch
pip install psutil
pip show psutil
pip install intel-extension-for-pytorch --index-url https://pytorch-extension.intel.com/release-whl/stable/xpu/us/

バージョン確認

ここでエラーがでると失敗しています。

python -c "import torch; print('PyTorch Version:', torch.__version__)"

bitsandbytesを置き換え

(Get-Content requirements.txt) | Where-Object { $_ -notmatch "bitsandbytes" } | Set-Content requirements.txt

依存関係のインストール

pip install -r requirements.txt

CUDAの記述をXPU用に書き換え

PowerShellで実行
Intelの良いところはここです。
置き換えるだけで基本的に動きます。
注意として同一フォルダ内でvenvで環境つくってると中身置き換えれられるのでフォルダを除外してください。

Get-ChildItem -Path . -Filter "*.py" -Recurse | ForEach-Object {
$content = Get-Content $_.FullName -Raw

# 3つのパターンを置換
# 1. "cuda" -> "xpu"
# 2. 'cuda' -> 'xpu'
# 3. .cuda() -> .to("xpu")

$newContent = $content -replace '"cuda"', '"xpu"' `
-replace "'cuda'", "'xpu'" `
-replace '\.cuda\(\)', '.to("xpu")'

# 変更があった場合のみ保存
if ($content -ne $newContent) {
Write-Host "Modifying: $($_.FullName)"
$newContent | Set-Content $_.FullName -NoNewline
}
}

学習設定ファイル (yaml) の作成

今回はconfig/myscript_b60.yaml として保存してください。
設定はサンプルなので修正してください。

job: extension
config:
# Lora名を下に記入してください
name: "my_pony_lora"
process:
- type: 'sd_trainer'
training_folder: "output"
device: "xpu" # Intel Arc

# モデル設定
model:
# ここにダウンロードしたPonyのファイルのパスを書いてください
name_or_path: "C:/Users/momijiina/Documents/ponyDiffusionV6XL_v6StartWithThisOne.safetensors"

is_flux: false
is_xl: true
quantize: false

# ネットワーク設定
network:
type: "lora"
linear: 16
linear_alpha: 16

# 学習設定
train:
batch_size: 1
steps: 1500
gradient_accumulation_steps: 1
train_unet: true
train_text_encoder: false
content_or_style: "balanced"
#optimizer: "adamw"
optimizer: "adafactor"
lr: 1e-4

# データセット設定
datasets:
# 画像フォルダのパスをここに記入してください
- folder_path: "C:/Users/momijiina/Documents/lora"
caption_ext: "txt"
caption_dropout_rate: 0.05
shuffle_tokens: false
cache_latents_to_disk: true
resolution: [1024, 1024]

# サンプル生成設定
sample:
sampler: "ddim"
sample_every: 100
width: 1024
height: 1024
prompts:
- "score_9, score_8_up, score_7_up, source_anime, simple background, 1girl, standing"
neg: "score_6, score_5, score_4"
seed: 42
walk_seed: true
guidance_scale: 7.0
sample_steps: 28

学習開始

とりあえずは動くはずです。
私の環境では・・・

python run.py config/myscript_b60.yaml

Ubuntu25でllm-scalerのvllmもテストする

· 約4分
もみじーな
個人開発者

WSLで動かないですしUbuntu 24だとGPU2枚だとエラーが出て使えなかったので公式推奨のサポート期限切れのUbuntu 25.04をインストールしてみました。

とりあえず最初にもう言っておきますがさすが推奨バージョンです。
マニュアル通り基本動きます。
あとWSLと内容が重複してます。

準備

ドライバーインストール

公式を一応みてください
dgpu-docs-intel

sudo apt-get update
sudo apt-get install -y software-properties-common
sudo add-apt-repository -y ppa:kobuk-team/intel-graphics
sudo apt-get install -y libze-intel-gpu1 libze1 intel-metrics-discovery intel-opencl-icd clinfo intel-gsc
sudo apt-get install -y intel-media-va-driver-non-free libmfx-gen1 libvpl2 libvpl-tools libva-glx2 va-driver-all vainfo
sudo apt-get install -y libze-dev intel-ocloc
sudo apt-get install -y libze-intel-gpu-raytracing

base-toolkitをインストール

公式を見てください
base-toolkit

Ubuntu25も更新しないとパッケージは見つかりません。

公開鍵の取得

wget -O- https://apt.repos.intel.com/intel-gpg-keys/GPG-PUB-KEY-INTEL-SW-PRODUCTS.PUB \
| gpg --dearmor | sudo tee /usr/share/keyrings/oneapi-archive-keyring.gpg > /dev/null

リポジトリの追加

echo "deb [signed-by=/usr/share/keyrings/oneapi-archive-keyring.gpg] https://apt.repos.intel.com/oneapi all main" \
| sudo tee /etc/apt/sources.list.d/oneAPI.list

インストール

終わったらrebootかけてください

sudo apt update
sudo apt install intel-oneapi-base-toolkit

GPUの認識確認

export LD_LIBRARY_PATH=""
source /opt/intel/oneapi/setvars.sh --force
sycl-ls

llm-scalerのvllmをdockerでインストール

現在はlatestも1.3なので確認してください。
一覧

sudo docker run -it --name my-vllm \
--privileged \
--net=host \
--device=/dev/dri \
--name=lsv-container \
-v /home/intel/LLM:/llm/models/ \
-e no_proxy=localhost,127.0.0.1 \
-e http_proxy=$http_proxy \
-e https_proxy=$https_proxy \
--shm-size="16g" \
--entrypoint /bin/bash \
intel/llm-scaler-vllm:1.3

モデルのダウンロード

最初にモデルダウンロードしたほうが絶対いいですね・・・

huggingface-cli download deepseek-ai/DeepSeek-R1-Distill-Qwen-7B --local-dir DeepSeek-R1-Distill-Qwen-7B

gpt-oss-20b

huggingface-cli download openai/gpt-oss-20b --local-dir /llm/models/gpt-oss-20b

実行する

gpt-ossはbfloat16で大丈夫みたいですね
float16でやったり前はしてたので今回のバージョンはしっかりエラーでたのでわかりました。

VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 \
VLLM_WORKER_MULTIPROC_METHOD=spawn \
vllm serve \
--model /llm/models/gpt-oss-20b \
--served-model-name gpt-oss-20b \
--quantization mxfp4 \
--dtype bfloat16 \
--host 0.0.0.0 \
--port 8000 \
--trust-remote-code \
--gpu-memory-util 0.9 \
--max-model-len 8192
-tp 2

速度はどれくらいでるのか

1枚も2枚も速度差はなかったです。
最大70token/sなのでLM Studio以下ですね。
今,LM Studioなら80token/s以上一応でてますので・・・・

途中でモニターを4Kに変えたので見ずらいですけど編集めんどくさいのでズームしてください(必要なら)

一応、以下を実行してます。

curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-oss-20b",
"messages": [
{"role": "user", "content": "Hello! How are you?"}
],
"max_tokens": 4096
}'

ArcシリーズはやっぱりWindowsでのほうが速そうですね。
llm-scalerのomniももしかしたらテストするかもしれないです。

Wan2.2をGPU2枚で実行できるらしい?ので

ConoHa VPSのL4でLora学習する

· 約3分
もみじーな
個人開発者

ConoHa VPSのL4でLora学習するためのメモです。
Google Colabとどっちがいいかと言われればどっちもメリットかデメリットあるので好きな方をColab Pro+の方が財布には優しいです。
Colab Proもバックグラウンド実行できるならよかったんですけどね。
長時間作業してると間違ってブラウザ閉じたり再起動されたりするのでバックグラウンド実行(最低Colab Pro+)はほしいです。

あと学習させる画像によってはBanされるリスクがあるのでね?

長いので開発の方に入れてもよかったですけど今回はblog側に

準備

アップデート

立てたばっかなので更新

sudo apt -y update && sudo apt -y upgrade

Nvidiaのドライバーインストール

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | 
sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

ドライバーをインストール

sudo ubuntu-drivers autoinstall

再起動は必須

体感で5分くらいかかった気がする長い

sudo reboot

確認

sudo nvidia-smi

python3をインストールする

pythonはaptで十分です

sudo apt install python3.10-venv
sudo apt install python3-dev

ai-toolkitのインストール

基本公式通りに
エラーは特にでなかった

git clone https://github.com/ostris/ai-toolkit.git
cd ai-toolkit
python3 -m venv venv
source venv/bin/activate
pip3 install --no-cache-dir torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu126
pip3 install -r requirements.txt

起動テストする

nodejsを使うのでインストール
aptでいれたら古かったですね

sudo apt -y install nodejs npm
sudo npm install n -g
sudo n lts

WebUI使うのでパスワードを設定しておく必要があります。
super_secure_passwordは公式初期パスワードなので長く使うなら変更してください。

cd ui
AI_TOOLKIT_AUTH=super_secure_password npm run build_and_start

ポート開放とか

どうせすぐ消すので直接
ConoHaはコントロールパネルからも許可が必要

sudo ufw allow 8675
ufw reload

Screenコマンドで一時的に動かす

screen
AI_TOOLKIT_AUTH=super_secure_password npm run build_and_start

起動後はCtrl+A+Dとかで抜けれます。

Lora学習を開始する

WebUIへアクセスする

初めてパスワード画面みたので新鮮です。

Z-Image-Turboを学習する

VRAM 24GBあるのでせっかくならZ-Image-Turboを学習する
ちょうど学習したいやつあったのでdatasetsフォルダに新しくフォルダ作ってRLoginから放り込みました。

設定はこれでいいかでやりました

とりあえず学習を開始してから6時間くらいで完了してたと思います。

私はローカルでいいかな。

WSLでllm-scalerのvllmもテストする(動作不可)

· 約5分
もみじーな
個人開発者

Ubuntu25版を必要なら見てください(こちら)
LM Studioより速度が速くなるとかはなかったです。
一人で使うならLM Studioでよさそうです。

一応ですがWSLでの実行はあまりお勧めしないです。
パラメーターを細かく指定しないとすぐエラーです。
WSLは私の知識範囲外です。
もうめんどくさいので触りたくないですね。

※2026年2月12日に再修正
※2026年2月14日に最終検証しましたが動作は難しいと判断しました。
最終修正とします

WSLにvllmを入れる

今回はUbuntu 24が一番新しいので24です。
推奨は25のしかもデスクトップ版みたいですね。

ドライバーインストール

公式を一応みてください
dgpu-docs-intel

sudo apt-get update
sudo apt-get install -y software-properties-common
sudo add-apt-repository -y ppa:kobuk-team/intel-graphics
sudo apt-get install -y libze-intel-gpu1 libze1 intel-metrics-discovery intel-opencl-icd clinfo intel-gsc
sudo apt-get install -y intel-media-va-driver-non-free libmfx-gen1 libvpl2 libvpl-tools libva-glx2 va-driver-all vainfo
sudo apt-get install -y libze-dev intel-ocloc
sudo apt-get install -y libze-intel-gpu-raytracing

base-toolkitをインストール

公式を見てください
base-toolkit

Ubuntu25ではわかりませんが24では少し更新しないとパッケージは見つかりません。

公開鍵の取得

wget -O- https://apt.repos.intel.com/intel-gpg-keys/GPG-PUB-KEY-INTEL-SW-PRODUCTS.PUB \
| gpg --dearmor | sudo tee /usr/share/keyrings/oneapi-archive-keyring.gpg > /dev/null

リポジトリの追加

echo "deb [signed-by=/usr/share/keyrings/oneapi-archive-keyring.gpg] https://apt.repos.intel.com/oneapi all main" \
| sudo tee /etc/apt/sources.list.d/oneAPI.list

インストール

終わったらrebootかけてください

sudo apt update
sudo apt install intel-oneapi-base-toolkit

GPUの認識確認(強制認識)

level-zeroを認識させる必要があるのでさらに追加

source /opt/intel/oneapi/setvars.sh --force
ln -sf /usr/lib/wsl/lib/libze_loader.so.1 /usr/lib/x86_64-linux-gnu/libze_loader.so.1
ln -sf /usr/lib/wsl/lib/libze_loader.so.1 /usr/lib/x86_64-linux-gnu/libze_loader.so
sycl-ls

さらに追加(無理やりlevel-zeroを出してるので間違えてるかも)

export ONEAPI_DEVICE_SELECTOR=opencl:1,2
export VLLM_TARGET_DEVICE=xpu
export VLLM_XPU_BACKEND=OPENCL
export LD_LIBRARY_PATH=/usr/lib/wsl/lib:$LD_LIBRARY_PATH
ldconfig
unset ONEAPI_DEVICE_SELECTOR
unset SYCL_DEVICE_FILTER
sycl-ls

vllmをdockerで起動する

使うバージョンは最新(1.3)ですが必要があれば変更してください。
バージョン下げた方が安定してるかも
一覧

sudo docker run -it --name my-vllm \
--shm-size 16g \
--privileged \
--device /dev/dri:/dev/dri \
-v /usr/lib/wsl:/usr/lib/wsl \
-e LD_LIBRARY_PATH=/usr/lib/wsl/lib \
--entrypoint /bin/bash \
intel/llm-scaler-vllm:latest

GPUの認識確認

勝手にコンテナに入るはずなので以下を実行する
結局、level-zeroとかが表示されないのでパススルーできてないかも

export ONEAPI_DEVICE_SELECTOR=opencl:gpu
sycl-ls

モデルダウンロード

huggingface-cli download openai/gpt-oss-20b --local-dir /llm/models/gpt-oss-20b

vllmを実行する

※起動不可
環境変数などの確認はこちら
こちらも

VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 \
VLLM_WORKER_MULTIPROC_METHOD=spawn \
vllm serve openai/gpt-oss-20b \
--model /llm/models/gpt-oss-20b \
--served-model-name gpt-oss-20b \
--quantization mxfp4 \
--dtype bfloat16 \
--host 0.0.0.0 \
--port 8000 \
--trust-remote-code \
--gpu-memory-util 0.9 \
--max-model-len 8192
-tp 1

速度確認できず

恐らく現状、特殊な設定をしないとWSLでは動作不可です。
Dockerでlevel-zeroを認識させる方法があればおそらく解決します。

推奨環境 Ubuntu25で実行結果は最高70token/sという結果なので無理にUbuntuでやるよりLM Studioでいいです。

他のとどっちがいいか

私はLM StudioかOllamaを使うことにしました。
今後次第ですが恐らく一人で使うならLM Studioで十分です。

1.3がWSLで動いた方がいたら教えてください。

Windowsのllm-scaler-omniでComfyUIをテストしてみる

· 約3分
もみじーな
個人開発者

WSL 2でllm-scalerが動かなかったのでomniも放置してましたけどWindows用ファイルがあるみたいだったのでテストです。

結果書いときますがWindows版は少し古いのが自動で入るので初期だとZ-imageとかも動かない感じでした(残念)

詳細はhttps://github.com/intel/llm-scaler/tree/main/omni/comfyui_windows_setup

起動方法

コードを取得

git clone https://github.com/intel/llm-scaler.git
cd llm-scaler\omni\

Condaで環境構築

Anacondaのインストールが必要です
Anaconda Promptから私は実行
ダウンロード

.\init_conda_env.bat

起動

cd ComfyUI
conda activate omni_env
python .\main.py --listen 0.0.0.0

一応、起動できました

とりあえず問題はなさそうでした。
2枚認識してくれるとかの特別な機能もなく普通

Ponyで画像生してみた

とりあえず適当に生成してみましたが別に早くなった感じもなしです。

Z-Image-turboで画像生成してみる

エラーがでてできませんでしたね。

アップデート方法が不明(だった)

ComfyUIのアップデート方法が不明でした。
公式は以下でアップデートできるとのこと

cd ComfyUI
git stash
git fetch origin
git pull
git stash pop

ただこれを実行してもgitでエラーでますし無理やりマスターに合わせてアップデートしたらCudaがないと動かないとエラーを吐きました。

batの編集がいりそうなのと速度も速くなったとかもなさそうなのでAI PlaygroundのComfyUIを使うかUbuntuで実行したほうがいいかもですね。

※アップデートのとこだけ見てて忘れてましたがパッチが一応あったみたいです。

速度はあがったか?

AI PlaygroundのComfyと比べても速度があがった感じはないですね。
Ubuntuでちゃんとしたやつ動かせば差がでるのかは検証が必要です。

最後に

LM Studioとかの最適化がいつされるのかわからないのもあるのでUbuntuでArc Pro B60 48GBだと速度に差がでるのか試してみます。

llm-scalerで速度が改善するならWindowsから変更ですね。

vllmが最適かされてるらしいので2倍とかでるかも?(不明)

Intel Arc Pro B60でLora学習をしてみる(テスト)

· 約3分
もみじーな
個人開発者

帰ってきて暇だったので郵便を待つ次いでにLora学習テスト中

RTX5090があるのでIntelでやる必要はないですがゲーム中とかにもLora学習したいのでテストです。

今回の学習に使用するGPUはIntel Arc Pro B60です。
使うツールはai-toolkitです。

ai-toolkitをIntelで使った人を見つけられなかったので自己流です。

今回は寝る前のテストすぎるので後でやり方は多分、まとめます。
IntelでLora学習やる理由も特にないのでたぶん・・・

学習してみる

Ponyをテストで学習してみることにしました。
理由はちょうど学習に使うためのモデルをダウンロード済だったからです。

ai-toolkitのwebuiは起動しましたがNvidiaのGPUが見つからないと表示されたのでコンソールだけで今回は学習してみます。

暇だったら書き換えますがやる必要はないです。
そしてこれが学習中の画面です。

一応、動いたので感動しました。
さすがxpuですが20GBもPonyの学習に使うんですね。
Optimizerの問題かもしれないですが動かせないことはない感じですね。
500ステップでたぶん50分から1時間って所だと思いますがPonyの学習ははじめてなので速いのかわからないです。

っとここらへんで郵便も届いたの今日はおしまいです。
( ˘ω˘)スヤァ

っと寝るとこだったんですが寝る前に終わってたので完了画面はっておきます。
50分はかからないって感じですかね

一応生成したみた画像を2枚
ちゃんと学習できてるかも不明なので今後検証が必要です。
そもそも500stepは少ないですよね。
下の画像の通りされてるようなされていないような
学習データとモデル(prefectIllustriousXL)が多分ですが似ててよくわからないのもあるので・・・

Illustrious(生成テスト)

Loraなし

Loraあり

そもそもIllustriousでやってるけどPonyと互換ありましたよね?

Pony(生成テスト)

不安なのでautismmixSDXL_autismmixPonyでもテスト

Loraなし

Loraあり

ってことで大丈夫そう。
IllustriousにPonyは完全互換ではやっぱなさそうですね。

寝る前に3000stepもテストしてみます。
なんだかんだ時間かかったけど今度こそ( ˘ω˘)スヤァ