メインコンテンツまでスキップ

「AI」タグの記事が54件件あります

AI tag description

全てのタグを見る

Intel ArcでLora学習するたのメモ(Pony)

· 約4分
もみじーな
個人開発者

IntelでLora学習するためのメモですがIntel Arc Pro B60でしかテストしてないので他で動くのか不明
VRAMが20GB超えるのでoptimizerの変更が必要かも

寝る前にテストしたやつをまとめました。
Githubにbatファイルで動作テストしたやつ上げましたので必要があればそっちを
Githubはこちら

学習するための手順

必要かも

エラーが出た記憶もあるので必要ならインストールしてください。
1.base-toolkit
インストール後 以下を実行する。

& "C:\Program Files (x86)\Intel\oneAPI\setvars.bat"

2.vc_redist.x64.exeまたは[https://learn.microsoft.com/ja-jp/cpp/windows/latest-supported-vc-redist?view=msvc-170]

準備

PowerShellを使うので必要があれば

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser -Force

ダウンロード

git clone https://github.com/ostris/ai-toolkit.git
cd ai-toolkit

環境を構築する

venvはお好み
今回は除外
install順番は崩さないでください。

python -m pip install --upgrade pip
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/xpu
pip install intel-extension-for-pytorch
pip install psutil
pip show psutil
pip install intel-extension-for-pytorch --index-url https://pytorch-extension.intel.com/release-whl/stable/xpu/us/

バージョン確認

ここでエラーがでると失敗しています。

python -c "import torch; print('PyTorch Version:', torch.__version__)"

bitsandbytesを置き換え

(Get-Content requirements.txt) | Where-Object { $_ -notmatch "bitsandbytes" } | Set-Content requirements.txt

依存関係のインストール

pip install -r requirements.txt

CUDAの記述をXPU用に書き換え

PowerShellで実行
Intelの良いところはここです。
置き換えるだけで基本的に動きます。
注意として同一フォルダ内でvenvで環境つくってると中身置き換えれられるのでフォルダを除外してください。

Get-ChildItem -Path . -Filter "*.py" -Recurse | ForEach-Object {
$content = Get-Content $_.FullName -Raw

# 3つのパターンを置換
# 1. "cuda" -> "xpu"
# 2. 'cuda' -> 'xpu'
# 3. .cuda() -> .to("xpu")

$newContent = $content -replace '"cuda"', '"xpu"' `
-replace "'cuda'", "'xpu'" `
-replace '\.cuda\(\)', '.to("xpu")'

# 変更があった場合のみ保存
if ($content -ne $newContent) {
Write-Host "Modifying: $($_.FullName)"
$newContent | Set-Content $_.FullName -NoNewline
}
}

学習設定ファイル (yaml) の作成

今回はconfig/myscript_b60.yaml として保存してください。
設定はサンプルなので修正してください。

job: extension
config:
# Lora名を下に記入してください
name: "my_pony_lora"
process:
- type: 'sd_trainer'
training_folder: "output"
device: "xpu" # Intel Arc

# モデル設定
model:
# ここにダウンロードしたPonyのファイルのパスを書いてください
name_or_path: "C:/Users/momijiina/Documents/ponyDiffusionV6XL_v6StartWithThisOne.safetensors"

is_flux: false
is_xl: true
quantize: false

# ネットワーク設定
network:
type: "lora"
linear: 16
linear_alpha: 16

# 学習設定
train:
batch_size: 1
steps: 1500
gradient_accumulation_steps: 1
train_unet: true
train_text_encoder: false
content_or_style: "balanced"
#optimizer: "adamw"
optimizer: "adafactor"
lr: 1e-4

# データセット設定
datasets:
# 画像フォルダのパスをここに記入してください
- folder_path: "C:/Users/momijiina/Documents/lora"
caption_ext: "txt"
caption_dropout_rate: 0.05
shuffle_tokens: false
cache_latents_to_disk: true
resolution: [1024, 1024]

# サンプル生成設定
sample:
sampler: "ddim"
sample_every: 100
width: 1024
height: 1024
prompts:
- "score_9, score_8_up, score_7_up, source_anime, simple background, 1girl, standing"
neg: "score_6, score_5, score_4"
seed: 42
walk_seed: true
guidance_scale: 7.0
sample_steps: 28

学習開始

とりあえずは動くはずです。
私の環境では・・・

python run.py config/myscript_b60.yaml

Ubuntu25でllm-scalerのvllmもテストする

· 約4分
もみじーな
個人開発者

WSLで動かないですしUbuntu 24だとGPU2枚だとエラーが出て使えなかったので公式推奨のサポート期限切れのUbuntu 25.04をインストールしてみました。

とりあえず最初にもう言っておきますがさすが推奨バージョンです。
マニュアル通り基本動きます。
あとWSLと内容が重複してます。

準備

ドライバーインストール

公式を一応みてください
dgpu-docs-intel

sudo apt-get update
sudo apt-get install -y software-properties-common
sudo add-apt-repository -y ppa:kobuk-team/intel-graphics
sudo apt-get install -y libze-intel-gpu1 libze1 intel-metrics-discovery intel-opencl-icd clinfo intel-gsc
sudo apt-get install -y intel-media-va-driver-non-free libmfx-gen1 libvpl2 libvpl-tools libva-glx2 va-driver-all vainfo
sudo apt-get install -y libze-dev intel-ocloc
sudo apt-get install -y libze-intel-gpu-raytracing

base-toolkitをインストール

公式を見てください
base-toolkit

Ubuntu25も更新しないとパッケージは見つかりません。

公開鍵の取得

wget -O- https://apt.repos.intel.com/intel-gpg-keys/GPG-PUB-KEY-INTEL-SW-PRODUCTS.PUB \
| gpg --dearmor | sudo tee /usr/share/keyrings/oneapi-archive-keyring.gpg > /dev/null

リポジトリの追加

echo "deb [signed-by=/usr/share/keyrings/oneapi-archive-keyring.gpg] https://apt.repos.intel.com/oneapi all main" \
| sudo tee /etc/apt/sources.list.d/oneAPI.list

インストール

終わったらrebootかけてください

sudo apt update
sudo apt install intel-oneapi-base-toolkit

GPUの認識確認

export LD_LIBRARY_PATH=""
source /opt/intel/oneapi/setvars.sh --force
sycl-ls

llm-scalerのvllmをdockerでインストール

現在はlatestも1.3なので確認してください。
一覧

sudo docker run -it --name my-vllm \
--privileged \
--net=host \
--device=/dev/dri \
--name=lsv-container \
-v /home/intel/LLM:/llm/models/ \
-e no_proxy=localhost,127.0.0.1 \
-e http_proxy=$http_proxy \
-e https_proxy=$https_proxy \
--shm-size="16g" \
--entrypoint /bin/bash \
intel/llm-scaler-vllm:1.3

モデルのダウンロード

最初にモデルダウンロードしたほうが絶対いいですね・・・

huggingface-cli download deepseek-ai/DeepSeek-R1-Distill-Qwen-7B --local-dir DeepSeek-R1-Distill-Qwen-7B

gpt-oss-20b

huggingface-cli download openai/gpt-oss-20b --local-dir /llm/models/gpt-oss-20b

実行する

gpt-ossはbfloat16で大丈夫みたいですね
float16でやったり前はしてたので今回のバージョンはしっかりエラーでたのでわかりました。

VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 \
VLLM_WORKER_MULTIPROC_METHOD=spawn \
vllm serve \
--model /llm/models/gpt-oss-20b \
--served-model-name gpt-oss-20b \
--quantization mxfp4 \
--dtype bfloat16 \
--host 0.0.0.0 \
--port 8000 \
--trust-remote-code \
--gpu-memory-util 0.9 \
--max-model-len 8192
-tp 2

速度はどれくらいでるのか

1枚も2枚も速度差はなかったです。
最大70token/sなのでLM Studio以下ですね。
今,LM Studioなら80token/s以上一応でてますので・・・・

途中でモニターを4Kに変えたので見ずらいですけど編集めんどくさいのでズームしてください(必要なら)

一応、以下を実行してます。

curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-oss-20b",
"messages": [
{"role": "user", "content": "Hello! How are you?"}
],
"max_tokens": 4096
}'

ArcシリーズはやっぱりWindowsでのほうが速そうですね。
llm-scalerのomniももしかしたらテストするかもしれないです。

Wan2.2をGPU2枚で実行できるらしい?ので

ConoHa VPSのL4でLora学習する

· 約3分
もみじーな
個人開発者

ConoHa VPSのL4でLora学習するためのメモです。
Google Colabとどっちがいいかと言われればどっちもメリットかデメリットあるので好きな方をColab Pro+の方が財布には優しいです。
Colab Proもバックグラウンド実行できるならよかったんですけどね。
長時間作業してると間違ってブラウザ閉じたり再起動されたりするのでバックグラウンド実行(最低Colab Pro+)はほしいです。

あと学習させる画像によってはBanされるリスクがあるのでね?

長いので開発の方に入れてもよかったですけど今回はblog側に

準備

アップデート

立てたばっかなので更新

sudo apt -y update && sudo apt -y upgrade

Nvidiaのドライバーインストール

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | 
sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

ドライバーをインストール

sudo ubuntu-drivers autoinstall

再起動は必須

体感で5分くらいかかった気がする長い

sudo reboot

確認

sudo nvidia-smi

python3をインストールする

pythonはaptで十分です

sudo apt install python3.10-venv
sudo apt install python3-dev

ai-toolkitのインストール

基本公式通りに
エラーは特にでなかった

git clone https://github.com/ostris/ai-toolkit.git
cd ai-toolkit
python3 -m venv venv
source venv/bin/activate
pip3 install --no-cache-dir torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu126
pip3 install -r requirements.txt

起動テストする

nodejsを使うのでインストール
aptでいれたら古かったですね

sudo apt -y install nodejs npm
sudo npm install n -g
sudo n lts

WebUI使うのでパスワードを設定しておく必要があります。
super_secure_passwordは公式初期パスワードなので長く使うなら変更してください。

cd ui
AI_TOOLKIT_AUTH=super_secure_password npm run build_and_start

ポート開放とか

どうせすぐ消すので直接
ConoHaはコントロールパネルからも許可が必要

sudo ufw allow 8675
ufw reload

Screenコマンドで一時的に動かす

screen
AI_TOOLKIT_AUTH=super_secure_password npm run build_and_start

起動後はCtrl+A+Dとかで抜けれます。

Lora学習を開始する

WebUIへアクセスする

初めてパスワード画面みたので新鮮です。

Z-Image-Turboを学習する

VRAM 24GBあるのでせっかくならZ-Image-Turboを学習する
ちょうど学習したいやつあったのでdatasetsフォルダに新しくフォルダ作ってRLoginから放り込みました。

設定はこれでいいかでやりました

とりあえず学習を開始してから6時間くらいで完了してたと思います。

私はローカルでいいかな。

WSLでllm-scalerのvllmもテストする(動作不可)

· 約5分
もみじーな
個人開発者

Ubuntu25版を必要なら見てください(こちら)
LM Studioより速度が速くなるとかはなかったです。
一人で使うならLM Studioでよさそうです。

一応ですがWSLでの実行はあまりお勧めしないです。
パラメーターを細かく指定しないとすぐエラーです。
WSLは私の知識範囲外です。
もうめんどくさいので触りたくないですね。

※2026年2月12日に再修正
※2026年2月14日に最終検証しましたが動作は難しいと判断しました。
最終修正とします

WSLにvllmを入れる

今回はUbuntu 24が一番新しいので24です。
推奨は25のしかもデスクトップ版みたいですね。

ドライバーインストール

公式を一応みてください
dgpu-docs-intel

sudo apt-get update
sudo apt-get install -y software-properties-common
sudo add-apt-repository -y ppa:kobuk-team/intel-graphics
sudo apt-get install -y libze-intel-gpu1 libze1 intel-metrics-discovery intel-opencl-icd clinfo intel-gsc
sudo apt-get install -y intel-media-va-driver-non-free libmfx-gen1 libvpl2 libvpl-tools libva-glx2 va-driver-all vainfo
sudo apt-get install -y libze-dev intel-ocloc
sudo apt-get install -y libze-intel-gpu-raytracing

base-toolkitをインストール

公式を見てください
base-toolkit

Ubuntu25ではわかりませんが24では少し更新しないとパッケージは見つかりません。

公開鍵の取得

wget -O- https://apt.repos.intel.com/intel-gpg-keys/GPG-PUB-KEY-INTEL-SW-PRODUCTS.PUB \
| gpg --dearmor | sudo tee /usr/share/keyrings/oneapi-archive-keyring.gpg > /dev/null

リポジトリの追加

echo "deb [signed-by=/usr/share/keyrings/oneapi-archive-keyring.gpg] https://apt.repos.intel.com/oneapi all main" \
| sudo tee /etc/apt/sources.list.d/oneAPI.list

インストール

終わったらrebootかけてください

sudo apt update
sudo apt install intel-oneapi-base-toolkit

GPUの認識確認(強制認識)

level-zeroを認識させる必要があるのでさらに追加

source /opt/intel/oneapi/setvars.sh --force
ln -sf /usr/lib/wsl/lib/libze_loader.so.1 /usr/lib/x86_64-linux-gnu/libze_loader.so.1
ln -sf /usr/lib/wsl/lib/libze_loader.so.1 /usr/lib/x86_64-linux-gnu/libze_loader.so
sycl-ls

さらに追加(無理やりlevel-zeroを出してるので間違えてるかも)

export ONEAPI_DEVICE_SELECTOR=opencl:1,2
export VLLM_TARGET_DEVICE=xpu
export VLLM_XPU_BACKEND=OPENCL
export LD_LIBRARY_PATH=/usr/lib/wsl/lib:$LD_LIBRARY_PATH
ldconfig
unset ONEAPI_DEVICE_SELECTOR
unset SYCL_DEVICE_FILTER
sycl-ls

vllmをdockerで起動する

使うバージョンは最新(1.3)ですが必要があれば変更してください。
バージョン下げた方が安定してるかも
一覧

sudo docker run -it --name my-vllm \
--shm-size 16g \
--privileged \
--device /dev/dri:/dev/dri \
-v /usr/lib/wsl:/usr/lib/wsl \
-e LD_LIBRARY_PATH=/usr/lib/wsl/lib \
--entrypoint /bin/bash \
intel/llm-scaler-vllm:latest

GPUの認識確認

勝手にコンテナに入るはずなので以下を実行する
結局、level-zeroとかが表示されないのでパススルーできてないかも

export ONEAPI_DEVICE_SELECTOR=opencl:gpu
sycl-ls

モデルダウンロード

huggingface-cli download openai/gpt-oss-20b --local-dir /llm/models/gpt-oss-20b

vllmを実行する

※起動不可
環境変数などの確認はこちら
こちらも

VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 \
VLLM_WORKER_MULTIPROC_METHOD=spawn \
vllm serve openai/gpt-oss-20b \
--model /llm/models/gpt-oss-20b \
--served-model-name gpt-oss-20b \
--quantization mxfp4 \
--dtype bfloat16 \
--host 0.0.0.0 \
--port 8000 \
--trust-remote-code \
--gpu-memory-util 0.9 \
--max-model-len 8192
-tp 1

速度確認できず

恐らく現状、特殊な設定をしないとWSLでは動作不可です。
Dockerでlevel-zeroを認識させる方法があればおそらく解決します。

推奨環境 Ubuntu25で実行結果は最高70token/sという結果なので無理にUbuntuでやるよりLM Studioでいいです。

他のとどっちがいいか

私はLM StudioかOllamaを使うことにしました。
今後次第ですが恐らく一人で使うならLM Studioで十分です。

1.3がWSLで動いた方がいたら教えてください。

Windowsのllm-scaler-omniでComfyUIをテストしてみる

· 約3分
もみじーな
個人開発者

WSL 2でllm-scalerが動かなかったのでomniも放置してましたけどWindows用ファイルがあるみたいだったのでテストです。

結果書いときますがWindows版は少し古いのが自動で入るので初期だとZ-imageとかも動かない感じでした(残念)

詳細はhttps://github.com/intel/llm-scaler/tree/main/omni/comfyui_windows_setup

起動方法

コードを取得

git clone https://github.com/intel/llm-scaler.git
cd llm-scaler\omni\

Condaで環境構築

Anacondaのインストールが必要です
Anaconda Promptから私は実行
ダウンロード

.\init_conda_env.bat

起動

cd ComfyUI
conda activate omni_env
python .\main.py --listen 0.0.0.0

一応、起動できました

とりあえず問題はなさそうでした。
2枚認識してくれるとかの特別な機能もなく普通

Ponyで画像生してみた

とりあえず適当に生成してみましたが別に早くなった感じもなしです。

Z-Image-turboで画像生成してみる

エラーがでてできませんでしたね。

アップデート方法が不明(だった)

ComfyUIのアップデート方法が不明でした。
公式は以下でアップデートできるとのこと

cd ComfyUI
git stash
git fetch origin
git pull
git stash pop

ただこれを実行してもgitでエラーでますし無理やりマスターに合わせてアップデートしたらCudaがないと動かないとエラーを吐きました。

batの編集がいりそうなのと速度も速くなったとかもなさそうなのでAI PlaygroundのComfyUIを使うかUbuntuで実行したほうがいいかもですね。

※アップデートのとこだけ見てて忘れてましたがパッチが一応あったみたいです。

速度はあがったか?

AI PlaygroundのComfyと比べても速度があがった感じはないですね。
Ubuntuでちゃんとしたやつ動かせば差がでるのかは検証が必要です。

最後に

LM Studioとかの最適化がいつされるのかわからないのもあるのでUbuntuでArc Pro B60 48GBだと速度に差がでるのか試してみます。

llm-scalerで速度が改善するならWindowsから変更ですね。

vllmが最適かされてるらしいので2倍とかでるかも?(不明)

Intel Arc Pro B60でLora学習をしてみる(テスト)

· 約3分
もみじーな
個人開発者

帰ってきて暇だったので郵便を待つ次いでにLora学習テスト中

RTX5090があるのでIntelでやる必要はないですがゲーム中とかにもLora学習したいのでテストです。

今回の学習に使用するGPUはIntel Arc Pro B60です。
使うツールはai-toolkitです。

ai-toolkitをIntelで使った人を見つけられなかったので自己流です。

今回は寝る前のテストすぎるので後でやり方は多分、まとめます。
IntelでLora学習やる理由も特にないのでたぶん・・・

学習してみる

Ponyをテストで学習してみることにしました。
理由はちょうど学習に使うためのモデルをダウンロード済だったからです。

ai-toolkitのwebuiは起動しましたがNvidiaのGPUが見つからないと表示されたのでコンソールだけで今回は学習してみます。

暇だったら書き換えますがやる必要はないです。
そしてこれが学習中の画面です。

一応、動いたので感動しました。
さすがxpuですが20GBもPonyの学習に使うんですね。
Optimizerの問題かもしれないですが動かせないことはない感じですね。
500ステップでたぶん50分から1時間って所だと思いますがPonyの学習ははじめてなので速いのかわからないです。

っとここらへんで郵便も届いたの今日はおしまいです。
( ˘ω˘)スヤァ

っと寝るとこだったんですが寝る前に終わってたので完了画面はっておきます。
50分はかからないって感じですかね

一応生成したみた画像を2枚
ちゃんと学習できてるかも不明なので今後検証が必要です。
そもそも500stepは少ないですよね。
下の画像の通りされてるようなされていないような
学習データとモデル(prefectIllustriousXL)が多分ですが似ててよくわからないのもあるので・・・

Illustrious(生成テスト)

Loraなし

Loraあり

そもそもIllustriousでやってるけどPonyと互換ありましたよね?

Pony(生成テスト)

不安なのでautismmixSDXL_autismmixPonyでもテスト

Loraなし

Loraあり

ってことで大丈夫そう。
IllustriousにPonyは完全互換ではやっぱなさそうですね。

寝る前に3000stepもテストしてみます。
なんだかんだ時間かかったけど今度こそ( ˘ω˘)スヤァ

Qwen3-Coder-NextをIntel Arc Pro B60でGPUフルロードしてみる

· 約6分
もみじーな
個人開発者

Qwen3-Coder-NextがでましたがVS Codeのエージェント機能でOpenRouterを使ってテストした時に案外よかったのでローカルで使えないかGPUでの速度検証です。

ちなみにQwen3-Coder-Nextでエージェントを動かしたらWindowsのフォルダ上では見えないフォルダを作り始めましたので注意が必要です。
ただガイドを読ませてのコード生成はClaude 3.7か4に近いものを作成してくれたので良かったです。

エージェント性能はそこそこ高そう?

今回もOllamaではなくLM Studioです。
Qwen3-Coder-NextはMXFP版を使いました。
Q4KS版も使ってみましたが速度はあんまりかわらないです。

Intelの最新のドライバーでは速度が低下しますが今回はあえて最新を使います。
一応、ダウングレードでのテスト結果も作成しました・・・

今回の設定

コンテキスト長を2万くらいにしてるはのあまり読み込んでも遅くなるだけなので・・・
あと読み込めても6,7万トークンが48GBじゃ限界

まず短いもの

こんにちはとうってみました35token/sでした。
まぁ、こんなもんかって感じです。
あれ?Ryzen AI Maxのほうが早かった気が?
嘘だといってくれIntel
最適化の問題だよなIntel

500文字指定

累計418トークンを使い 20token/sまで速度が低下します。

長いコード生成と連続生成

長いコード

長いコードを書かせるとこんな感じです。
使ったプロンプトは以下です。

あなたは世界最高峰のフロントエンドエンジニアです。
以下の要件定義に基づいて、レンタルサーバーで動作する「没入感のあるハッカー風Webサイト」のコード(HTML/CSS/JS)を作成してください。

1. サイトのコンセプト
「極秘システムのアクセス端末」
ユーザーがサイトに訪れると、そこは謎の組織のサーバーへの侵入画面であるという設定です。
全体的にダークで、サイバーパンクな雰囲気(黒背景×緑色のネオン)で統一してください。

2. 必須ギミック(要件)
以下の4つの動的なギミックを必ず実装してください。

1. マトリックス・レイン(背景):
HTML Canvasを使用し、緑色の文字(数字・半角カナ・アルファベット)が雨のように降り注ぐエフェクトを背景全体に描画してください。

2. タイプライター・オープニング:
ページ読み込み時、メインのメッセージ(例: "INITIALIZING CONNECTION...", "ACCESS GRANTED.")を、一文字ずつタイピングされているかのように表示してください。

3. CSSグリッチ・エフェクト:
サイトのメインタイトル(例: "SYSTEM 32")に対し、CSSの `@keyframes` と `clip-path`、`text-shadow` を駆使して、時折ノイズが走って文字がズレるような「グリッチアニメーション」を適用してください。

4. フェイク・ターミナル(対話機能):
画面下部にコマンド入力欄(`input type="text"`)を設けてください。
デザインは黒背景に緑文字で、左側に `visitor@root:~$` のようなプロンプトを表示してください。
以下のコマンドに対応するロジックをJavaScriptで書いてください(if文やswitch文を使用)。
`help`: 使用できるコマンド一覧を表示。
`about`: サイトの架空の説明を表示。
`clear`: ターミナルのログを消去。
それ以外: "Command not found" と表示。
重要: 入力された内容は画面内のログエリアに表示するだけに留め、サーバーへの送信は一切行わないでください(XSS対策として、入力値はテキストとして安全に処理すること)。

3. ファイル構成と技術スタック
HTML5: `index.html`。セマンティックなマークアップ。
CSS3: `style.css`。Google Fonts("Share Tech Mono" や "Courier Prime" 等)のCDNを含め、ハッカーらしい等幅フォントを使用してください。
JavaScript: `script.js`。ライブラリ依存なしのVanilla JS。

4. 安全性への配慮
ターミナル機能はすべてクライアントサイド(ブラウザ内)で完結させてください。
外部へのデータ送信機能は実装しないでください。

5. 出力
`index.html`, `style.css`, `script.js` の3つのコードブロックを出力してください。

できたのはこんな感じ

連続生成する

次に会社のホームページを考えてみてと入力して送信してみました。
2/2になってるのはループに入ったから一度キャンセルしてモデルも再ロードしました・・・

連続生成する2

最後に午年にちなんだWebアプリを考えさせてみました。
少しtoken数がずれてますが2万トークンを86%使って12token/sを維持できてるのでまぁ、使えなくはないですね。

できたサイトですが少し名前がおしゃれなのがポイント高いです。

ドライバーをダウングレードしてみる

2025年7月のドライバーでのテストです。
32.0.101.6862というバージョンです。

長いコード

30token/sです。

500文字指定

34token/sです。

最後に(感想とか)

結構いいモデルですよね。
ローカルだけで使うなら十分使えるモデルです。

ただIntel Arc Pro B60のドライバーが不安定すぎてRyzen AIにすら負ける始末。

発売前のバージョンまでダウングレードしたほうが安定するってどういうこと・・・

Ubuntuでも安定しないしB60君は何なら輝くのか

x8/x8までしか対応してないので買わないけど3枚買ってgpt-oss-120b動かすとかは考えない方がいいです。

個人なら買っても1,2枚かな3枚必要なモデルは帯域速度的にあまり期待でないのでどうしてもVramが必要か企業とかで試したいとかになるのかな・・・

たぶん個人購入ならRyzen AI買った方が幸せかなまだ・・・

それともllm-scaler-vllmを使えば早くなるんですかね?

WSL2のUbuntuだとGPUが認識してくれないのであきらめてましたが

Ubuntuもあれから試してないけど最適化されてる可能性はありますのでそのうち

Intel AI PlaygroundのComfyUIを外部からアクセスする為のメモ

· 約1分
もみじーな
個人開発者

Intel AI Playgroundを入れなおした時にどう外部(別PC)からComfyUIに接続できるようにしたか忘れてたのでメモです。

アプリ右クリックでフォルダの場所を開くでエクスプローラーを開く

resources→ComfyUI→comfyのフォルダへ移動

cli_args.pyをメモ帳とかVsCodeとか好きなので開き編集

変更前

parser.add_argument("--listen", type=str, default="127.0.0.1", ...

変更後

0.0.0.0にするだけ

parser.add_argument("--listen", type=str, default="0.0.0.0", ...

ComfyUIを再起動

AI Playgroundを一度完全に終了し、再度起動するだけ
あとはPCのIP+指定ポートに接続するだけ

やる方はポート開放も忘れず

ただのメモです。
多分次も忘れるので
なんならメモしたことも忘れそう

ConoHa VPSのL4 24GBサーバーを少しだけ使ってみる

· 約3分
もみじーな
個人開発者

タイトル通りです。
ConoHa VPSでL4サーバーを使ってみました。

LocalAIの構築方法はNextcloudにLocalAIを導入してみる(GPU)としてメモしてあります。

今回の目的はNextcloudにGPUサーバーを使ったAI導入(LocalAI)のテストの為です。

結論を最初に書いておきますが圧倒的にディスクの容量が足りないです。

ディスク100GBで使うならモデルを厳選する必要がありそうです。

ただかなり安いです。

1時間66円でレンタルできます。

最大39930円と正直な話をするなら24GBのL4 GPUが使いたいだけならかなりお得。

テストで4時間くらい借りましたけど安いですね。

しかも今なら2000円分の駅伝記念クーポンを配布してたので無料でした。
GPUサーバーにも適用されるのかは不明なんですけね・・・
まぁされなくても4時間なので数百円

以下からLocalAIの簡単なテスト結果

ConoHa VPSのL4 24GBによるLocalAIの簡単な速度テスト結果

2モデルだけです。
gpt-oss-20bも計測しましたがスクショ忘れましたね。

GLM-4.7-Flash

token/sが16.7です。

Qwen3-30B-a3b

token/sが38.2です。

ConoHa VPSのL4サーバーを使ってみての感想

容量不足!!!
モデルとかダウンロードしたらすぐ足りなくなりました。

本当はZ-Imageも使えるみたいだったので試したかったんですけどね・・・

容量不足だと警告がでてしまいました。

なぜかGLM-4.7-Flashが消せなくなったのもあり面倒くさいので今日はここであきらめました。

GPUサーバーにもクーポンが適用されるようならLora学習のテストでもしてみようかな・・・


2026年2月1日追記ですがGPUサーバーもクーポンは適用されていたので時間があるときにLora学習は試してみます。

Intel Arc Pro B60でWan2.2を動かしてみてわかったこと

· 約2分
もみじーな
個人開発者

2026年1月18日に一部修正
2026年フォルダを作成したのが原因でimgエラーがでてたのでテスト用画像を貼り付けてましたがで消去しました。


IntelのGPUでの生成は遅いのはわかっていますがテストで動画を作成してみました。

今回はWAN2.2-14B-Rapid-AllInOneを使ってテストしてます。

生成してみてわかったこと

とりあえず生成はできました。
とりあえずサンプルにあるプロンプトをそのままの生成と初期設定で298秒です。

とここまではよかったのですが2回目の生成は必ずブロックノイズ動画しかできないという謎現象がおきました。

VRAMが足りてないのかと思い生成中に確認しましたが以下のように別にVRAMからあふれているとかもなかったんですよね。

そして色々テストしてみてわかったのがGPUを2枚目にしていたことが問題だったみたいです。

1枚目にしてからはgeminiでテストプロンプトを生成しながらテストしましたが以下のように問題なく動画の生成でバグるとかもなかったです。
Intel Arc Pro B60でのWan2.2の生成時間は1280x720のステップ数で350秒くらいだと思ってもらえればと思いますがステップ数などの設定やドライバーのバージョンで変わってくるので現在はこれくらいです。

1280x720の数秒の動画で350秒くらいだとちょっと遅いですよね・・・

LTX-2 Videoっていう少し長めの音声付きの生成がこの前でたので年内もしかしたらWanとかQwenとかの20,30秒出るかもしれないですね。

これで3分とかの生成ができるようになったらRubinを本当に買ってみるかもしれないです。