メインコンテンツまでスキップ

Windowsのllm-scaler-omniでComfyUIをテストしてみる

· 約3分
もみじーな
個人開発者

WSL 2でllm-scalerが動かなかったのでomniも放置してましたけどWindows用ファイルがあるみたいだったのでテストです。

結果書いときますがWindows版は少し古いのが自動で入るので初期だとZ-imageとかも動かない感じでした(残念)

詳細はhttps://github.com/intel/llm-scaler/tree/main/omni/comfyui_windows_setup

起動方法

コードを取得

git clone https://github.com/intel/llm-scaler.git
cd llm-scaler\omni\

Condaで環境構築

Anacondaのインストールが必要です
Anaconda Promptから私は実行
ダウンロード

.\init_conda_env.bat

起動

cd ComfyUI
conda activate omni_env
python .\main.py --listen 0.0.0.0

一応、起動できました

とりあえず問題はなさそうでした。
2枚認識してくれるとかの特別な機能もなく普通

Ponyで画像生してみた

とりあえず適当に生成してみましたが別に早くなった感じもなしです。

Z-Image-turboで画像生成してみる

エラーがでてできませんでしたね。

アップデート方法が不明(だった)

ComfyUIのアップデート方法が不明でした。
公式は以下でアップデートできるとのこと

cd ComfyUI
git stash
git fetch origin
git pull
git stash pop

ただこれを実行してもgitでエラーでますし無理やりマスターに合わせてアップデートしたらCudaがないと動かないとエラーを吐きました。

batの編集がいりそうなのと速度も速くなったとかもなさそうなのでAI PlaygroundのComfyUIを使うかUbuntuで実行したほうがいいかもですね。

※アップデートのとこだけ見てて忘れてましたがパッチが一応あったみたいです。

速度はあがったか?

AI PlaygroundのComfyと比べても速度があがった感じはないですね。
Ubuntuでちゃんとしたやつ動かせば差がでるのかは検証が必要です。

最後に

LM Studioとかの最適化がいつされるのかわからないのもあるのでUbuntuでArc Pro B60 48GBだと速度に差がでるのか試してみます。

llm-scalerで速度が改善するならWindowsから変更ですね。

vllmが最適かされてるらしいので2倍とかでるかも?(不明)