メインコンテンツまでスキップ
もみじーな
個人開発者
すべての著者を見る

Qwen-Image-Editを使った動画のフレーム置き換え

· 約2分
もみじーな
個人開発者

Wan2.2 Animateだとアニメベースの動画だったりだと置き換えが不安定なのでテストしてみました。

やり方

怒られそうなのでだいぶ簡単に書きます。
一応、自動化してますが1フレームごとにOpenCVで切り取りながら同じ画像じゃないかだけ判定してQwen-Image-Editに飛ばしてry
さらにキャラを固定させるためにプロンプトをある程度細かく長くつくりLoraも強めに当ててます。

テスト動画1(初回テスト)

Youtubeの【未確認で進行形】というアニメOPを360Pで5秒くらいだけ切り取り生成した動画です。

怒られそうなので動画は調べてください。

2期まだか?

ステップ数4で各フレーム生成してます。

このテストの失敗点は360Pで切り取ったという解像度の低さとフレーム取得の不安定とLoraとプロンプト,ステップ数,etc(きりがないですね)

テスト動画2(微調整テスト)

みんな大好きLonely Lonelyのトレース + Lora適用です。

だいぶよくなったのではないかと思いますがフレーム数,解像度,ステップ数,書き出しがバグって解像度がおかしくなった,etc・・・

ステップ数8で各フレーム生成してます。

まぁ、だいぶいいですが私のテストはここで終わります。

結論

やろうと思えばアニメのトレースがいけそう

そして色んな所から怒られそう。

ここでやめておきます。

Wan2.2をRTX5090で試してみる

· 約3分
もみじーな
個人開発者

Wan2.2がでてから放置してましたがWan2.2のAnimeteを5090で試す為に今回,色々ダウンロードしたのでその内容です。
Wan2.2 Animeteは360Pだと粗すぎるし720Pだと結構時間かかる割に微妙だったのでやめました。

Wan2.2 14B T2V テキストtoビデオワークフローを使ってます。
設定しないと場合によってページング ファイルが小さすぎるとかいうエラーがでますがまぁ動くようになりました。

使い方とワークフロー

使い方について公式wikiと公式ワークフロー使ってますのでそちらを確認してください。
公式Wiki

RTX5090での生成時間とか

裏でゲームとか動いてたので正確ではないですが640x640で50-70秒です
720Pで3分かからないくらいです。

プロンプトも一応,日本語対応してるんですね 生成時間とか参考図

生成してみた動画とか

上の画像で生成したのがこんな感じの動画です。(ローカルで作ったと思えば凄いです)
元画像はQwenImageで生成してます。(崩壊3rdのヴィタちゃんと初音ミクです)

一応,初期設定での640x640です

次のバージョンへの期待とComfyCloud(A100 40GBらしい)

Wan2.2はローカルとしてはかなりいいです。

2.5はプレビューでてますがローカル用に公開されるのか?
そもそも5090程度で動作するのか?

今回,Comfyから公式に出たクラウドサービスのComfyCloudもベータ初期にAnimeteを何となく試してましたがWanを使うなら5090より速い場合(要検証)が多かったのでサブスクを検討してますが支払方法がStripeかlinkしかないので迷ってます。

どっちも使ったことがないのでクレジットカード入力は怖いです。

ただ月20ドルで1日,8時間も動かせる?らしいので画像生成サービスとしては最強じゃないですかね。

問題はまだモデルがプリインストールのみらしいです。(Loraもまだダメそう)

Comfy Cloudの価格詳細

C# WPFでQwen3を使った完全ローカル翻訳システムをGithub Copilotと作ってみた

· 約7分
もみじーな
個人開発者

今回のプログラム(LocalTranslatorWPF)
Readmeはないです。

LLamaSharpの使い勝手がいいので完全ローカルの翻訳システムが作れないかと思いVisual Studio 2022で作成してみました。(作らせた)
本当にコードをゼロから作ることがなくなりました。(修正は必要)
モデルもLM Studioから引っこ抜いて使ってます。

ローカルでさらにAPI不要なので業務でもExcelアドインとかCADアドインとしても使えそうでした。

LLamaSharpを使用

前回と同様にLLamaSharpとLLamaSharp.Backend.CpuとCudaをNugetでインストール

2GB以上のモデルは今回、強制的にGPUのCudaを使うようにしてます。

さすがCudaって感じでした。前回はなしで作りましたがボタン押したら秒です。
毎回モデルを読み込むのがネックなくらいです。

動作確認モデル

Qwen3とGemma3で動作テストしてます。(思考モードあってもなくてもいい様にしてるはず)

基本的に4bモデル以上なら動作は安定してました。

小さいモデルは翻訳レベルが低くまともに使えなかったのと思考モードがループに入ることがあったので使えなかったです。

翻訳レベルと翻訳結果

翻訳に使った文章

英文と日本語(Gemini Pro2.5で生成しましたので翻訳の品質が分からない)

英文: Regular exercise is important for maintaining good health. 
訳: 定期的な運動は、健康を維持するために重要です。
英文: Technological advancements, particularly in artificial intelligence, are rapidly transforming our daily lives. While they offer unprecedented convenience, they also present new ethical challenges that society must thoughtfully address.
訳: 技術の進歩、特に人工知能は、私たちの日常生活を急速に変革しています。それらは前例のない利便性を提供する一方で、社会が慎重に対処すべき新たな倫理的課題も提示しています。

Qwen3 4b

Qwen3 8b

翻訳精度(わからない)

どうなんですかね。
元の文章もAIで生成していることもあって翻訳精度がまったくわからないです。
あとは翻訳をどんな感じにさせるかのプロンプトしだいですかね。

コード内容

Copilot君に作ってもらったのを修正してます。
TranslationServiceがメイン処理なのでとりあえずここだけ
残りはGithubで公開しました。
LLamaModelsにあるモデルを自動で読み込みます。

TranslationService.cs[クリックして展開]
using System;
using System.Linq;
using System.Text;
using System.Text.RegularExpressions;
using System.Threading;
using System.Threading.Tasks;
using LLama;
using LLama.Common;
using LLama.Sampling;
using LocalTranslatorWPF.Models;

namespace LocalTranslatorWPF.Services
{
public class TranslationService : IDisposable
{
private LLamaWeights _model;
private LLamaContext _context;
private bool _isInitialized;

public async Task<bool> InitializeModel(ModelInfo modelInfo, bool useGPU, Action<string> logCallback = null)
{
try
{
Cleanup();

logCallback?.Invoke($"モデルを読み込んでいます: {modelInfo.Name}...");

var parameters = new ModelParams(modelInfo.Path)
{
ContextSize = 2048,
GpuLayerCount = useGPU ? 35 : 0,
UseMemorymap = true,
UseMemoryLock = false
};

_model = await Task.Run(() => LLamaWeights.LoadFromFile(parameters));
_context = _model.CreateContext(parameters);
_isInitialized = true;

logCallback?.Invoke($"モデルの読み込みが完了しました。GPU使用: {useGPU}");
return true;
}
catch (Exception ex)
{
logCallback?.Invoke($"エラー: {ex.Message}");
_isInitialized = false;
return false;
}
}

public async Task<string> TranslateAsync(TranslationRequest request, Action<string> progressCallback = null, CancellationToken cancellationToken = default)
{
if (!_isInitialized)
throw new InvalidOperationException("モデルが初期化されていません。");

// 同じ言語かどうかをチェック
var detectedLanguage = DetectLanguage(request.SourceText);
var targetLanguage = request.TargetLanguage;

// 日本語→日本語、英語→英語の場合はスキップ
if ((detectedLanguage == "Japanese" && targetLanguage == "Japanese") ||
(detectedLanguage == "English" && targetLanguage == "English"))
{
var message = detectedLanguage == "Japanese"
? "日本語から日本語への翻訳のため、翻訳しませんでした。"
: "英語から英語への翻訳のため、翻訳しませんでした。";

progressCallback?.Invoke(message);
return message;
}

var prompt = CreateTranslationPrompt(request);
progressCallback?.Invoke("翻訳中...");

var inferenceParams = new InferenceParams
{
MaxTokens = 2048,
SamplingPipeline = new DefaultSamplingPipeline
{
Temperature = 0.6f,
TopP = 0.95f,
TopK = 20,
MinP = 0
},
AntiPrompts = new[] {
"<<<END>>>",
"\n\n\n",
"###",
"\n---"
}
};

var executor = new InteractiveExecutor(_context);
var result = new StringBuilder();

await foreach (var text in executor.InferAsync(prompt, inferenceParams, cancellationToken))
{
result.Append(text);
var currentText = result.ToString();

// 終了デリミタを検出
if (currentText.Contains("<<<END>>>"))
{
break;
}

// 進捗表示用に翻訳結果を抽出
var extractedTranslation = ExtractTranslationFromDelimiters(currentText);
if (!string.IsNullOrEmpty(extractedTranslation))
{
// 元のテキストと同じ場合は表示しない(翻訳失敗の可能性)
if (!IsSameContent(extractedTranslation, request.SourceText))
{
progressCallback?.Invoke(extractedTranslation);
}
}
}

// 最終的な翻訳結果を抽出
var finalResult = ExtractTranslationFromDelimiters(result.ToString());

if (string.IsNullOrEmpty(finalResult))
{
// デリミタ抽出失敗時はテキストクリーニングにフォールバック
finalResult = CleanTranslationResult(result.ToString(), request.SourceLanguage);
}

// 元のテキストと同じ場合はエラーメッセージ
if (IsSameContent(finalResult, request.SourceText))
{
var errorMessage = "翻訳に失敗しました。モデルが指示を理解できませんでした。";
progressCallback?.Invoke(errorMessage);
return errorMessage;
}

progressCallback?.Invoke(finalResult);
return finalResult.Trim();
}

private bool IsSameContent(string text1, string text2)
{
if (string.IsNullOrWhiteSpace(text1) || string.IsNullOrWhiteSpace(text2))
return false;

// 空白と句読点を除去して比較
var normalized1 = Regex.Replace(text1.ToLower(), @"[\s\p{P}]", "");
var normalized2 = Regex.Replace(text2.ToLower(), @"[\s\p{P}]", "");

// 完全一致または90%以上一致していれば同じとみなす
if (normalized1 == normalized2)
return true;

// レーベンシュタイン距離で類似度チェック
int distance = LevenshteinDistance(normalized1, normalized2);
int maxLength = Math.Max(normalized1.Length, normalized2.Length);
double similarity = 1.0 - (double)distance / maxLength;

return similarity > 0.9;
}

private int LevenshteinDistance(string s1, string s2)
{
int[,] d = new int[s1.Length + 1, s2.Length + 1];

for (int i = 0; i <= s1.Length; i++)
d[i, 0] = i;
for (int j = 0; j <= s2.Length; j++)
d[0, j] = j;

for (int j = 1; j <= s2.Length; j++)
{
for (int i = 1; i <= s1.Length; i++)
{
int cost = (s1[i - 1] == s2[j - 1]) ? 0 : 1;
d[i, j] = Math.Min(Math.Min(d[i - 1, j] + 1, d[i, j - 1] + 1), d[i - 1, j - 1] + cost);
}
}

return d[s1.Length, s2.Length];
}

private string ExtractTranslationFromDelimiters(string text)
{
if (string.IsNullOrWhiteSpace(text))
return string.Empty;

// <<<START>>> と <<<END>>> の間を抽出
var match = Regex.Match(text, @"<<<START>>>(.*?)(?:<<<END>>>|$)", RegexOptions.Singleline);
if (match.Success && match.Groups.Count > 1)
{
return match.Groups[1].Value.Trim();
}

return string.Empty;
}

private string DetectLanguage(string text)
{
if (string.IsNullOrWhiteSpace(text))
return "Unknown";

// 日本語文字(ひらがな、カタカナ、漢字)の割合をチェック
int japaneseCharCount = 0;
int totalChars = 0;

foreach (char c in text)
{
if (char.IsWhiteSpace(c) || char.IsPunctuation(c))
continue;

totalChars++;

if ((c >= 0x3040 && c <= 0x309F) || // ひらがな
(c >= 0x30A0 && c <= 0x30FF) || // カタカナ
(c >= 0x4E00 && c <= 0x9FAF)) // 漢字
{
japaneseCharCount++;
}
}

if (totalChars == 0)
return "Unknown";

double japaneseRatio = (double)japaneseCharCount / totalChars;
return japaneseRatio >= 0.3 ? "Japanese" : "English";
}

private string CleanTranslationResult(string result, string sourceLanguage)
{
// デリミタを削除
result = result.Replace("<<<START>>>", "").Replace("<<<END>>>", "");

// 改行が2つ以上続く場合、最初の部分だけを取得
var parts = result.Split(new[] { "\n\n" }, StringSplitOptions.RemoveEmptyEntries);
if (parts.Length > 0)
{
result = parts[0];
}

// 不要な接頭辞を削除
var prefixesToRemove = new[]
{
"英語: ",
"日本語: ",
"English: ",
"Japanese: ",
"翻訳: ",
"Translation: ",
"訳: "
};

foreach (var prefix in prefixesToRemove)
{
if (result.StartsWith(prefix, StringComparison.OrdinalIgnoreCase))
{
result = result.Substring(prefix.Length);
}
}

return result.Trim();
}

private string CreateTranslationPrompt(TranslationRequest request)
{
if (request.SourceLanguage == "Japanese")
{
// 日本語→英語(Few-shot付き)
return $@"あなたは翻訳者です。日本語を英語に翻訳してください。

例1:
日本語: こんにちは、元気ですか?
翻訳: <<<START>>>Hello, how are you?<<<END>>>

例2:
日本語: 今日は良い天気ですね。明日も晴れるそうです。
翻訳: <<<START>>>It's nice weather today.It's supposed to be sunny again tomorrow.<<<END>>>

実際のタスク:
日本語: {request.SourceText}
翻訳: <<<START>>>";
}
else
{
// 英語→日本語(Few-shot付き)
return $@"あなたは翻訳者です。英語を日本語に翻訳してください。必ず日本語で答えてください。

例1:
English: Hello, how are you?
翻訳: <<<START>>>こんにちは、元気ですか?<<<END>>>

例2:
English: It's nice weather today.It's supposed to be sunny again tomorrow.
翻訳: <<<START>>>今日は良い天気ですね。明日も晴れるそうです。<<<END>>>

実際のタスク:
English: {request.SourceText}
翻訳: <<<START>>>";
}
}

private void Cleanup()
{
_context?.Dispose();
_model?.Dispose();
_context = null;
_model = null;
_isInitialized = false;
}

public void Dispose()
{
Cleanup();
}
}
}

OpenManusはあれからどうなったのか?

· 約3分
もみじーな
個人開発者

2025年3月 ほぼAGIとしてManusが登場して話題になりその代替として公式からオープンソースとして登場したOpenManusですがこの前、久しぶりに見てみると完全に更新がとまっていました・・・

3月か4月に試して良さそうだと期待してWebUI等の更新を待ってましたしコミュニティからの要望もたくさんあったかと思います。

ですが既にOpenManus君はIsuuesが上があがれどほとんどが自動クローズされプルリクエストはほとんどが放置され(めちゃくちゃすごいWebUIを出している人もいました)

そして現在、アクティビティはほとんどがBOTの自動更新を占めています。

さらには既に公式通りにインストールしてもrequirements.txtの中身が完全にあってない為、そのままインストールすらできません。

さらにdaytonaの設定しないと10月時点で初期インストールでは使えなくっていました。

しょうがないのでフォークしてデイトナの無効化とrequirementsの要件を変更してなんとか3月,4月の段階と同じ動作するようになりましたがもうOpenManusへの期待は完全に消えてしまいました・・・

WebUIもつけてみましたがもっと機能と使いやすさを強化しないとCopilotのAgentモードに圧倒的に負けます。

たしかに既にウェブリサーチしたければディープリサーチとか使ってまとめた後にAIになげればいいので3月と状況が変わってきているのも事実なのでこれからはVS CodeのAIエージョント機能の進化に期待してます。

VSCodeのエージェントは既にOllama等のモデルが使えるのでローカルだけで完結できてかなり便利です。

フォークした分のコードとかは以下です(GradioでWebUIを作成してみてます)
OpenManus-WebUI

git clone https://github.com/momijiina/OpenManus-WebUI.git

以下でWebUIは起動です・・・

python webui.py

これ以上の編集は恐らくはもうしないです・・・

課金版ManusのほうはManus1.5になりとても進化してて良かったのですが物凄い勢いでクレジットがなくなったのとCopilotになれると別にいいかなとなりました。

HPの紙図面のトレースAIはかなりすごい

· 約2分
もみじーな
個人開発者

紙図面のトレースAIがHP Build Workspaceからでました。

正確には海外では去年くらいからあったみたいですが日本で使えなかったのでノータッチだったのですが ついに日本にやってきました。

たまたま大判プリンターのニュースで見てサイト行ったら普通にデモが使えたのでテストしてみた感じですが以下です。

画像は家庭用プリンターでスキャンした粗いやつをわざと使いました。

めちゃくちゃ切り取ってますが(昔趣味で作った何か覚えてないやつなので)

この紙図面がこうです。
正直な話をするとこの結果は期待以上です。

画像でみるとあれですが結構きれいでした。

昔、会社にある紙図面をどうするかで書き直すのはあれだからと数百万するソフト使ったことがありましたがここまで綺麗にならなかったです・・・

まだ、サービスのテスト中みたいで学習されるのでデータをアップロードする際は気をつけてください。

来年、ローカルで実行できるようになるらしいです。

そうHPのZワークステーションならですがね。

ちょっとこれは気になるので会社で購入検討ですかね。

まず、Zワークステーションの購入申請から来年頑張ります・・・

完璧な精度はもとめてないけどデジタル化したいっていうやつがあるのでカビる前に処理したいです・・・

C# WPFでQwen3を直接動かすだけ(LLamaSharp)

· 約4分
もみじーな
個人開発者

ドキュザウルス3.9へアップデートしたのでエラーがないか確認も兼ねたくそ記事です。

独立して動かせるならUnityで完全自立型のデスクトップマスコット作れそうですよね。

ヴィタちゃんデスクトップマスコットAIを作るしかないか?


LLamaSharpを使用

LLamaSharpとLLamaSharp.Backend.CpuをNugetでインストール

使用モデルと環境

C# WPF .NET8 プロジェクト名[Qwen3_Demo]
Qwen3-0.6B-GGUF
Qwen3-1.7B-GGUF
modelsフォルダを作成してダウンロードしたモデルを保存してください。(モデルは常にコピーでいいです)

ggufなのでLMStudioのモデルコピーしてきても動きました。(gemma3)

  • CPU i7-1165G7(テスト用PC)
  • メモリ 16GB
  • GPU iRISXe(ないようなもの)

特別なこともないのでソースコードは下に貼っておきます。

C# WPFでQwen3 0.6bを動かす

さすがCPUオンリーですね思考モードだとしても遅いです。
(Thinkingないモデルはそこそこ早かったですがCPUじゃたかがしれてます)

Qwen3 0.6bがいつのデータで学習されてるのかわかりませんが適当なこと書きすぎ・・・

Qwen3 1.7bの場合

やっぱり1.7bは欲しいですねこう見ると

っていうと8bそして14bほしくなるのでGPUは必須です。

おそらく14-20bがデスクトップマスコット作るなら上限ですレスポンス速度が命なので

全体的なコード

MainWindow.xaml[クリックして展開]
<Window x:Class="Qwen3_Demo.MainWindow"
xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"
xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"
xmlns:d="http://schemas.microsoft.com/expression/blend/2008"
xmlns:mc="http://schemas.openxmlformats.org/markup-compatibility/2006"
xmlns:local="clr-namespace:Qwen3_Demo"
mc:Ignorable="d"
Title="MainWindow" Height="450" Width="800">
<Grid>
<Grid Margin="10">
<Grid.RowDefinitions>
<RowDefinition Height="*"/>
<RowDefinition Height="Auto"/>
<RowDefinition Height="*"/>
<RowDefinition Height="Auto"/>
</Grid.RowDefinitions>

<TextBox x:Name="InputTextBox"
Grid.Row="0"
TextWrapping="Wrap"
AcceptsReturn="True"
VerticalScrollBarVisibility="Auto"/>

<Button x:Name="GenerateButton"
Grid.Row="1"
Content="生成"
Margin="0,10"
Padding="20,5"
Click="GenerateButton_Click"/>

<TextBox x:Name="OutputTextBox"
Grid.Row="2"
TextWrapping="Wrap"
IsReadOnly="True"
VerticalScrollBarVisibility="Auto"/>

<TextBlock x:Name="StatusText"
Grid.Row="3"
Margin="0,10,0,0"
Text="準備中..."/>
</Grid>
</Grid>
</Window>
MainWindow.xaml.cs[クリックして展開]
using System.IO;
using System.Text;
using System.Text.RegularExpressions;
using System.Windows;
using LLama;
using LLama.Common;

namespace Qwen3_Demo
{
public partial class MainWindow : Window
{
private string _modelPath = "models/Qwen3-0.6B-Q8_0.gguf";
private CancellationTokenSource? _cts;

public MainWindow()
{
InitializeComponent();
CheckModel();
}

private void CheckModel()
{
if (File.Exists(_modelPath))
{
StatusText.Text = "準備完了";
GenerateButton.IsEnabled = true;
}
else
{
StatusText.Text = "モデルファイルが見つかりません";
MessageBox.Show($"モデルファイルが見つかりません: {_modelPath}");
}
}

private async void GenerateButton_Click(object sender, RoutedEventArgs e)
{
if (string.IsNullOrWhiteSpace(InputTextBox.Text))
{
MessageBox.Show("入力テキストを入力してください");
return;
}

_cts?.Cancel();
_cts = new CancellationTokenSource();

GenerateButton.IsEnabled = false;
StatusText.Text = "生成中...";
OutputTextBox.Text = "";

try
{
var userInput = InputTextBox.Text;
await GenerateTextAsync(userInput, _cts.Token);
StatusText.Text = "生成完了";
}
catch (OperationCanceledException)
{
StatusText.Text = "キャンセルされました";
}
catch (Exception ex)
{
MessageBox.Show($"エラー: {ex.Message}");
StatusText.Text = "エラー";
}
finally
{
GenerateButton.IsEnabled = true;
}
}

private async Task GenerateTextAsync(string userInput, CancellationToken cancellationToken)
{
var parameters = new ModelParams(_modelPath)
{
ContextSize = 4048,
GpuLayerCount = 0,
BatchSize = 512
};

using var model = LLamaWeights.LoadFromFile(parameters);
using var context = model.CreateContext(parameters);
var executor = new InteractiveExecutor(context);

var chatPrompt = BuildQwenPrompt(userInput);

var settings = new InferenceParams
{
MaxTokens = 1024,
AntiPrompts = new List<string> { "<|im_end|>", "<|im_start|>" }
};

var fullText = new StringBuilder();
int tokenNum = 0;

await foreach (string text in executor.InferAsync(chatPrompt, settings, cancellationToken))
{
if (cancellationToken.IsCancellationRequested)
break;

fullText.Append(text);
tokenNum++;

// テキストを分離
var (thinkPart, answerPart) = SeparateThinkAndAnswer(fullText.ToString());

await Dispatcher.InvokeAsync(() =>
{
// 回答部分のみを表示
OutputTextBox.Text = answerPart.Trim();

// デバッグ用:think部分をステータスに表示
if (!string.IsNullOrEmpty(thinkPart))
{
StatusText.Text = $"生成中... ({tokenNum} tokens) [思考中]";
}
else
{
StatusText.Text = $"生成中... ({tokenNum} tokens)";
}
});

if (tokenNum >= 1024)
break;
}
}

private (string thinkPart, string answerPart) SeparateThinkAndAnswer(string fullText)
{
// <think>...</think> を抽出
var thinkMatch = Regex.Match(fullText, @"<think>(.*?)</think>", RegexOptions.Singleline);
var thinkPart = thinkMatch.Success ? thinkMatch.Groups[1].Value.Trim() : "";

// <think>タグを除去した部分を回答とする
var answerPart = Regex.Replace(fullText, @"<think>.*?</think>", "", RegexOptions.Singleline);

// 未完了の<think>タグも除去
answerPart = Regex.Replace(answerPart, @"<think>.*", "", RegexOptions.Singleline);

return (thinkPart, answerPart.Trim());
}

private string BuildQwenPrompt(string userMessage)
{
//thinkタグを消すため(要調性)
return $"<|im_start|>system\nあなたは親切なAIアシスタントです。<think>タグは使わずに、直接答えてください。<|im_end|>\n<|im_start|>user\n{userMessage}<|im_end|>\n<|im_start|>assistant\n";
}
}
}

NextcloudでExmentへログインする方法(Oauth2)

· 約2分
もみじーな
個人開発者

仕事と体調不良で更新してませんでしたがまた、定期的に更新します。
AIアート系もまた暇なときLoraの調整方法などの練習を再開します。


久しぶりの更新でログインテストだけしてた分ですがExmentにNextcloudからログインする方法を開発の方に入れてますので需要があるのかは不明ですが使ってる方はぜひどうぞ。

中小企業ならNextcloudとExmentをおそらく導入すればとりあえずなんでもできますしこれでID管理がおそらく少しは楽になるはずです。

Nextcloudはおそらく一般人から大企業まで使っているのですがExmentがあまり有名でないのでまぁ、本当に使っている人だけです。

あとExmentがもうすぐVersion7になるらしいので現在、完全に待機中ですね。

AIとの統合とGithub見る感じだとLaravel-Adminとか廃止してOpen-Adminみたいなのになるみたいです。

プラグインの互換性とかどうなるのかわからないので現在、様子見中です。

年内?でるようなのでとりあえずでたらテストしてみます。

NextcloudからExmentへログイン

AIにExmentのプラグインを作らせる(Github Copilot)

· 約3分
もみじーな
個人開発者

変なもの食べたせいか体調壊してたので久しぶりの更新です。
仕事から帰ったら寝るを繰り返してました・・・
気づけばWan2.2のAnimateとかでてたのでそのうち試したいです・・・

体調が終わっている間にAIちゃんにExmentのプラグインを自動作成さたいと思いAIちゃん用にマニュアルを更新していましたが成功率がかなり高くなりました。

純度100%のAI生成プラグインです。

ダッシュボードアプリを作らせる

ConoHaWingにインストールしたExmentなので正確なのかは不明ですがきれいにできてます。
一応,Synologyの開発環境でも試して見ましたがディスク使用率以外はあってました。

少し複雑になるようにページビュープラグイン版もつくらせてみました

ダッシュボードアプリと結果が異なるため本当にあっているかの真偽は不明(システム情報はあってる)

チャートJSを使ったビューを作らせてみる

これは作れたらいいなくらいの気持ちでやってみました。

エラーを何回か貼ることで問題なくできたのでいい感じです。

この感じなら細かい調整もできそうなのでマニュアルさえ作成すればおそらくNextcloudやkintone(キントーン)などの専用プラグインをAIに自動生成させられそうです。(とんでもない欠陥がでるかもしれないけど)

キントーンは使ったことないけど気になるので無料でつかえるならAI用のマニュアルを作ってみようかな。

けどこれAIで完璧なの作れるようになったらプラグイン開発などをベースに収益を得ている企業などはだいぶきつくなる時代が来そうです。

スプレッドシート風のビュー

最後になかなか高難易度のプラグインをAIに依頼してみました。

AIに3回ほどエラーを渡して以下が完成しました。

むしろ作れるのかという結論になりました。
今回のAIマニュアルはGithubで公開しているのでExmentを使っている方は使ってみてください。

まだ、完ぺきではないです・・・(自己責任で使ってください)

Qwen-ImageのLightningに誤解があったみたい

· 約2分
もみじーな
個人開発者

Qwen-ImageのLightningに誤解があったみたいです。(申し訳・・・)

心なしか同じステップ数で変化があるように見えたのは本当にそう見えただけですねやっぱ

さっき8stepにしても4stepにしても本当にこれ変わってるのかって思って気づきました・・・

20ステップ固定にしているので私の環境だといらなそう・・

Lightningを8stepにして8stepにしても20のほうがやっぱり少し塗り方がきれいになります。

Lightningの4stepで 4stepで画像作ると微妙なのはLoraのせいなのか解像度が高すぎるのか?

4stepの4stepです(使い方が悪いんですかね)

そもそも、Lightningをつけなくても速度が変わらない気がします。
1920x1088の20ステップで48秒くらいです。

Lightningは必要性が不明の為,消してみました。

消しても生成に影響はなさそうです・・・

結局、Lightningの必要性はわからないです。
情報が増えるのを待ちます・・

Qwen-ImageのLora作成方法

· 約3分
もみじーな
個人開発者

一応,メモです。

必要なものと手順

ai-toolkitを使います。
基本的なインストールはGithubを確認してください。
一応以下で問題はないです。

git clone https://github.com/ostris/ai-toolkit.git
cd ai-toolkit
python -m venv venv
.\venv\Scripts\activate
pip install --no-cache-dir torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu126
pip install -r requirements.txt

RTX50シリーズの場合はtorchは以下に置き換えてください(私はRTX5090ですが問題なかったです)

pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128

Lora作成

初回起動

cd ui
npm run build_and_start

一回,buildしたら以下のほうが起動が早いです。

cd ui
npm run start

New Jobでだいたい以下の設定にしてもらえれば動きます(ai-toolkit公式からのおすすめです。)
Cache Text Embeddingsも囲ってないですがオンを推奨です。

おそらくここら辺は詳しいこと書いてくれている方のを見たほうがいいですが
datasetにはai-toolkit内にdatasetsというフォルダがあるのでそこに画像を入れればここに表示されます。
(途中でいれて表示されない場合はブラウザ更新ボタン)

上みたいな感じでフォルダの追加と学習させたい画像を入れておけば問題はないです。
キャプションも必要がない限りは不要です。

Cache Text Embeddingsについて

こちらは公式的にはオン推奨です。

ですがこれをつけるとTrigger Wordなどを入れるとエラーが出るので設定したい人はオフ必須です。
つけないと生成に少し追加で時間がかかります。(2倍くらいになるかも)

学習開始

上記の設定がおわればあとは右上のCreate Jobを押して開始ボタンを押すだけです。
初回は学習に必要なものを自動でダウンロードしますのでかなり時間がかかります。
20から30GBくらいダウンロードしたはず?

ダウンロード後,特に問題がなければ学習が始まります。
3000ステップとして

5090で3時間から4時間(長くても6時間)程度で終了します。

終了後にはOutputに保存されるのであとはいつものLoraファイルと同じでConfyなりにコピーしてもらえれば終了です。

エラーが出る場合

GPUメモリが24あればとりあえずは動くらしいので4090などで1回エラーで終了しても何度か再開すると動いてくれたりします。

最後に

色々学習させてみましたが今のところ問題はなさそうです。
学習できない場合は何か設定が間違っている可能性があります。
夜,寝る前に学習させれば仕事に行く前には絶対おわっています。(RTX5090なら)