現代のソフトウェア開発では、効率的な国際化(i18n)ワークフローが求められており、翻訳のボトルネックは製品のデリバリーを大幅に遅らせる可能性があります。Qt 6.11 では、Qt Linguist に AI 翻訳を導入します。これは、ローカルの大規模言語モデル(LLM)を活用して、アプリケーションの文字列の翻訳を自動生成する強力な新機能です。
手動翻訳の課題
Qt Linguistは、Qtアプリケーションの翻訳を管理するためのツールとして長い間使われてきました。 しかし、翻訳ワークフローには、AI支援によって解決できる現実的な課題がいくつかあります。 プロの翻訳者は、ゼロから翻訳するのではなく、AIが生成した翻訳をレビューすることで、作業負荷を軽減することができます。 これは、オープンソースプロジェクトにとって特に有益です。 既存の翻訳をレビューするボランティアを募集することは、ゼロから翻訳してくれる貢献者を見つけるよりも現実的です。
さらに、AI翻訳は、設計段階でテキストの長さのバリエーションを即座にフィードバックします。 これは、開発者がUIの異なる言語間の文字列に適切なスペースを割り当てるのに役立ちます。
AI翻訳の登場
新しいAI翻訳機能は、Ollamaを通じてローカルのLLMサーバーと直接統合することで、これらの課題に対処します:
仕組み
このシステムは、関連する文字列をコンテキストと開発者コメントでグループ化し、プロフェッショナルなソフトウェア翻訳に特化したプロンプトを生成します。システムは、次のような重要なUI要素を保持します。
使い方
Ollamaのセットアップ
$ ollama pull 7shi/llama-translate:8b-q4_K_M
$ ollama serve
Qt LinguistでAI翻訳の利用
推奨モデル
テストに基づいて、以下のモデルをお勧めします。
Ollamaで利用可能な他のモデルを自由に試して、特定の言語や翻訳要件に最適なものを見つけてください。
高度な機能
バッチ翻訳
翻訳エンジンは、文脈とラベルに基づいて文字列をグループ化し、関連するUI要素が一貫して翻訳されるようにします。文脈とオプションのコメントも考慮に入れられ、LLMに送信されます。この文脈を認識するアプローチにより、個々の文字列を単独で処理する場合よりも、より一貫性のある翻訳が生成されます。
アプリケーションのコンテキスト
翻訳コンテキストとオプションのコメントに関する既存の情報に加えて、Linguistは、アプリケーション全体とその目的に関するさらに広いコンテキストを提供することができます。これは、大規模なLLMがアプリケーションが何をするのかを知り、その目的のために翻訳を調整するのに役立ちます。
再試行ロジックとエラー処理
本システムには、堅牢なエラー処理機能が含まれております。具体的には、自動再試行ロジック(バッチごとに最大3回まで)、Harmony(会話型・指示順守モデル)とフォーマット済みモデル(厳密なスキーマ準拠出力を生成する制約付き)間の自動フォールバック、返却されるソース→翻訳マップにおけるファジーマッチング、ならびにAIサービスが利用不可時の段階的な機能低下(グレースフルディグラデーション)が実装されております。
モデルの柔軟性
Ollamaインテグレーションは、お客様のシステムで利用可能なモデルを自動的に検出し、様々なLLMを試して、お客様の特定のニーズに最適な速度、精度、リソース使用量のバランスを見つけることができます。
プライバシーとセキュリティ
AI翻訳機能の主な利点の1つは、すべての処理がお客様のマシン上でローカルに行われることです。ソース文字列が開発環境から離れることはなく、 クラウドベースの翻訳サービスで一般的なプライバシーとセキュリティの懸念に対応します 。
結論
Qt Linguist 6.11 の AI 翻訳機能は、現代的な言語モデルの力を開発ワークフローに直接組み込み、プロの開発チームが求めるプライバシーと制御を維持しながら、より迅速な反復サイクルを実現します。
新規アプリケーションのプロトタイピング、国際化インフラのテスト、翻訳ワークフローの加速など、あらゆる場面でAI翻訳はQt開発ツールキットに強力な新機能を提供します。
本機能はQt Linguistバージョン6.11以降でご利用いただけます。次回のプロジェクトでぜひお試しいただき、Qtフォーラムまたはバグ報告システムを通じてご意見をお聞かせください。