Back to Blog home

抢先体验:探索 Qt AI Inference API(概念验证)

Published on 星期四 八月 28, 2025 by Qt Group中国 in Automation Artificial Intelligence AI | Comments

行业洞察系列博客

 

QT IA Machine Vision_final_small_v002

 

MicheleRossi
Michele Rossi

Qt Group行业总监

Tommi Mänttäri-1
Tommi Mänttäri

高级研发经理

 

 

在 Qt Group 的2025黑客马拉松活动中,我们的开发人员进行了创新实验。他们构建了一个概念验证,我们称之为 Qt AI Inference API (PoC),这个工具旨在简化 AI 与 QML 及 C++应用程序的集成。

通过本篇博客,我们将为您独家揭秘未来可能推出的产品。 此次早期预览旨在探索各种可能性,并收集开发人员社区和行业合作伙伴宝贵的反馈意见。

工业自动化领域的 AI 革命

2024年思科公司研究表明41%的企业计划在未来两年内优先投资 AI 技术。这反映出明确的行业趋势:AI 正成为工业自动化的核心组成部分,不再只是实验性技术,而是生产力、效率和创新的根本驱动力。

然而,将 AI 集成到工业环境中并非没有挑战。从硬件限制到分散的 AI 框架,企业难以在不同平台上高效部署 AI 模型。此外,市场对机器人技术和工业应用领域的开拓性创新越来越感兴趣,这些领域需要多个模型在流程中无缝交互。

AI 在工业自动化领域的应用不仅仅是渐进式的改进。而是要从根本上提高生产力和效率。

观看点播网络研讨会:加速工业人工智能应用

突破可能性的边界

在众多改变行业的应用中,边缘 AI 正成为颠覆性技术 ,它可以在计算能力有限的设备上实现实时决策。

然而,与传统的云端 AI 相比,在边缘部署 AI 带来了一系列独特的技术挑战,包括:

  • 计算能力有限:嵌入式设备缺乏云服务器的原始处理能力。针对这些环境优化 AI 模型至关重要。

  • 能耗问题:电池供电的设备上运行 AI 模型会导致过度耗电。

  • 实时处理需求:工业自动化要求 AI 模型即时响应,延迟是不可接受的

  • 网络安全风险:将敏感的工业数据传输到云端会引发安全问题。

克服这些制约因素对于充分释放边缘 AI 在工业应用中的潜力至关重要。

在某些情况下,云端安全性不足。本地 AI处理可提供更好的安全性,但也存在硬件限制。

当前 AI 领域现状:碎片化的“狂野西部”

开发者必须应对数量庞大的框架选择,从 TensorFlow、PyTorch、ONNX 到各厂商特定的 AI 工具包(如 NVIDIA、Intel、Qualcomm 等)——每个框架都有自己的API、部署模型、SDK 和硬件要求。持续跟进快速变化的 API 和技术更是难上加难。这种现状不仅需要投入大量时间学习,通常还需要具备 AI 专业人员的专业技能,而这类人才往往难以寻觅。

对于许多应用程序开发人员来说,他们关注的并非底层 AI 框架或模型,而是需要能够将语音转文字、生成文本转语音、利用最新语言模型或在图像视频中进行对象识别的稳健解决方案——所有这些功能都需要全面且无缝地集成。

形势因快速变化而更加复杂,企业面临两难抉择:是继续使用过时技术,还是投入资源跟上日新月异的 AI 发展浪潮。

观看点播网络研讨会:人工智能、机器人技术和智能制造的未来

基于 Qt 构建的一体化 AI 解决方案

想象一下,集成 AI 并不意味着要编写数千行适配器代码。 基于 Qt 构建的 AI 一体化解决方案无缝集成多种 AI 模型到跨平台流程中,利用 Qt Multimedia 和 Qt AI Inference API 简化媒体处理和进程间通信,同时通过声明式的 QML 接口实现直观的应用逻辑和 UI 行为。

借助 Qt AI Inference API(PoC),开发人员可以利用以下优势:

  • 核心能力:在统一的框架内集成 ASR(Whisper)、LLMs (Ollama)和 TTS (Piper)。

  • 统一 API 支持多种 AI 框架:无需编写特定供应商代码。

  • 无缝集成 QML 和 C++:只需几行代码即可接入 AI 模型。

  • 轻松切换 AI 模型:只需调整 Qt QML 应用程序中的一个参数,即可更换模型(例如切换到DeepSeek)。

  • 本地或云端 AI 部署模型:以最小的工作量实现简化部署。

  • 灵活的 AI 管道:轻松组合多个 AI 模型/解决方案(如语音识别+文本转语音)。

  • 后台插件系统:支持专有和开源 AI 解决方案。

开发人员无需担心 AI 模型是否需要 REST API、Python 绑定或 C++ 库,因为 Qt AI Inference API (PoC) 将所有这些都整合为统一接口。

 

 

Typical ways to create an AI pipeline (3)

图片1.创建 AI 管道的典型方法

 

图片1说明 - 阅读更多

 

 

AI 应用程序

数天到几分钟

Image

 

图片 2.Qt 如何优化 AI 处理流程 

 

图片2说明 - 阅读更多

 

 

Qt AI Inference API (PoC) - Architecture Illustration (1)图片 3.Qt AI Inference API (PoC)--架构示意图

 

图片3说明 - 阅读更多

 

无缝 AI 集成,简化开发

该原型可在 Windows、Linux 甚至 NVIDIA Jetson 等嵌入式平台上构建。

结果显而易见:通过整合各种 AI 框架的复杂性,开发人员节省了大量时间,只需几分钟就能部署 AI 模型。Qt in the middle of AI frameworks

这种灵活性不仅使 AI 专家受益,也有利于建立内部 AI 模型的公司。他们不再需要掌握特定厂商的 AI 框架--Qt AI Inference API (PoC)  已为他们处理了这些复杂性

这样间接为自主构建模型的企业提供了价值。现在他们无需为了最大化硬件性能而学习每家厂商的 AI 系统。

期待您的反馈

 我们很高兴分享 Qt AI Inference API (PoC) 资源库及其示例应用的代码库,这些工具旨在显著加速边缘 AI 应用的开发进程。诚邀您试用该 API,亲身体验它如何简化您的开发流程并为项目提供面向未来的保障。

示例应用程序(QuteAI)

Qt AI Inference API (Poc)


Qt AI Inference API (PoC) Blog - Screenshots Combined-1


非常欢迎各位对这些资源提出反馈意见!

 

如果您是从事 AI 开发的开发者或行业领导者,或者我们的产品有助于您的项目,请随时联系我们,探索 Qt AI Inference API (PoC) 并为工业自动化开启新的可能性。

 

了解更多关于Qt在工业自动化中的应用

 

 

Subscribe to Our Blog

Stay up to date with the latest marketing, sales and service tips and news.