Skip to content

AIPC应用

import { Card, CardGrid } from ‘@astrojs/starlight/components’;

AIPC(AI PC)是指具备人工智能计算能力的个人电脑。通过集成 NPU(神经网络处理单元)等专用硬件加速器,迷你主机也能成为高效的 AI 计算平台。

  • 本地 AI 推理:在本地运行大语言模型,无需联网
  • 低延迟响应:本地计算带来毫秒级响应速度
  • 隐私保护:数据本地处理,无需上传云端
  • 24/7 待命:低功耗特性支持全天候 AI 服务
本地运行 LLaMA、ChatGLM 等大语言模型 - 智能对话助手 - 代码助手 - 文档总结 - 翻译服务 图像生成与编辑 AI 应用 - Stable Diffusion - 图像风格迁移 - AI 绘画 - 视频生成 提升办公效率的 AI 工具 - 会议纪要生成 - 文档自动撰写 - 智能搜索 - 邮件分类 面向开发者的 AI 辅助 - 代码补全 - Bug 诊断 - 代码审查 - 自动化测试
  • 处理器:Intel N100 / N200 或同级
  • 内存:16GB DDR4
  • 存储:256GB NVMe SSD
  • NPU:可选(纯 CPU/GPU 推理)
  • 处理器:Intel N305 / AMD Ryzen 7020
  • 内存:32GB DDR4/LPDDR5
  • 存储:512GB+ NVMe SSD
  • NPU:Intel AI Boost / AMD XDNA
  • 处理器:Intel Core Ultra / AMD Ryzen 7040
  • 内存:32GB+ LPDDR5x
  • 存储:1TB+ NVMe SSD (PCIe 4.0)
  • NPU:专用 NPU (10+ TOPS)

Deepx 是一款低功耗 NPU 模组,可方便地安装到迷你主机上,显著提升 AIPC 的 AI 计算能力。

主要特性

  • 低功耗设计:典型功耗 5-15W
  • 高性能计算:提供 20-40 TOPS 算力
  • 即插即用:支持 M.2 / USB 接口
  • 广泛兼容:支持 x86 和 ARM 平台
  • 灵活扩展:支持多模组并联

技术规格

项目规格
算力20-40 TOPS (INT8)
接口M.2 2280 / USB 3.0
功耗5-15W (可调)
内存4-8GB LPDDR4x
支持框架ONNX Runtime, OpenVINO, TensorRT
兼容平台Intel N 系列 / AMD Ryzen 7020 / RK3588

应用优势

  • Windows

    • Windows 11 23H2+(完整 AI 功能)
    • Windows 10(基础支持)
    • Copilot+ PC 认证
  • Linux

    • Ubuntu 22.04/24.04 LTS
    • Arch Linux
    • NPU 驱动支持
  • 其他

    • Android(RK3588 平台)
    • ChromeOS Flex
框架/工具用途NPU 支持Deepx 支持
ONNX Runtime模型推理
OpenVINOIntel 优化
Olive模型优化⚠️
Deepx RuntimeDeepx 优化
llama.cppLLM 推理⚠️
Ollama模型管理⚠️⚠️
Stable Diffusion图像生成⚠️
PyTorch深度学习⚠️⚠️

✅ 完全支持 | ⚠️ 部分支持 | ❌ 不支持

使用 Ollama 部署本地 LLM:

Terminal window
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 运行模型
ollama run llama2
# API 调用
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "为什么选择迷你主机?"
}'

部署 Stable Diffusion WebUI:

Terminal window
# 克隆仓库
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
# 运行(CPU 模式)
./webui.sh --skip-torch-cuda-test --precision full --no-half
# 推荐使用 GPU 加速版本

使用 LangChain + 本地 LLM:

from langchain_community.llms import Ollama
from langchain_community.document_loaders import PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
# 加载文档
loader = PyPDFLoader("document.pdf")
documents = loader.load()
# 文档切分
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
texts = text_splitter.split_documents(documents)
# 本地 LLM 总结
llm = Ollama(model="llama2")
summary = llm.summarize_documents(texts)

使用 Deepx 模组加速 LLM 推理:

Terminal window
# 安装 Deepx Runtime
git clone https://github.com/deepx-ai/deepx-runtime
cd deepx-runtime
./install.sh
# 检测 Deepx 设备
deepx-query --list
# 运行优化后的模型
deepx-run llama2-7b-q4k.bin \
--device deepx \
--threads 4 \
--batch-size 512

性能对比(LLaMA 2 7B):

配置推理速度 (tokens/s)功耗 (W)
纯 CPU (N100)3-515W
CPU + Deepx25-3520W
性能提升7x+33%
# Python API 示例
from deepx import DeepxRuntime
import transformers
# 初始化 Deepx Runtime
runtime = DeepxRuntime(device_id=0)
# 加载优化模型
model = transformers.AutoModelForCausalLM.from_pretrained(
"llama-2-7b",
device_map="deepx"
)
# 推理
output = model.generate(
input_ids,
max_new_tokens=512,
do_sample=True
)
  1. 使用量化工具

    • GGML/GGUF 格式
    • GPTQ、AWQ 量化
  2. 启用硬件加速

    • OpenVINO(Intel NPU)
    • DirectML(Windows)
    • ROCm(AMD GPU)
  3. 批处理优化

    • 合理设置 batch size
    • 使用连续 batching

根据配置不同:

  • 入门级(N95/N100):7B 参数以下模型
  • 性能级(N200/N305):13B 参数以下模型
  • 专业级(Ryzen 7020):34B 参数以下模型
  • NPU:专用 AI 计算,功耗低,适合推理
  • GPU:通用并行计算,功耗高,适合训练
  • 推荐:轻量级 AI 用 NPU,重度任务用 GPU

考虑因素:

  • 内存容量(模型大小)
  • 推理速度要求
  • 任务复杂度
  • 精度要求

最适合的场景

  • 本地 LLM 推理(7B-34B 模型)
  • 计算机视觉任务(目标检测、图像分割)
  • 语音识别与合成
  • 实时 AI 应用(低延迟要求)

不太适合的场景

  • 大规模模型训练(建议使用云端 GPU)
  • 超大规模推理(推荐分布式方案)
  • 需要 FP16/FP32 精度的场景
特性Deepx 模组内置 NPU
安装模组化,可升级固定在 CPU/主板
性能20-40 TOPS5-15 TOPS
兼容性多平台通用特定 CPU 专有
成本独立购买CPU 内置
灵活性高(可更换)