AIPC应用
import { Card, CardGrid } from ‘@astrojs/starlight/components’;
AIPC 概述
Section titled “AIPC 概述”AIPC(AI PC)是指具备人工智能计算能力的个人电脑。通过集成 NPU(神经网络处理单元)等专用硬件加速器,迷你主机也能成为高效的 AI 计算平台。
- 本地 AI 推理:在本地运行大语言模型,无需联网
- 低延迟响应:本地计算带来毫秒级响应速度
- 隐私保护:数据本地处理,无需上传云端
- 24/7 待命:低功耗特性支持全天候 AI 服务
- 处理器:Intel N100 / N200 或同级
- 内存:16GB DDR4
- 存储:256GB NVMe SSD
- NPU:可选(纯 CPU/GPU 推理)
- 处理器:Intel N305 / AMD Ryzen 7020
- 内存:32GB DDR4/LPDDR5
- 存储:512GB+ NVMe SSD
- NPU:Intel AI Boost / AMD XDNA
- 处理器:Intel Core Ultra / AMD Ryzen 7040
- 内存:32GB+ LPDDR5x
- 存储:1TB+ NVMe SSD (PCIe 4.0)
- NPU:专用 NPU (10+ TOPS)
Deepx 模组支持
Section titled “Deepx 模组支持”Deepx 是一款低功耗 NPU 模组,可方便地安装到迷你主机上,显著提升 AIPC 的 AI 计算能力。
主要特性
- 低功耗设计:典型功耗 5-15W
- 高性能计算:提供 20-40 TOPS 算力
- 即插即用:支持 M.2 / USB 接口
- 广泛兼容:支持 x86 和 ARM 平台
- 灵活扩展:支持多模组并联
技术规格
| 项目 | 规格 |
|---|---|
| 算力 | 20-40 TOPS (INT8) |
| 接口 | M.2 2280 / USB 3.0 |
| 功耗 | 5-15W (可调) |
| 内存 | 4-8GB LPDDR4x |
| 支持框架 | ONNX Runtime, OpenVINO, TensorRT |
| 兼容平台 | Intel N 系列 / AMD Ryzen 7020 / RK3588 |
应用优势
操作系统支持
Section titled “操作系统支持”-
Windows
- Windows 11 23H2+(完整 AI 功能)
- Windows 10(基础支持)
- Copilot+ PC 认证
-
Linux
- Ubuntu 22.04/24.04 LTS
- Arch Linux
- NPU 驱动支持
-
其他
- Android(RK3588 平台)
- ChromeOS Flex
AI 框架与工具
Section titled “AI 框架与工具”| 框架/工具 | 用途 | NPU 支持 | Deepx 支持 |
|---|---|---|---|
| ONNX Runtime | 模型推理 | ✅ | ✅ |
| OpenVINO | Intel 优化 | ✅ | ✅ |
| Olive | 模型优化 | ✅ | ⚠️ |
| Deepx Runtime | Deepx 优化 | ❌ | ✅ |
| llama.cpp | LLM 推理 | ⚠️ | ✅ |
| Ollama | 模型管理 | ⚠️ | ⚠️ |
| Stable Diffusion | 图像生成 | ❌ | ⚠️ |
| PyTorch | 深度学习 | ⚠️ | ⚠️ |
✅ 完全支持 | ⚠️ 部分支持 | ❌ 不支持
案例 1:本地 AI 助手
Section titled “案例 1:本地 AI 助手”使用 Ollama 部署本地 LLM:
# 安装 Ollamacurl -fsSL https://ollama.com/install.sh | sh
# 运行模型ollama run llama2
# API 调用curl http://localhost:11434/api/generate -d '{ "model": "llama2", "prompt": "为什么选择迷你主机?"}'案例 2:AI 图像生成
Section titled “案例 2:AI 图像生成”部署 Stable Diffusion WebUI:
# 克隆仓库git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
# 运行(CPU 模式)./webui.sh --skip-torch-cuda-test --precision full --no-half
# 推荐使用 GPU 加速版本案例 3:智能文档处理
Section titled “案例 3:智能文档处理”使用 LangChain + 本地 LLM:
from langchain_community.llms import Ollamafrom langchain_community.document_loaders import PyPDFLoaderfrom langchain.text_splitter import RecursiveCharacterTextSplitter
# 加载文档loader = PyPDFLoader("document.pdf")documents = loader.load()
# 文档切分text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000)texts = text_splitter.split_documents(documents)
# 本地 LLM 总结llm = Ollama(model="llama2")summary = llm.summarize_documents(texts)案例 4:Deepx 模组加速
Section titled “案例 4:Deepx 模组加速”使用 Deepx 模组加速 LLM 推理:
# 安装 Deepx Runtimegit clone https://github.com/deepx-ai/deepx-runtimecd deepx-runtime./install.sh
# 检测 Deepx 设备deepx-query --list
# 运行优化后的模型deepx-run llama2-7b-q4k.bin \ --device deepx \ --threads 4 \ --batch-size 512性能对比(LLaMA 2 7B):
| 配置 | 推理速度 (tokens/s) | 功耗 (W) |
|---|---|---|
| 纯 CPU (N100) | 3-5 | 15W |
| CPU + Deepx | 25-35 | 20W |
| 性能提升 | 7x | +33% |
# Python API 示例from deepx import DeepxRuntimeimport transformers
# 初始化 Deepx Runtimeruntime = DeepxRuntime(device_id=0)
# 加载优化模型model = transformers.AutoModelForCausalLM.from_pretrained( "llama-2-7b", device_map="deepx")
# 推理output = model.generate( input_ids, max_new_tokens=512, do_sample=True)性能优化建议
Section titled “性能优化建议”-
使用量化工具
- GGML/GGUF 格式
- GPTQ、AWQ 量化
-
启用硬件加速
- OpenVINO(Intel NPU)
- DirectML(Windows)
- ROCm(AMD GPU)
-
批处理优化
- 合理设置 batch size
- 使用连续 batching
迷你主机能运行哪些 AI 模型?
Section titled “迷你主机能运行哪些 AI 模型?”根据配置不同:
- 入门级(N95/N100):7B 参数以下模型
- 性能级(N200/N305):13B 参数以下模型
- 专业级(Ryzen 7020):34B 参数以下模型
NPU 和 GPU 的区别?
Section titled “NPU 和 GPU 的区别?”- NPU:专用 AI 计算,功耗低,适合推理
- GPU:通用并行计算,功耗高,适合训练
- 推荐:轻量级 AI 用 NPU,重度任务用 GPU
如何选择合适的模型?
Section titled “如何选择合适的模型?”考虑因素:
- 内存容量(模型大小)
- 推理速度要求
- 任务复杂度
- 精度要求
Deepx 模组适合哪些场景?
Section titled “Deepx 模组适合哪些场景?”最适合的场景:
- 本地 LLM 推理(7B-34B 模型)
- 计算机视觉任务(目标检测、图像分割)
- 语音识别与合成
- 实时 AI 应用(低延迟要求)
不太适合的场景:
- 大规模模型训练(建议使用云端 GPU)
- 超大规模推理(推荐分布式方案)
- 需要 FP16/FP32 精度的场景
Deepx 与内置 NPU 的区别?
Section titled “Deepx 与内置 NPU 的区别?”| 特性 | Deepx 模组 | 内置 NPU |
|---|---|---|
| 安装 | 模组化,可升级 | 固定在 CPU/主板 |
| 性能 | 20-40 TOPS | 5-15 TOPS |
| 兼容性 | 多平台通用 | 特定 CPU 专有 |
| 成本 | 独立购买 | CPU 内置 |
| 灵活性 | 高(可更换) | 低 |
- Ollama 官网:https://ollama.com
- LM Studio:https://lmstudio.ai
- OpenVINO 工具包:https://docs.openvino.ai
- Deepx 官网:https://deepx.ai
- Deepx GitHub:https://github.com/deepx-ai
- Hugging Face:https://huggingface.co/models
- GitHub Awesome AI PC:精选 AI PC 工具列表