Qwen3-embedding-0.6B 使用指南
本项目基于 ai-engine-direct-helper (QAI_AppBuilder)
https://github.com/quic/ai-engine-direct-helper.git
模型下载地址 (包含对应的上下文二进制文件)
https://www.aidevhome.com/?id=51
简介
本文档旨在为开发者提供部署和使用 Qwen3-embedding-0.6B 模型进行文本嵌入与相关性判定的详细操作指南。文档涵盖了在 Windows 平台与 Android 平台上的环境配置、模型下载、依赖安装及最终的推理测试流程。
一、 Windows 平台使用
1.1 安装 Python 3.12 AMD 版本
在运行模型前,首先需要安装兼容的 Python 环境。请确保下载并安装 Python 3.12 的 AMD64 (Windows x86-64) 版本。
提示: 安装 Python 时,请务必勾选 Add Python to PATH 选项,以便在命令行中能够直接调用 Python 及 pip 命令。
1.2 下载并解压模型
获取 Qwen3-embeding-0.6B 模型文件后,请先将压缩包解压到您指定的本地工作目录。解压完成后,打开命令提示符(CMD)或 PowerShell,并使用 cd 命令切换到该模型目录下。
cd /d 您的模型解压目录路径
1.3 安装环境并验证
1.3.1 安装环境
在已进入的模型目录中,请依次运行以下命令来安装相关的运行时依赖。建议先安装 QAI AppBuilder 的底层库,然后再安装其余的环境依赖。
1.3.2 进行测试
环境配置完成后,您可以通过运行演示脚本来验证嵌入模型是否工作正常。
执行测试命令:
python qwen3_embedding_qnn.py
二、 安卓平台使用
2.1 下载模型
每个压缩包下面包括模型、后端库、以及java文件,以及QNN示例推理
上传文件:将 解压后文件上传到设备,配置环境。
adb push qwen3-embeding-8750-2.38 /data/local/tmp cd /data/local/tmp/qwen3-embeding-8750-2.38/qai_libs export LD_LIBRARY_PATH=$PWD export ADSP_LIBRARY_PATH=$PWD cd .. chmod +x qnn-net-run
执行推理。
./qnn-net-run --retrieve_context qnn_bianry_qwen3_embedding_1_of_1_quantized.serialized.bin --input_list input_list_qwen3_embedding_1_of_1.txt --output_dir outputdir --backend libQnnHtp.so --config_file HtpConfigFile_API.json --log_level error
2.2 项目编译
注意: 整体的编译后端库流程,请查看项目代码目录:ai-engine-direct-helper-main\samples\android
2.2.1 模型前处理和后处理
基于 Java 的模型前处理和后处理流程封装在压缩包的 Qwen3EmbeddingProcessor.java 文件中,典型调用方式如下:
2.2.2 模型调用推理
在 JNI 层,使用 C++ 进行模型初始化与推理的核心代码示例如下:
