访问HuggingFace网站获取所需模型:https://huggingface.co/BAAI/bge-reranker-v2-m3/tree/main
以BAAI/bge-reranker-v2-m3为例,下载“Files and versions”下所有文件。
访问链接https://www.hiascend.com/developer/ascendhub/detail/07a016975cc341f3a5ae131f2b52399d,根据NPU类型下载相应镜像。
docker run -u root -e ASCEND_VISIBLE_DEVICES=1 -itd --name=tei_r --net=host \ -e HOME=/home/HwHiAiUser \ -e TEI_NPU_DEVICE=0 \[可选] --privileged=true \ -v /root/bge-reranker-v2-m3:/home/HwHiAiUser/model/bge-reranker-v2-m3 \ -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \ -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \ --entrypoint /home/HwHiAiUser/start.sh \[可选,一般不加] swr.cn-south-1.myhuaweicloud.com/ascendhub/mis-tei:6.0.0-300I-Duo-aarch64 BAAI/bge-reranker-v2-m3 ip port
以下参数用户可根据实际情况进行配置:
后三项为tei服务所需参数,可参考https://github.com/huggingface/text-embeddings-inference中text-embeddings-router --help一栏。
curl ip:port/rerank \ -X POST \ -d '{"query":"What is Deep Learning?", "texts": ["Deep Learning is not...", "Deep learning is..."]}' \ -H 'Content-Type: application/json'