这个项目基于 Colab Notebook,提供 m3e-base
的类 OpenAI 的 API 调用,支持在 CPU/GPU 环境下运行,可以通过 Docker 部署。
以下指南假设你已经安装了 Docker 和 Docker Compose。如果使用 CUDA,还需要安装 NVIDIA Container Toolkit (安装指南)。
-
克隆仓库
git clone https://github.com/zzlphysics/m3e-base-api.git cd m3e-base-api
-
构建 Docker 镜像
docker build -t m3e-base-api .
或者使用 Docker Compose:
docker-compose up --build
-
运行容器
直接使用 Docker:
docker run -d -p 6000:6000 -e PORT=6000 -e DEVICE=cpu m3e-base-api
或
docker run -d -p 6000:6000 -e PORT=6000 -e DEVICE=cuda --gpus all m3e-base-api
或者使用 Docker Compose:
docker-compose up
发送 POST 请求到 /v1/embeddings
,包含 JSON 格式的文本数据:
curl -X POST http://localhost:6000/v1/embeddings \
-H "Content-Type: application/json" \
-d '{"input": "Hello, world!"}'
PORT
:Flask 服务监听的端口(默认为 6000)。DEVICE
:用于运行模型的设备,可以是cpu
或cuda
(默认为cpu
)。
在 docker-compose.yml
文件中,你可以修改服务设置,包括端口映射和环境变量。