好用的开源LLMOps工具 #56
Valdanitooooo
started this conversation in
General
Replies: 1 comment
-
xinference 用起来不错 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
FastChat
https://github.com/lm-sys/FastChat
FastChat是一个用于训练、服务和评估基于大型语言模型的聊天机器人的开放平台。
FastChat的核心功能包括:
vllm
https://github.com/vllm-project/vllm
用于LLM的高吞吐量、高效内存的推理和服务引擎
text- generation-webui
https://github.com/oobabooga/text-generation-webui
用于大型语言模型的Gradio Web UI。支持transformers, GPTQ, AWQ, EXL2, llama.cpp (GGUF), Llama。
llama.cpp
https://github.com/ggerganov/llama.cpp
LLM inference in C/C++
LiteLLM
https://github.com/BerriAI/litellm
使用相同的输入/输出格式调用100+个LLM
completion
,embedding
和image_generation
端点['choices'][0]['message']['content']
中可用Ollama
https://github.com/ollama/ollama
在本地启动并运行大型语言模型。
Open WebUI (Formerly Ollama WebUI)
https://github.com/open-webui/open-webui
针对 LLM 的用户友好的 WebUI,支持的 LLM 运行程序包括 Ollama 和 OpenAI 兼容的 API。有关更多信息,请查看Open WebUI Documentation。
langchain
https://github.com/langchain-ai/langchain
构建上下文感知推理应用程序
llama_index
https://github.com/run-llama/llama_index
LlamaIndex是LLM应用程序的数据框架
Gradio
https://github.com/gradio-app/gradio
Gradio:用Python构建机器学习Web应用程序
Gradio是一个开源Python包,允许您为机器学习模型、API或任何任意Python函数快速构建演示或web应用程序。然后,您可以使用Gradio的内置共享功能,在几秒钟内共享演示或web应用程序的链接。无需JavaScript、CSS或网络托管经验!
其他
经验
Beta Was this translation helpful? Give feedback.
All reactions