使用以下方法之一安装
- 在comfyui管理器中搜索comfyui_LLM_party,一键安装,无需配置环境,可以跳过第2步环境部署,推荐!当然有时候管理器会抽风,安装不了依赖,你还是可以学习一下第2步的环境部署方法。
- 重启comfyui
- 导航到 ComfyUI 根文件夹中下的custom_nodes子文件夹
- 使用克隆此存储库。git clone https://github.com/heshengtao/comfyui_LLM_party.git
- 需要执行第2步环境部署
- 点击右上角的CODE
- 点击download zip
- 需要执行第2步环境部署
- 将下载的压缩包解压到ComfyUI 根文件夹中下的custom_nodes子文件夹中
- 导航到comfyui_LLM_party的项目文件夹
- 在终端输入pip install -r requirements.txt将本项目需要的第三方库部署到comfyui的环境中。请注意你是否在comfyui的虚拟环境进行安装,并关注终端中的pip报错
- 如果你是用的comfyui Windows原版一键包,先到comfyui_LLM_party的项目文件夹,右键打开终端,你需要在终端中输入 ComfyUI_windows_portable文件夹的绝对路径\python_embeded\python.exe -m pip install -r requirements.txt进行安装。ComfyUI_windows_portable文件夹的绝对路径就是你一键包解压后的总文件夹的绝对路径。
- 如果你是用的铁锅炖启动器,先到comfyui_LLM_party的项目文件夹,右键打开终端,你需要在终端中输入 Blender_ComfyUI_Mini文件夹的绝对路径\python_embeded\python.exe -m pip install -r requirements.txt进行安装。在铁锅炖启动器中,python_embeded文件夹一般与你的ComfyUI文件夹同级。
- 如果你是用的秋叶启动器,先到comfyui_LLM_party的项目文件夹,右键打开终端,你需要在终端中输入 ComfyUI-aki文件夹的绝对路径\python\python.exe -m pip install -r requirements.txt进行安装。 ComfyUI-aki文件夹的绝对路径就是有启动器exe文件的那个文件夹的绝对路径。
- 如果你出现了一些环境配置问题,可以尝试使用requirements_fixed.txt中的依赖。
- 可以在config.ini中配置语言,目前只有中文(zh_CN)和英文(en_US)两种,默认为你的系统语言。
- 可以使用以下方法之一配置APIKEY
- 打开comfyui_LLM_party的项目文件夹下的config.ini文件。
- 在config.ini输入你的openai_api_key、base_url。可以填入中转API,只要是openai格式即可。填入后,你可以使用简易API LLM 加载器节点,自动获取这个base_url内的所有模型名称列表,你只需要选择即可。
- 如果你使用ollama模型,在base_url填入http://127.0.0.1:11434/v1/,在openai_api_key填入ollama,在model_name填入你的模型名称,例如:llama3。豆包模型为你的豆包接入点ID。
- 如果你要使用谷歌搜索或者必应搜索工具,在config.ini输入你的google_api_key、cse_id或bing_api_key。
- 如果你要使用图片输入LLM,推荐使用图床imgbb,在config.ini输入你的imgbb_api。
- 每个模型都可以在config.ini文件中单独配置,可以参考config.ini.example文件填写。当你配置好之后,只需要在节点上输入model_name即可。参考这样的写法,[]中写你想要调用的模型名称,例如:gpt-4o-mini,并在[]下按下图中的写法填入你的base url和api key。之后你可以直接在LLM API加载器节点上,只输入模型名称,base url和api key保持为空,即可自动调用config.ini中的预设base url和api key。
- 如果你在config.ini文件中单独配置很多模型,需要从config.ini文件中获取模型列表可以使用下面这个节点。
- 打开comfyui界面。
- 新建LLM API 加载器节点,在节点中直接输入你的model_name(填入模型名称,例如:llama3。豆包模型为你的豆包接入点ID)、openai_api_key、base_url。
- 如果你使用ollama模型,请使用LLM_api节点,在节点的base_url填入http://127.0.0.1:11434/v1/,在api_key填入ollama,在model_name填入你的模型名称,例如:llama3。或者直接打开LLM API加载器节点上的is_ollama再填入model_name即可
- 如果你要使用图片输入LLM,推荐使用图床imgbb,在节点上输入你的imgbb_api_key。下图为查看imgbb_api_key的位置。
恭喜你达成成就:【欢迎加入派对~我的朋友!】