Skip to content

wizardAEI/Gomoon

Folders and files

NameName
Last commit message
Last commit date

Latest commit

ca05236 · Mar 18, 2025
Aug 19, 2024
Dec 13, 2023
Mar 18, 2025
Nov 20, 2023
Nov 20, 2023
Mar 27, 2024
May 23, 2024
Aug 1, 2024
Aug 1, 2024
Nov 20, 2023
Nov 20, 2023
Nov 26, 2023
Mar 6, 2025
May 23, 2024
May 23, 2024
Mar 27, 2024
Mar 18, 2025
Dec 5, 2023
Sep 14, 2024
Dec 26, 2023
Jan 21, 2024
Jan 22, 2024
Mar 6, 2025

Repository files navigation

Gomoon

Gomoon 是一款桌面端的大模型效率工具。

介绍

Gomoon预览

要使用 Gomoon,你只需要在 Gomoon 上配置好你的模型引擎,就可以快速让你的助手帮你回答问题,提高工作和学习效率。又或者...只是给你讲个笑话😋。

它同时支持:

  • 创建属于自己的助手,选择多种大模型引擎(支持实时切换)
  • 快速问答和连续的对话以及存取对话历史
  • 对话可以复制,暂停 ⏸,以及重新生成,方便你的使用。更厉害的是你还可以直接编辑答案,让后续的对话更加的智能
  • 快速唤起,快捷键,置顶等功能,例如你可以使用 Ctrl + G 快速唤起 Gomoon,双击复制(Command + C +C)快速问答
  • 发送文件,图片和URL解析,联网查询,朗读等快捷功能
  • 使用记忆胶囊储存你的本地知识库,更加安全可靠,最重要的是完全免费
  • 下载对话记录,助手一键导入导出, 把你觉得实用的助手分享给你的朋友
  • 在 Gomoon 划选一段文本,可以快速进行查找和朗读
  • 在任何地方滑选字段后,可以使用召唤 Gomoon 快捷键快速将选中字段粘贴到输入框内
  • 合集功能,用来记单词,记知识点,整理方案,等等!

更多实用的功能可以询问 Gomoon 中自带的『Gomoon使用指南』 记忆胶囊来探索!

已支持的模型

模型类型 模型名称
ChatGPT GPT4 Mini,GPT4-o,支持 OpenAI API 模式的模型
文心 文心3.5,文心4.0,文心128k
DeepSeek DeepSeek V3 和 DeepSeek R1
千问 千问Turbo,千问Plus,千问Max
Gemini Gemini Pro 和 Gemini 自定义模型
Kimi Kimi 8k,Kimi 32k,Kimi 128k
Llama node-llama-cpp 支持的所有模型
Ollama ollama 支持的所有模型
Claude Claude 最新的 Haiku,Opus,Sonnet 模型
自定义模型 任何支持 OpenAI 接口的模型,如DeepSeek,豆包,Kimi,讯飞星火等

由于 ChatGPT 国内访问不易,这里推荐一下 ChatAnywhere,价格十分实惠的国内 ChatGPT 提供商。

安装指南

官网下载地址

Tips:mac 用户由于没有上架 mac 应用市场,需要在『访达→应用』中找到 Gomoon 右键打开并二次确认才可以使用。『Command + C +C 双击复制』和『发送文件』功能需要用户允许 Gomoon 的权限请求,并且重启应用。

灵感来源

lucy

使用过很多大模型应用,但是他们总是局限于一个网页端,我想让他离我近一些,更好用一些。

寻找了很多应用,我还是没有找到适合自己的,于是我选择做一个。Gomoon 就诞生了。

Gomoon 的名字来源于 赛博朋克:边缘行者 的中 Lucy 的愿望:『去月球』。希望 Gomoon 能够帮助你去往那颗属于自己的月球。

交流

如果你有任何问题或者想交流一下使用体验,分享自己的助手,欢迎加入QQ群:758015092(后续 Gomoon 更新通知也会发布在群内)。

鸣谢

感谢以下开发者的支持:

贡献者 贡献内容
e9ab98e991ab 协助完成 mac 端 x86_64 架构的适配
zhengxs2018 支持通义千问模型

自部署指南

node 版本要求:v20.11.1 及以上 (开启Corepack,终端执行:corepack enable ) yarn 版本要求:v1.2.22 (终端执行: yarn

安装过程中会出现 prebuild-install 时间过长的情况,原因是安装会去 github 拉取文件,解决:暂时设置终端代理: export https_proxy=http://127.0.0.1:7890 http_proxy=http://127.0.0.1:7890 all_proxy=socks5://127.0.0.1:7890(其中端口 7890 根据实际情况更换)

由于仓库大小限制,默认的资源没有上传到 Github,开发者可以在本地安装的 Gomoon 中找到 resources文件夹(mac用户可以通过 Finder,右键点击应用,选择“显示包内容”来浏览到 Contents目录,resource文件夹存储于 Contents/Resource/app.asar.unpacked/resources; windows系统中,这个路径通常是在用户数据资源内,例如 C:\Users\Lenovo\AppData\Local\Programs\gomoon\resources\app.asar.unpacked\resources),将里面的资源文件复制到项目根目录的 resources文件夹中。

resources 文件夹结构如下:

resources/
├── assistants.json # 默认助手配置文件
├── eventTracker # 事件追踪文件,根据系统不同也可能为 `eventTracker.exe` 或者 `eventTracker-x86`
├── icon.png # 应用图标
├── icon@20.png # 应用图标
├── lines.json # 默认标题栏配置文件
├── memories.json # 默认记忆文件
└── models # 模型配置文件
    └── Xenova
        └── jina-embeddings-v2-base-zh
            └── ....

同时也可以使用云盘下载

后续就可以正常启动项目进行开发了。

llama-cpp 支持 CUDA(NVIDIA 显卡调用)

  1. 确保你的显卡支持 CUDA,并且已经安装了 CUDA 驱动和 CUDA Toolkit(版本12以上)
  2. 克隆该项目,获取 resource 文件,并放在项目根目录
  3. 在根目录执行 yarn(确保电脑已经安装 node 和 全局依赖 yarn),安装项目所需依赖
  4. 在根目录执行 npx --no node-llama-cpp download --cuda 安装 node-llama-cpp CUDA 支持依赖
  5. 如需修改显卡使用大小,可以修改 src/lib/utils.tsChatLlamaCppgpuLayers参数
  6. 执行 yarn dev 测试效果没有问题后,执行 yarn build 打包项目,在 dist 目录可以看到 setup.exe 软件安装文件

相关介绍

八个月后,我终于做出了自己满意的大模型工具

一键本地使用上百款开源大模型,不挑配置,2分钟学会!