Skip to content

Commit b002f88

Browse files
author
digoal
committed
improve
1 parent 94ab7b3 commit b002f88

File tree

1 file changed

+1
-1
lines changed

1 file changed

+1
-1
lines changed

202407/20240731_02.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -43,7 +43,7 @@ ollama文档中关于llm参数的介绍非常的详细
4343
| num_ctx | 生成下一个token时, 在已生成内容中, 从当前位置回顾上下文窗口的token数。 (Default: 2048) | int | num_ctx 4096 |
4444
| repeat_last_n | 模型回溯多远(上下文窗口)以防止生成重复token。 (Default: 64, 0 = disabled, -1 = num_ctx) | int | repeat_last_n 64 |
4545
| repeat_penalty | 对生成重复token的惩罚力度。较高的值(例如 1.5)将对重复的惩罚力度更大,而较低的值(例如 0.9)将更宽松。(默认值:1.1) | float | repeat_penalty 1.1 |
46-
| temperature | 模型的温度。增加温度将使模型的回答更具创意(开放), 适合需要创意的工作例如写作. 更低的温度使得回答更加精准, 适合有标准答案的场景(例如产品手册助手)。 (Default: 0.8) | float | temperature 0.7 |
46+
| temperature | 模型的温度。头脑发热原来是这么解释的. 增加温度将使模型的回答更具创意(开放), 适合需要创意的工作例如写作. 更低的温度使得回答更加精准, 适合有标准答案的场景(例如产品手册助手)。 (Default: 0.8) | float | temperature 0.7 |
4747
| seed | 设置用于生成的随机数种子。将其设置为特定数字将使模型针对同一提示生成相同的文本。(默认值:0) | int | seed 42 |
4848
| stop | 设置停止词。遇到此停止词时,LLM 将停止生成文本并返回。可以通过`stop``modelfile`中定义多个单独的停止词。 (生成文本的过程中,遇到stop设定的词则停止. 例如你把stop设置为"的"字, 可能很容易就停止输出, 因为“的”字使用频率非常高. ) | string | stop "AI assistant:" |
4949
| tfs_z | 减少输出中 “可能性较小的token” 的影响 (对不关键信息的减权, 例如生成token参考的上下文中的不关键信息)。较高的值(例如 2.0)将进一步减少影响,而值 1.0 则禁用此设置。 | float | tfs_z 1 |

0 commit comments

Comments
 (0)