~nickwinston123/armagetronad/arma_chatbot_config

« back to all changes in this revision

Viewing changes to ollama_chat/config/options.ini

  • Committer: hackermans
  • Date: 2025-05-28 18:34:25 UTC
  • Revision ID: nickwinston123@gmail.com-20250528183425-z5cssgt5eeqyqox3

consolidated arma chatbot config programs

- arma_terminal: live console viewer with input passthrough
- game_manager: manages bans, IP rotation, and keeping the game open
- game_updater: syncs updated game files from shared folder
- ollama_chat: ai chatbot 

- launcher: launches all not already opened programs with positioning and window checks

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# https://github.com/jmorganca/ollama/blob/main/docs/modelfile.md#valid-parameters-and-values
 
2
 
 
3
# Maximum number of tokens to predict when generating text. (Default: 128, -1 = infinite generation, -2 = fill context)
 
4
# num_predict 42
 
5
num_predict = 64
 
6
 
 
7
# Reduces the probability of generating nonsense. A higher value (e.g. 100) will give more diverse answers, 
 
8
# while a lower value (e.g. 10) will be more conservative. (Default: 40)
 
9
# top_k 40 60
 
10
top_k = 48
 
11
 
 
12
# Works together with top-k. A higher value (e.g., 0.95) will lead to more diverse text, 
 
13
# while a lower value (e.g., 0.5) will generate more focused and conservative text. (Default: 0.9)
 
14
# top_p 0.9
 
15
top_p = 0.8
 
16
 
 
17
# The temperature of the model. Increasing the temperature will make the model answer more creatively. (Default: 0.8)
 
18
# temperature 0.7 .65
 
19
temperature = 0.7
 
20
 
 
21
# Tail free sampling is used to reduce the impact of less probable tokens from the output. 
 
22
# A higher value (e.g., 2.0) will reduce the impact more, while a value of 1.0 disables this setting. (default: 1)
 
23
# tfs_z 1
 
24
tfs_z = 1.97
 
25
 
 
26
# Enable Mirostat sampling for controlling perplexity. (default: 0, 0 = disabled, 1 = Mirostat, 2 = Mirostat 2.0)
 
27
# mirostat 0
 
28
mirostat = 0 
 
29
 
 
30
# Influences how quickly the algorithm responds to feedback from the generated text. 
 
31
# A lower learning rate will result in slower adjustments, while a higher learning rate 
 
32
# will make the algorithm more responsive. (Default: 0.1)
 
33
# mirostat_eta 0.1
 
34
mirostat_eta = 0.5 
 
35
 
 
36
# Controls the balance between coherence and diversity of the output. 
 
37
# A lower value will result in more focused and coherent text. (Default: 5.0)
 
38
# mirostat_tau 5
 
39
mirostat_tau = 3 
 
40
 
 
41
# The number of layers to send to the GPU(s). On macOS it defaults to 1 to enable metal support, 0 to disable.
 
42
# num_gpu 50
 
43
num_gpu = 50 
 
44
 
 
45
# Sets how far back for the model to look back to prevent repetition. (Default: 64, 0 = disabled, -1 = num_ctx)
 
46
# repeat_last_n 64 256
 
47
repeat_last_n = 128  
 
48
 
 
49
# Sets how strongly to penalize repetitions. A higher value (e.g., 1.5) will penalize repetitions more strongly, 
 
50
# while a lower value (e.g., 0.9) will be more lenient. (Default: 1.1)
 
51
# repeat_penalty 1.1
 
52
repeat_penalty = 1.3
 
53
 
 
54
stop = ["As an AI", "I'm an AI", "I am an AI", "I am a bot", "I'm a bot", "assistant"]
 
55