~kwmonroe/charms/trusty/ganglia-node/remove-memcached

« back to all changes in this revision

Viewing changes to templates/gmond.conf

  • Committer: James Page
  • Date: 2012-10-03 12:06:11 UTC
  • Revision ID: james.page@canonical.com-20121003120611-w2k29i1anrzvsudy
Initial baseline

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
/* This configuration is as close to 2.5.x default behavior as possible 
 
2
   The values closely match ./gmond/metric.h definitions in 2.5.x */ 
 
3
globals {                    
 
4
  daemonize = yes              
 
5
  setuid = yes             
 
6
  user = ganglia              
 
7
  debug_level = 0               
 
8
  max_udp_msg_len = 1472        
 
9
  mute = no             
 
10
  deaf = no             
 
11
  host_dmax = 3600 /*secs */ 
 
12
  cleanup_threshold = 300 /*secs */ 
 
13
  gexec = no             
 
14
  send_metadata_interval = 60     
 
15
 
16
 
 
17
cluster { 
 
18
  name = "{{ service_name }}"
 
19
  owner = "unspecified" 
 
20
  latlong = "unspecified" 
 
21
  url = "unspecified" 
 
22
 
23
 
 
24
{% for master in masters %}
 
25
udp_send_channel { 
 
26
  host = {{ master }}
 
27
  port = 8649 
 
28
  ttl = 1 
 
29
 
30
{% endfor %}
 
31
 
 
32
/* You can specify as many udp_recv_channels as you like as well. */
 
33
udp_recv_channel {
 
34
  port = 8649
 
35
}
 
36
 
 
37
/* You can specify as many tcp_accept_channels as you like to share
 
38
   an xml description of the state of the cluster */
 
39
tcp_accept_channel {
 
40
  port = 8649
 
41
  bind = 0.0.0.0
 
42
}
 
43
 
 
44
 
 
45
/* The host section describes attributes of the host, like the location */ 
 
46
host { 
 
47
  location = "{{ unit_name }}" 
 
48
 
49
 
 
50
/* Each metrics module that is referenced by gmond must be specified and 
 
51
   loaded. If the module has been statically linked with gmond, it does not 
 
52
   require a load path. However all dynamically loadable modules must include 
 
53
   a load path. */ 
 
54
modules { 
 
55
  module { 
 
56
    name = "core_metrics" 
 
57
  } 
 
58
  module { 
 
59
    name = "cpu_module" 
 
60
    path = "/usr/lib/ganglia/modcpu.so" 
 
61
  } 
 
62
  module { 
 
63
    name = "disk_module" 
 
64
    path = "/usr/lib/ganglia/moddisk.so" 
 
65
  } 
 
66
  module { 
 
67
    name = "load_module" 
 
68
    path = "/usr/lib/ganglia/modload.so" 
 
69
  } 
 
70
  module { 
 
71
    name = "mem_module" 
 
72
    path = "/usr/lib/ganglia/modmem.so" 
 
73
  } 
 
74
  module { 
 
75
    name = "net_module" 
 
76
    path = "/usr/lib/ganglia/modnet.so" 
 
77
  } 
 
78
  module { 
 
79
    name = "proc_module" 
 
80
    path = "/usr/lib/ganglia/modproc.so" 
 
81
  } 
 
82
  module { 
 
83
    name = "sys_module" 
 
84
    path = "/usr/lib/ganglia/modsys.so" 
 
85
  } 
 
86
 
87
 
 
88
include ('/etc/ganglia/conf.d/*.conf') 
 
89
 
 
90
 
 
91
/* The old internal 2.5.x metric array has been replaced by the following 
 
92
   collection_group directives.  What follows is the default behavior for 
 
93
   collecting and sending metrics that is as close to 2.5.x behavior as 
 
94
   possible. */
 
95
 
 
96
/* This collection group will cause a heartbeat (or beacon) to be sent every 
 
97
   20 seconds.  In the heartbeat is the GMOND_STARTED data which expresses 
 
98
   the age of the running gmond. */ 
 
99
collection_group { 
 
100
  collect_once = yes 
 
101
  time_threshold = 20 
 
102
  metric { 
 
103
    name = "heartbeat" 
 
104
  } 
 
105
 
106
 
 
107
/* This collection group will send general info about this host every 1200 secs. 
 
108
   This information doesn't change between reboots and is only collected once. */ 
 
109
collection_group { 
 
110
  collect_once = yes 
 
111
  time_threshold = 1200 
 
112
  metric { 
 
113
    name = "cpu_num" 
 
114
    title = "CPU Count" 
 
115
  } 
 
116
  metric { 
 
117
    name = "cpu_speed" 
 
118
    title = "CPU Speed" 
 
119
  } 
 
120
  metric { 
 
121
    name = "mem_total" 
 
122
    title = "Memory Total" 
 
123
  } 
 
124
  /* Should this be here? Swap can be added/removed between reboots. */ 
 
125
  metric { 
 
126
    name = "swap_total" 
 
127
    title = "Swap Space Total" 
 
128
  } 
 
129
  metric { 
 
130
    name = "boottime" 
 
131
    title = "Last Boot Time" 
 
132
  } 
 
133
  metric { 
 
134
    name = "machine_type" 
 
135
    title = "Machine Type" 
 
136
  } 
 
137
  metric { 
 
138
    name = "os_name" 
 
139
    title = "Operating System" 
 
140
  } 
 
141
  metric { 
 
142
    name = "os_release" 
 
143
    title = "Operating System Release" 
 
144
  } 
 
145
  metric { 
 
146
    name = "location" 
 
147
    title = "Location" 
 
148
  } 
 
149
 
150
 
 
151
/* This collection group will send the status of gexecd for this host every 300 secs */
 
152
/* Unlike 2.5.x the default behavior is to report gexecd OFF.  */ 
 
153
collection_group { 
 
154
  collect_once = yes 
 
155
  time_threshold = 300 
 
156
  metric { 
 
157
    name = "gexec" 
 
158
    title = "Gexec Status" 
 
159
  } 
 
160
 
161
 
 
162
/* This collection group will collect the CPU status info every 20 secs. 
 
163
   The time threshold is set to 90 seconds.  In honesty, this time_threshold could be 
 
164
   set significantly higher to reduce unneccessary network chatter. */ 
 
165
collection_group { 
 
166
  collect_every = 20 
 
167
  time_threshold = 90 
 
168
  /* CPU status */ 
 
169
  metric { 
 
170
    name = "cpu_user"  
 
171
    value_threshold = "1.0" 
 
172
    title = "CPU User" 
 
173
  } 
 
174
  metric { 
 
175
    name = "cpu_system"   
 
176
    value_threshold = "1.0" 
 
177
    title = "CPU System" 
 
178
  } 
 
179
  metric { 
 
180
    name = "cpu_idle"  
 
181
    value_threshold = "5.0" 
 
182
    title = "CPU Idle" 
 
183
  } 
 
184
  metric { 
 
185
    name = "cpu_nice"  
 
186
    value_threshold = "1.0" 
 
187
    title = "CPU Nice" 
 
188
  } 
 
189
  metric { 
 
190
    name = "cpu_aidle" 
 
191
    value_threshold = "5.0" 
 
192
    title = "CPU aidle" 
 
193
  } 
 
194
  metric { 
 
195
    name = "cpu_wio" 
 
196
    value_threshold = "1.0" 
 
197
    title = "CPU wio" 
 
198
  } 
 
199
  /* The next two metrics are optional if you want more detail... 
 
200
     ... since they are accounted for in cpu_system.  
 
201
  metric { 
 
202
    name = "cpu_intr" 
 
203
    value_threshold = "1.0" 
 
204
    title = "CPU intr" 
 
205
  } 
 
206
  metric { 
 
207
    name = "cpu_sintr" 
 
208
    value_threshold = "1.0" 
 
209
    title = "CPU sintr" 
 
210
  } 
 
211
  */ 
 
212
 
213
 
 
214
collection_group { 
 
215
  collect_every = 20 
 
216
  time_threshold = 90 
 
217
  /* Load Averages */ 
 
218
  metric { 
 
219
    name = "load_one" 
 
220
    value_threshold = "1.0" 
 
221
    title = "One Minute Load Average" 
 
222
  } 
 
223
  metric { 
 
224
    name = "load_five" 
 
225
    value_threshold = "1.0" 
 
226
    title = "Five Minute Load Average" 
 
227
  } 
 
228
  metric { 
 
229
    name = "load_fifteen" 
 
230
    value_threshold = "1.0" 
 
231
    title = "Fifteen Minute Load Average" 
 
232
  }
 
233
 
234
 
 
235
/* This group collects the number of running and total processes */ 
 
236
collection_group { 
 
237
  collect_every = 80 
 
238
  time_threshold = 950 
 
239
  metric { 
 
240
    name = "proc_run" 
 
241
    value_threshold = "1.0" 
 
242
    title = "Total Running Processes" 
 
243
  } 
 
244
  metric { 
 
245
    name = "proc_total" 
 
246
    value_threshold = "1.0" 
 
247
    title = "Total Processes" 
 
248
  } 
 
249
}
 
250
 
 
251
/* This collection group grabs the volatile memory metrics every 40 secs and 
 
252
   sends them at least every 180 secs.  This time_threshold can be increased 
 
253
   significantly to reduce unneeded network traffic. */ 
 
254
collection_group { 
 
255
  collect_every = 40 
 
256
  time_threshold = 180 
 
257
  metric { 
 
258
    name = "mem_free" 
 
259
    value_threshold = "1024.0" 
 
260
    title = "Free Memory" 
 
261
  } 
 
262
  metric { 
 
263
    name = "mem_shared" 
 
264
    value_threshold = "1024.0" 
 
265
    title = "Shared Memory" 
 
266
  } 
 
267
  metric { 
 
268
    name = "mem_buffers" 
 
269
    value_threshold = "1024.0" 
 
270
    title = "Memory Buffers" 
 
271
  } 
 
272
  metric { 
 
273
    name = "mem_cached" 
 
274
    value_threshold = "1024.0" 
 
275
    title = "Cached Memory" 
 
276
  } 
 
277
  metric { 
 
278
    name = "swap_free" 
 
279
    value_threshold = "1024.0" 
 
280
    title = "Free Swap Space" 
 
281
  } 
 
282
 
283
 
 
284
collection_group { 
 
285
  collect_every = 40 
 
286
  time_threshold = 300 
 
287
  metric { 
 
288
    name = "bytes_out" 
 
289
    value_threshold = 4096 
 
290
    title = "Bytes Sent" 
 
291
  } 
 
292
  metric { 
 
293
    name = "bytes_in" 
 
294
    value_threshold = 4096 
 
295
    title = "Bytes Received" 
 
296
  } 
 
297
  metric { 
 
298
    name = "pkts_in" 
 
299
    value_threshold = 256 
 
300
    title = "Packets Received" 
 
301
  } 
 
302
  metric { 
 
303
    name = "pkts_out" 
 
304
    value_threshold = 256 
 
305
    title = "Packets Sent" 
 
306
  } 
 
307
}
 
308
 
 
309
/* Different than 2.5.x default since the old config made no sense */ 
 
310
collection_group { 
 
311
  collect_every = 1800 
 
312
  time_threshold = 3600 
 
313
  metric { 
 
314
    name = "disk_total" 
 
315
    value_threshold = 1.0 
 
316
    title = "Total Disk Space" 
 
317
  } 
 
318
}
 
319
 
 
320
collection_group { 
 
321
  collect_every = 40 
 
322
  time_threshold = 180 
 
323
  metric { 
 
324
    name = "disk_free" 
 
325
    value_threshold = 1.0 
 
326
    title = "Disk Space Available" 
 
327
  } 
 
328
  metric { 
 
329
    name = "part_max_used" 
 
330
    value_threshold = 1.0 
 
331
    title = "Maximum Disk Space Used" 
 
332
  } 
 
333
}
 
334