intel_pmu: add metadata with information about scaling
[collectd.git] / src / intel_pmu.c
1 /**
2  * collectd - src/intel_pmu.c
3  *
4  * Copyright(c) 2017 Intel Corporation. All rights reserved.
5  *
6  * Permission is hereby granted, free of charge, to any person obtaining a copy
7  * of this software and associated documentation files (the "Software"), to deal
8  * in the Software without restriction, including without limitation the rights
9  * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
10  * copies of the Software, and to permit persons to whom the Software is
11  * furnished to do so, subject to the following conditions:
12  *
13  * The above copyright notice and this permission notice shall be included in
14  * all copies or substantial portions of the Software.
15  *
16  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
17  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
18  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
19  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
20  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
21  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
22  * SOFTWARE.
23  *
24  * Authors:
25  *   Serhiy Pshyk <serhiyx.pshyk@intel.com>
26  **/
27
28 #include "collectd.h"
29 #include "common.h"
30
31 #include <jevents.h>
32 #include <jsession.h>
33
34 #define PMU_PLUGIN "intel_pmu"
35
36 #define HW_CACHE_READ_ACCESS                                                   \
37   (((PERF_COUNT_HW_CACHE_OP_READ) << 8) |                                      \
38    ((PERF_COUNT_HW_CACHE_RESULT_ACCESS) << 16))
39
40 #define HW_CACHE_WRITE_ACCESS                                                  \
41   (((PERF_COUNT_HW_CACHE_OP_WRITE) << 8) |                                     \
42    ((PERF_COUNT_HW_CACHE_RESULT_ACCESS) << 16))
43
44 #define HW_CACHE_PREFETCH_ACCESS                                               \
45   (((PERF_COUNT_HW_CACHE_OP_PREFETCH) << 8) |                                  \
46    ((PERF_COUNT_HW_CACHE_RESULT_ACCESS) << 16))
47
48 #define HW_CACHE_READ_MISS                                                     \
49   (((PERF_COUNT_HW_CACHE_OP_READ) << 8) |                                      \
50    ((PERF_COUNT_HW_CACHE_RESULT_MISS) << 16))
51
52 #define HW_CACHE_WRITE_MISS                                                    \
53   (((PERF_COUNT_HW_CACHE_OP_WRITE) << 8) |                                     \
54    ((PERF_COUNT_HW_CACHE_RESULT_MISS) << 16))
55
56 #define HW_CACHE_PREFETCH_MISS                                                 \
57   (((PERF_COUNT_HW_CACHE_OP_PREFETCH) << 8) |                                  \
58    ((PERF_COUNT_HW_CACHE_RESULT_MISS) << 16))
59
60 struct event_info {
61   char *name;
62   uint64_t config;
63 };
64 typedef struct event_info event_info_t;
65
66 struct intel_pmu_ctx_s {
67   _Bool hw_cache_events;
68   _Bool kernel_pmu_events;
69   _Bool sw_events;
70   char event_list_fn[PATH_MAX];
71   char **hw_events;
72   size_t hw_events_count;
73   struct eventlist *event_list;
74 };
75 typedef struct intel_pmu_ctx_s intel_pmu_ctx_t;
76
77 event_info_t g_kernel_pmu_events[] = {
78     {.name = "cpu-cycles", .config = PERF_COUNT_HW_CPU_CYCLES},
79     {.name = "instructions", .config = PERF_COUNT_HW_INSTRUCTIONS},
80     {.name = "cache-references", .config = PERF_COUNT_HW_CACHE_REFERENCES},
81     {.name = "cache-misses", .config = PERF_COUNT_HW_CACHE_MISSES},
82     {.name = "branches", .config = PERF_COUNT_HW_BRANCH_INSTRUCTIONS},
83     {.name = "branch-misses", .config = PERF_COUNT_HW_BRANCH_MISSES},
84     {.name = "bus-cycles", .config = PERF_COUNT_HW_BUS_CYCLES},
85 };
86
87 event_info_t g_hw_cache_events[] = {
88
89     {.name = "L1-dcache-loads",
90      .config = (PERF_COUNT_HW_CACHE_L1D | HW_CACHE_READ_ACCESS)},
91     {.name = "L1-dcache-load-misses",
92      .config = (PERF_COUNT_HW_CACHE_L1D | HW_CACHE_READ_MISS)},
93     {.name = "L1-dcache-stores",
94      .config = (PERF_COUNT_HW_CACHE_L1D | HW_CACHE_WRITE_ACCESS)},
95     {.name = "L1-dcache-store-misses",
96      .config = (PERF_COUNT_HW_CACHE_L1D | HW_CACHE_WRITE_MISS)},
97     {.name = "L1-dcache-prefetches",
98      .config = (PERF_COUNT_HW_CACHE_L1D | HW_CACHE_PREFETCH_ACCESS)},
99     {.name = "L1-dcache-prefetch-misses",
100      .config = (PERF_COUNT_HW_CACHE_L1D | HW_CACHE_PREFETCH_MISS)},
101
102     {.name = "L1-icache-loads",
103      .config = (PERF_COUNT_HW_CACHE_L1I | HW_CACHE_READ_ACCESS)},
104     {.name = "L1-icache-load-misses",
105      .config = (PERF_COUNT_HW_CACHE_L1I | HW_CACHE_READ_MISS)},
106     {.name = "L1-icache-prefetches",
107      .config = (PERF_COUNT_HW_CACHE_L1I | HW_CACHE_PREFETCH_ACCESS)},
108     {.name = "L1-icache-prefetch-misses",
109      .config = (PERF_COUNT_HW_CACHE_L1I | HW_CACHE_PREFETCH_MISS)},
110
111     {.name = "LLC-loads",
112      .config = (PERF_COUNT_HW_CACHE_LL | HW_CACHE_READ_ACCESS)},
113     {.name = "LLC-load-misses",
114      .config = (PERF_COUNT_HW_CACHE_LL | HW_CACHE_READ_MISS)},
115     {.name = "LLC-stores",
116      .config = (PERF_COUNT_HW_CACHE_LL | HW_CACHE_WRITE_ACCESS)},
117     {.name = "LLC-store-misses",
118      .config = (PERF_COUNT_HW_CACHE_LL | HW_CACHE_WRITE_MISS)},
119     {.name = "LLC-prefetches",
120      .config = (PERF_COUNT_HW_CACHE_LL | HW_CACHE_PREFETCH_ACCESS)},
121     {.name = "LLC-prefetch-misses",
122      .config = (PERF_COUNT_HW_CACHE_LL | HW_CACHE_PREFETCH_MISS)},
123
124     {.name = "dTLB-loads",
125      .config = (PERF_COUNT_HW_CACHE_DTLB | HW_CACHE_READ_ACCESS)},
126     {.name = "dTLB-load-misses",
127      .config = (PERF_COUNT_HW_CACHE_DTLB | HW_CACHE_READ_MISS)},
128     {.name = "dTLB-stores",
129      .config = (PERF_COUNT_HW_CACHE_DTLB | HW_CACHE_WRITE_ACCESS)},
130     {.name = "dTLB-store-misses",
131      .config = (PERF_COUNT_HW_CACHE_DTLB | HW_CACHE_WRITE_MISS)},
132     {.name = "dTLB-prefetches",
133      .config = (PERF_COUNT_HW_CACHE_DTLB | HW_CACHE_PREFETCH_ACCESS)},
134     {.name = "dTLB-prefetch-misses",
135      .config = (PERF_COUNT_HW_CACHE_DTLB | HW_CACHE_PREFETCH_MISS)},
136
137     {.name = "iTLB-loads",
138      .config = (PERF_COUNT_HW_CACHE_ITLB | HW_CACHE_READ_ACCESS)},
139     {.name = "iTLB-load-misses",
140      .config = (PERF_COUNT_HW_CACHE_ITLB | HW_CACHE_READ_MISS)},
141
142     {.name = "branch-loads",
143      .config = (PERF_COUNT_HW_CACHE_BPU | HW_CACHE_READ_ACCESS)},
144     {.name = "branch-load-misses",
145      .config = (PERF_COUNT_HW_CACHE_BPU | HW_CACHE_READ_MISS)},
146 };
147
148 event_info_t g_sw_events[] = {
149     {.name = "cpu-clock", .config = PERF_COUNT_SW_CPU_CLOCK},
150
151     {.name = "task-clock", .config = PERF_COUNT_SW_TASK_CLOCK},
152
153     {.name = "context-switches", .config = PERF_COUNT_SW_CONTEXT_SWITCHES},
154
155     {.name = "cpu-migrations", .config = PERF_COUNT_SW_CPU_MIGRATIONS},
156
157     {.name = "page-faults", .config = PERF_COUNT_SW_PAGE_FAULTS},
158
159     {.name = "minor-faults", .config = PERF_COUNT_SW_PAGE_FAULTS_MIN},
160
161     {.name = "major-faults", .config = PERF_COUNT_SW_PAGE_FAULTS_MAJ},
162
163     {.name = "alignment-faults", .config = PERF_COUNT_SW_ALIGNMENT_FAULTS},
164
165     {.name = "emulation-faults", .config = PERF_COUNT_SW_EMULATION_FAULTS},
166 };
167
168 static intel_pmu_ctx_t g_ctx;
169
170 #if COLLECT_DEBUG
171 static void pmu_dump_events() {
172
173   DEBUG(PMU_PLUGIN ": Events:");
174
175   struct event *e;
176
177   for (e = g_ctx.event_list->eventlist; e; e = e->next) {
178     DEBUG(PMU_PLUGIN ":   event       : %s", e->event);
179     DEBUG(PMU_PLUGIN ":     group_lead: %d", e->group_leader);
180     DEBUG(PMU_PLUGIN ":     end_group : %d", e->end_group);
181     DEBUG(PMU_PLUGIN ":     type      : %#x", e->attr.type);
182     DEBUG(PMU_PLUGIN ":     config    : %#x", (unsigned)e->attr.config);
183     DEBUG(PMU_PLUGIN ":     size      : %d", e->attr.size);
184   }
185 }
186
187 static void pmu_dump_config(void) {
188
189   DEBUG(PMU_PLUGIN ": Config:");
190   DEBUG(PMU_PLUGIN ":   hw_cache_events   : %d", g_ctx.hw_cache_events);
191   DEBUG(PMU_PLUGIN ":   kernel_pmu_events : %d", g_ctx.kernel_pmu_events);
192   DEBUG(PMU_PLUGIN ":   software_events   : %d", g_ctx.sw_events);
193
194   for (size_t i = 0; i < g_ctx.hw_events_count; i++) {
195     DEBUG(PMU_PLUGIN ":   hardware_events[%zu]: %s", i, g_ctx.hw_events[i]);
196   }
197 }
198
199 #endif /* COLLECT_DEBUG */
200
201 static int pmu_config_hw_events(oconfig_item_t *ci) {
202
203   if (strcasecmp("HardwareEvents", ci->key) != 0) {
204     return -EINVAL;
205   }
206
207   g_ctx.hw_events = calloc(ci->values_num, sizeof(char *));
208   if (g_ctx.hw_events == NULL) {
209     ERROR(PMU_PLUGIN ": Failed to allocate hw events.");
210     return -ENOMEM;
211   }
212
213   for (int i = 0; i < ci->values_num; i++) {
214     if (ci->values[i].type != OCONFIG_TYPE_STRING) {
215       WARNING(PMU_PLUGIN ": The %s option requires string arguments.", ci->key);
216       continue;
217     }
218
219     g_ctx.hw_events[g_ctx.hw_events_count] = strdup(ci->values[i].value.string);
220     if (g_ctx.hw_events[g_ctx.hw_events_count] == NULL) {
221       ERROR(PMU_PLUGIN ": Failed to allocate hw events entry.");
222       return -ENOMEM;
223     }
224
225     g_ctx.hw_events_count++;
226   }
227
228   return 0;
229 }
230
231 static int pmu_config(oconfig_item_t *ci) {
232
233   DEBUG(PMU_PLUGIN ": %s:%d", __FUNCTION__, __LINE__);
234
235   for (int i = 0; i < ci->children_num; i++) {
236     int ret = 0;
237     oconfig_item_t *child = ci->children + i;
238
239     if (strcasecmp("ReportHardwareCacheEvents", child->key) == 0) {
240       ret = cf_util_get_boolean(child, &g_ctx.hw_cache_events);
241     } else if (strcasecmp("ReportKernelPMUEvents", child->key) == 0) {
242       ret = cf_util_get_boolean(child, &g_ctx.kernel_pmu_events);
243     } else if (strcasecmp("EventList", child->key) == 0) {
244       ret = cf_util_get_string_buffer(child, g_ctx.event_list_fn,
245                                       sizeof(g_ctx.event_list_fn));
246     } else if (strcasecmp("HardwareEvents", child->key) == 0) {
247       ret = pmu_config_hw_events(child);
248     } else if (strcasecmp("ReportSoftwareEvents", child->key) == 0) {
249       ret = cf_util_get_boolean(child, &g_ctx.sw_events);
250     } else {
251       ERROR(PMU_PLUGIN ": Unknown configuration parameter \"%s\".", child->key);
252       ret = -1;
253     }
254
255     if (ret != 0) {
256       DEBUG(PMU_PLUGIN ": %s:%d ret=%d", __FUNCTION__, __LINE__, ret);
257       return ret;
258     }
259   }
260
261 #if COLLECT_DEBUG
262   pmu_dump_config();
263 #endif
264
265   return 0;
266 }
267
268 static void pmu_submit_counter(int cpu, char *event, counter_t value,
269                                meta_data_t *meta) {
270   value_list_t vl = VALUE_LIST_INIT;
271
272   vl.values = &(value_t){.counter = value};
273   vl.values_len = 1;
274
275   sstrncpy(vl.plugin, PMU_PLUGIN, sizeof(vl.plugin));
276   if (cpu == -1) {
277     snprintf(vl.plugin_instance, sizeof(vl.plugin_instance), "all");
278   } else {
279     vl.meta = meta;
280     snprintf(vl.plugin_instance, sizeof(vl.plugin_instance), "%d", cpu);
281   }
282   sstrncpy(vl.type, "counter", sizeof(vl.type));
283   sstrncpy(vl.type_instance, event, sizeof(vl.type_instance));
284
285   plugin_dispatch_values(&vl);
286 }
287
288 meta_data_t *pmu_event_get_meta(struct event *e, int cpu) {
289   meta_data_t *meta = NULL;
290
291   /* create meta data only if value was scaled */
292   if (e->efd[cpu].val[1] != e->efd[cpu].val[2] && e->efd[cpu].val[2]) {
293     meta = meta_data_create();
294     if (meta == NULL) {
295       ERROR(PMU_PLUGIN ": meta_data_create failed.");
296       return NULL;
297     }
298
299     meta_data_add_unsigned_int(meta, "intel_pmu:raw_count", e->efd[cpu].val[0]);
300     meta_data_add_unsigned_int(meta, "intel_pmu:time_enabled",
301                                e->efd[cpu].val[1]);
302     meta_data_add_unsigned_int(meta, "intel_pmu:time_running",
303                                e->efd[cpu].val[2]);
304   }
305
306   return meta;
307 }
308
309 static void pmu_dispatch_data(void) {
310
311   struct event *e;
312
313   for (e = g_ctx.event_list->eventlist; e; e = e->next) {
314     uint64_t all_value = 0;
315     int event_enabled = 0;
316     for (int i = 0; i < g_ctx.event_list->num_cpus; i++) {
317
318       if (e->efd[i].fd < 0)
319         continue;
320
321       event_enabled++;
322
323       /* If there are more events than counters, the kernel uses time
324        * multiplexing. With multiplexing, at the end of the run,
325        * the counter is scaled basing on total time enabled vs time running.
326        * final_count = raw_count * time_enabled/time_running
327        */
328       uint64_t value = event_scaled_value(e, i);
329       all_value += value;
330
331       /* get meta data with information about scaling */
332       meta_data_t *meta = pmu_event_get_meta(e, i);
333
334       /* dispatch per CPU value */
335       pmu_submit_counter(i, e->event, value, meta);
336
337       if (meta) {
338         meta_data_destroy(meta);
339         meta = NULL;
340       }
341     }
342
343     if (event_enabled > 0) {
344       DEBUG(PMU_PLUGIN ": %-20s %'10lu", e->event, all_value);
345       /* dispatch all CPU value */
346       pmu_submit_counter(-1, e->event, all_value, NULL);
347     }
348   }
349 }
350
351 static int pmu_read(__attribute__((unused)) user_data_t *ud) {
352   int ret;
353
354   DEBUG(PMU_PLUGIN ": %s:%d", __FUNCTION__, __LINE__);
355
356   ret = read_all_events(g_ctx.event_list);
357   if (ret != 0) {
358     ERROR(PMU_PLUGIN ": Failed to read values of all events.");
359     return ret;
360   }
361
362   pmu_dispatch_data();
363
364   return 0;
365 }
366
367 static int pmu_add_events(struct eventlist *el, uint32_t type,
368                           event_info_t *events, size_t count) {
369
370   for (size_t i = 0; i < count; i++) {
371     /* Allocate memory for event struct that contains array of efd structs
372        for all cores */
373     struct event *e =
374         calloc(sizeof(struct event) + sizeof(struct efd) * el->num_cpus, 1);
375     if (e == NULL) {
376       ERROR(PMU_PLUGIN ": Failed to allocate event structure");
377       return -ENOMEM;
378     }
379
380     e->attr.type = type;
381     e->attr.config = events[i].config;
382     e->attr.size = PERF_ATTR_SIZE_VER0;
383     if (!el->eventlist)
384       el->eventlist = e;
385     if (el->eventlist_last)
386       el->eventlist_last->next = e;
387     el->eventlist_last = e;
388     e->event = strdup(events[i].name);
389   }
390
391   return 0;
392 }
393
394 static int pmu_add_hw_events(struct eventlist *el, char **e, size_t count) {
395
396   for (size_t i = 0; i < count; i++) {
397
398     size_t group_events_count = 0;
399
400     char *events = strdup(e[i]);
401     if (!events)
402       return -1;
403
404     char *s, *tmp;
405     for (s = strtok_r(events, ",", &tmp); s; s = strtok_r(NULL, ",", &tmp)) {
406
407       /* Multiple events parsed in one entry */
408       if (group_events_count == 1) {
409         /* Mark previously added event as group leader */
410         el->eventlist_last->group_leader = 1;
411       }
412
413       /* Allocate memory for event struct that contains array of efd structs
414          for all cores */
415       struct event *e =
416           calloc(sizeof(struct event) + sizeof(struct efd) * el->num_cpus, 1);
417       if (e == NULL) {
418         free(events);
419         return -ENOMEM;
420       }
421
422       if (resolve_event(s, &e->attr) == 0) {
423         e->next = NULL;
424         if (!el->eventlist)
425           el->eventlist = e;
426         if (el->eventlist_last)
427           el->eventlist_last->next = e;
428         el->eventlist_last = e;
429         e->event = strdup(s);
430       } else {
431         DEBUG(PMU_PLUGIN ": Cannot resolve %s", s);
432         sfree(e);
433       }
434
435       group_events_count++;
436     }
437
438     /* Multiple events parsed in one entry */
439     if (group_events_count > 1) {
440       /* Mark last added event as group end */
441       el->eventlist_last->end_group = 1;
442     }
443
444     free(events);
445   }
446
447   return 0;
448 }
449
450 static void pmu_free_events(struct eventlist *el) {
451
452   if (el == NULL)
453     return;
454
455   struct event *e = el->eventlist;
456
457   while (e) {
458     struct event *next = e->next;
459     sfree(e);
460     e = next;
461   }
462
463   el->eventlist = NULL;
464 }
465
466 static int pmu_setup_events(struct eventlist *el, bool measure_all,
467                             int measure_pid) {
468   struct event *e, *leader = NULL;
469   int ret = -1;
470
471   for (e = el->eventlist; e; e = e->next) {
472
473     for (int i = 0; i < el->num_cpus; i++) {
474       if (setup_event(e, i, leader, measure_all, measure_pid) < 0) {
475         WARNING(PMU_PLUGIN ": perf event '%s' is not available (cpu=%d).",
476                 e->event, i);
477       } else {
478         /* success if at least one event was set */
479         ret = 0;
480       }
481     }
482
483     if (e->group_leader)
484       leader = e;
485     if (e->end_group)
486       leader = NULL;
487   }
488
489   return ret;
490 }
491
492 static int pmu_init(void) {
493   int ret;
494
495   DEBUG(PMU_PLUGIN ": %s:%d", __FUNCTION__, __LINE__);
496
497   g_ctx.event_list = alloc_eventlist();
498   if (g_ctx.event_list == NULL) {
499     ERROR(PMU_PLUGIN ": Failed to allocate event list.");
500     return -ENOMEM;
501   }
502
503   if (g_ctx.hw_cache_events) {
504     ret =
505         pmu_add_events(g_ctx.event_list, PERF_TYPE_HW_CACHE, g_hw_cache_events,
506                        STATIC_ARRAY_SIZE(g_hw_cache_events));
507     if (ret != 0) {
508       ERROR(PMU_PLUGIN ": Failed to add hw cache events.");
509       goto init_error;
510     }
511   }
512
513   if (g_ctx.kernel_pmu_events) {
514     ret = pmu_add_events(g_ctx.event_list, PERF_TYPE_HARDWARE,
515                          g_kernel_pmu_events,
516                          STATIC_ARRAY_SIZE(g_kernel_pmu_events));
517     if (ret != 0) {
518       ERROR(PMU_PLUGIN ": Failed to add kernel PMU events.");
519       goto init_error;
520     }
521   }
522
523   /* parse events names if config option is present and is not empty */
524   if (g_ctx.hw_events_count) {
525
526     ret = read_events(g_ctx.event_list_fn);
527     if (ret != 0) {
528       ERROR(PMU_PLUGIN ": Failed to read event list file '%s'.",
529             g_ctx.event_list_fn);
530       return ret;
531     }
532
533     ret = pmu_add_hw_events(g_ctx.event_list, g_ctx.hw_events,
534                             g_ctx.hw_events_count);
535     if (ret != 0) {
536       ERROR(PMU_PLUGIN ": Failed to add hardware events.");
537       goto init_error;
538     }
539   }
540
541   if (g_ctx.sw_events) {
542     ret = pmu_add_events(g_ctx.event_list, PERF_TYPE_SOFTWARE, g_sw_events,
543                          STATIC_ARRAY_SIZE(g_sw_events));
544     if (ret != 0) {
545       ERROR(PMU_PLUGIN ": Failed to add software events.");
546       goto init_error;
547     }
548   }
549
550 #if COLLECT_DEBUG
551   pmu_dump_events();
552 #endif
553
554   if (g_ctx.event_list->eventlist != NULL) {
555     /* measure all processes */
556     ret = pmu_setup_events(g_ctx.event_list, true, -1);
557     if (ret != 0) {
558       ERROR(PMU_PLUGIN ": Failed to setup perf events for the event list.");
559       goto init_error;
560     }
561   } else {
562     WARNING(PMU_PLUGIN
563             ": Events list is empty. No events were setup for monitoring.");
564   }
565
566   return 0;
567
568 init_error:
569
570   pmu_free_events(g_ctx.event_list);
571   sfree(g_ctx.event_list);
572   for (size_t i = 0; i < g_ctx.hw_events_count; i++) {
573     sfree(g_ctx.hw_events[i]);
574   }
575   sfree(g_ctx.hw_events);
576   g_ctx.hw_events_count = 0;
577
578   return ret;
579 }
580
581 static int pmu_shutdown(void) {
582
583   DEBUG(PMU_PLUGIN ": %s:%d", __FUNCTION__, __LINE__);
584
585   pmu_free_events(g_ctx.event_list);
586   sfree(g_ctx.event_list);
587   for (size_t i = 0; i < g_ctx.hw_events_count; i++) {
588     sfree(g_ctx.hw_events[i]);
589   }
590   sfree(g_ctx.hw_events);
591   g_ctx.hw_events_count = 0;
592
593   return 0;
594 }
595
596 void module_register(void) {
597   plugin_register_init(PMU_PLUGIN, pmu_init);
598   plugin_register_complex_config(PMU_PLUGIN, pmu_config);
599   plugin_register_complex_read(NULL, PMU_PLUGIN, pmu_read, 0, NULL);
600   plugin_register_shutdown(PMU_PLUGIN, pmu_shutdown);
601 }