Merge pull request #1379 from rubenk/ceph-close-fd-on-error
[collectd.git] / src / ceph.c
1 /**
2  * collectd - src/ceph.c
3  * Copyright (C) 2011  New Dream Network
4  *
5  * This program is free software; you can redistribute it and/or modify it
6  * under the terms of the GNU General Public License as published by the
7  * Free Software Foundation; only version 2 of the License is applicable.
8  *
9  * This program is distributed in the hope that it will be useful, but
10  * WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
12  * General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License along
15  * with this program; if not, write to the Free Software Foundation, Inc.,
16  * 51 Franklin St, Fifth Floor, Boston, MA  02110-1301 USA
17  *
18  * Authors:
19  *   Colin McCabe <cmccabe@alumni.cmu.edu>
20  *   Dennis Zou <yunzou@cisco.com>
21  *   Dan Ryder <daryder@cisco.com>
22  **/
23
24 #define _DEFAULT_SOURCE
25 #define _BSD_SOURCE
26
27 #include "collectd.h"
28 #include "common.h"
29 #include "plugin.h"
30
31 #include <arpa/inet.h>
32 #include <errno.h>
33 #include <fcntl.h>
34 #include <yajl/yajl_parse.h>
35 #if HAVE_YAJL_YAJL_VERSION_H
36 #include <yajl/yajl_version.h>
37 #endif
38
39 #include <limits.h>
40 #include <poll.h>
41 #include <stdint.h>
42 #include <stdio.h>
43 #include <stdlib.h>
44 #include <string.h>
45 #include <strings.h>
46 #include <sys/time.h>
47 #include <sys/types.h>
48 #include <sys/un.h>
49 #include <unistd.h>
50 #include <math.h>
51 #include <inttypes.h>
52
53 #define RETRY_AVGCOUNT -1
54
55 #if defined(YAJL_MAJOR) && (YAJL_MAJOR > 1)
56 # define HAVE_YAJL_V2 1
57 #endif
58
59 #define RETRY_ON_EINTR(ret, expr) \
60     while(1) { \
61         ret = expr; \
62         if(ret >= 0) \
63             break; \
64         ret = -errno; \
65         if(ret != -EINTR) \
66             break; \
67     }
68
69 /** Timeout interval in seconds */
70 #define CEPH_TIMEOUT_INTERVAL 1
71
72 /** Maximum path length for a UNIX domain socket on this system */
73 #define UNIX_DOMAIN_SOCK_PATH_MAX (sizeof(((struct sockaddr_un*)0)->sun_path))
74
75 /** Yajl callback returns */
76 #define CEPH_CB_CONTINUE 1
77 #define CEPH_CB_ABORT 0
78
79 #if HAVE_YAJL_V2
80 typedef size_t yajl_len_t;
81 #else
82 typedef unsigned int yajl_len_t;
83 #endif
84
85 /** Number of types for ceph defined in types.db */
86 #define CEPH_DSET_TYPES_NUM 3
87 /** ceph types enum */
88 enum ceph_dset_type_d
89 {
90     DSET_LATENCY = 0,
91     DSET_BYTES = 1,
92     DSET_RATE = 2,
93     DSET_TYPE_UNFOUND = 1000
94 };
95
96 /** Valid types for ceph defined in types.db */
97 const char * ceph_dset_types [CEPH_DSET_TYPES_NUM] =
98                                    {"ceph_latency", "ceph_bytes", "ceph_rate"};
99
100 /******* ceph_daemon *******/
101 struct ceph_daemon
102 {
103     /** Version of the admin_socket interface */
104     uint32_t version;
105     /** daemon name **/
106     char name[DATA_MAX_NAME_LEN];
107
108     /** Path to the socket that we use to talk to the ceph daemon */
109     char asok_path[UNIX_DOMAIN_SOCK_PATH_MAX];
110
111     /** Number of counters */
112     int ds_num;
113     /** Track ds types */
114     uint32_t *ds_types;
115     /** Track ds names to match with types */
116     char **ds_names;
117
118     /**
119      * Keep track of last data for latency values so we can calculate rate
120      * since last poll.
121      */
122     struct last_data **last_poll_data;
123     /** index of last poll data */
124     int last_idx;
125 };
126
127 /******* JSON parsing *******/
128 typedef int (*node_handler_t)(void *, const char*, const char*);
129
130 /** Track state and handler while parsing JSON */
131 struct yajl_struct
132 {
133     node_handler_t handler;
134     void * handler_arg;
135     struct {
136       char key[DATA_MAX_NAME_LEN];
137       int key_len;
138     } state[YAJL_MAX_DEPTH];
139     int depth;
140 };
141 typedef struct yajl_struct yajl_struct;
142
143 enum perfcounter_type_d
144 {
145     PERFCOUNTER_LATENCY = 0x4, PERFCOUNTER_DERIVE = 0x8,
146 };
147
148 /** Give user option to use default (long run = since daemon started) avg */
149 static int long_run_latency_avg = 0;
150
151 /**
152  * Give user option to use default type for special cases -
153  * filestore.journal_wr_bytes is currently only metric here. Ceph reports the
154  * type as a sum/count pair and will calculate it the same as a latency value.
155  * All other "bytes" metrics (excluding the used/capacity bytes for the OSD)
156  * use the DERIVE type. Unless user specifies to use given type, convert this
157  * metric to use DERIVE.
158  */
159 static int convert_special_metrics = 1;
160
161 /** Array of daemons to monitor */
162 static struct ceph_daemon **g_daemons = NULL;
163
164 /** Number of elements in g_daemons */
165 static int g_num_daemons = 0;
166
167 /**
168  * A set of data that we build up in memory while parsing the JSON.
169  */
170 struct values_tmp
171 {
172     /** ceph daemon we are processing data for*/
173     struct ceph_daemon *d;
174     /** track avgcount across counters for avgcount/sum latency pairs */
175     uint64_t avgcount;
176     /** current index of counters - used to get type of counter */
177     int index;
178     /** do we already have an avgcount for latency pair */
179     int avgcount_exists;
180     /**
181      * similar to index, but current index of latency type counters -
182      * used to get last poll data of counter
183      */
184     int latency_index;
185     /**
186      * values list - maintain across counters since
187      * host/plugin/plugin instance are always the same
188      */
189     value_list_t vlist;
190 };
191
192 /**
193  * A set of count/sum pairs to keep track of latency types and get difference
194  * between this poll data and last poll data.
195  */
196 struct last_data
197 {
198     char ds_name[DATA_MAX_NAME_LEN];
199     double last_sum;
200     uint64_t last_count;
201 };
202
203 /******* network I/O *******/
204 enum cstate_t
205 {
206     CSTATE_UNCONNECTED = 0,
207     CSTATE_WRITE_REQUEST,
208     CSTATE_READ_VERSION,
209     CSTATE_READ_AMT,
210     CSTATE_READ_JSON,
211 };
212
213 enum request_type_t
214 {
215     ASOK_REQ_VERSION = 0,
216     ASOK_REQ_DATA = 1,
217     ASOK_REQ_SCHEMA = 2,
218     ASOK_REQ_NONE = 1000,
219 };
220
221 struct cconn
222 {
223     /** The Ceph daemon that we're talking to */
224     struct ceph_daemon *d;
225
226     /** Request type */
227     uint32_t request_type;
228
229     /** The connection state */
230     enum cstate_t state;
231
232     /** The socket we use to talk to this daemon */
233     int asok;
234
235     /** The amount of data remaining to read / write. */
236     uint32_t amt;
237
238     /** Length of the JSON to read */
239     uint32_t json_len;
240
241     /** Buffer containing JSON data */
242     unsigned char *json;
243
244     /** Keep data important to yajl processing */
245     struct yajl_struct yajl;
246 };
247
248 static int ceph_cb_null(void *ctx)
249 {
250     return CEPH_CB_CONTINUE;
251 }
252
253 static int ceph_cb_boolean(void *ctx, int bool_val)
254 {
255     return CEPH_CB_CONTINUE;
256 }
257
258 static int
259 ceph_cb_number(void *ctx, const char *number_val, yajl_len_t number_len)
260 {
261     yajl_struct *yajl = (yajl_struct*)ctx;
262     char buffer[number_len+1];
263     int i, latency_type = 0, result;
264     char key[128];
265
266     memcpy(buffer, number_val, number_len);
267     buffer[sizeof(buffer) - 1] = 0;
268
269     ssnprintf(key, yajl->state[0].key_len, "%s", yajl->state[0].key);
270     for(i = 1; i < yajl->depth; i++)
271     {
272         if((i == yajl->depth-1) && ((strcmp(yajl->state[i].key,"avgcount") == 0)
273                 || (strcmp(yajl->state[i].key,"sum") == 0)))
274         {
275             if(convert_special_metrics)
276             {
277                 /**
278                  * Special case for filestore:JournalWrBytes. For some reason,
279                  * Ceph schema encodes this as a count/sum pair while all
280                  * other "Bytes" data (excluding used/capacity bytes for OSD
281                  * space) uses a single "Derive" type. To spare further
282                  * confusion, keep this KPI as the same type of other "Bytes".
283                  * Instead of keeping an "average" or "rate", use the "sum" in
284                  * the pair and assign that to the derive value.
285                  */
286                 if((strcmp(yajl->state[i-1].key, "journal_wr_bytes") == 0) &&
287                         (strcmp(yajl->state[i-2].key,"filestore") == 0) &&
288                         (strcmp(yajl->state[i].key,"avgcount") == 0))
289                 {
290                     DEBUG("ceph plugin: Skipping avgcount for filestore.JournalWrBytes");
291                     yajl->depth = (yajl->depth - 1);
292                     return CEPH_CB_CONTINUE;
293                 }
294             }
295             //probably a avgcount/sum pair. if not - we'll try full key later
296             latency_type = 1;
297             break;
298         }
299         strncat(key, ".", 1);
300         strncat(key, yajl->state[i].key, yajl->state[i].key_len+1);
301     }
302
303     result = yajl->handler(yajl->handler_arg, buffer, key);
304
305     if((result == RETRY_AVGCOUNT) && latency_type)
306     {
307         strncat(key, ".", 1);
308         strncat(key, yajl->state[yajl->depth-1].key,
309                 yajl->state[yajl->depth-1].key_len+1);
310         result = yajl->handler(yajl->handler_arg, buffer, key);
311     }
312
313     if(result == -ENOMEM)
314     {
315         ERROR("ceph plugin: memory allocation failed");
316         return CEPH_CB_ABORT;
317     }
318
319     yajl->depth = (yajl->depth - 1);
320     return CEPH_CB_CONTINUE;
321 }
322
323 static int ceph_cb_string(void *ctx, const unsigned char *string_val,
324         yajl_len_t string_len)
325 {
326     return CEPH_CB_CONTINUE;
327 }
328
329 static int ceph_cb_start_map(void *ctx)
330 {
331     return CEPH_CB_CONTINUE;
332 }
333
334 static int
335 ceph_cb_map_key(void *ctx, const unsigned char *key, yajl_len_t string_len)
336 {
337     yajl_struct *yajl = (yajl_struct*)ctx;
338
339     if((yajl->depth+1)  >= YAJL_MAX_DEPTH)
340     {
341         ERROR("ceph plugin: depth exceeds max, aborting.");
342         return CEPH_CB_ABORT;
343     }
344
345     char buffer[string_len+1];
346
347     memcpy(buffer, key, string_len);
348     buffer[sizeof(buffer) - 1] = 0;
349
350     snprintf(yajl->state[yajl->depth].key, sizeof(buffer), "%s", buffer);
351     yajl->state[yajl->depth].key_len = sizeof(buffer);
352     yajl->depth = (yajl->depth + 1);
353
354     return CEPH_CB_CONTINUE;
355 }
356
357 static int ceph_cb_end_map(void *ctx)
358 {
359     yajl_struct *yajl = (yajl_struct*)ctx;
360
361     yajl->depth = (yajl->depth - 1);
362     return CEPH_CB_CONTINUE;
363 }
364
365 static int ceph_cb_start_array(void *ctx)
366 {
367     return CEPH_CB_CONTINUE;
368 }
369
370 static int ceph_cb_end_array(void *ctx)
371 {
372     return CEPH_CB_CONTINUE;
373 }
374
375 static yajl_callbacks callbacks = {
376         ceph_cb_null,
377         ceph_cb_boolean,
378         NULL,
379         NULL,
380         ceph_cb_number,
381         ceph_cb_string,
382         ceph_cb_start_map,
383         ceph_cb_map_key,
384         ceph_cb_end_map,
385         ceph_cb_start_array,
386         ceph_cb_end_array
387 };
388
389 static void ceph_daemon_print(const struct ceph_daemon *d)
390 {
391     DEBUG("ceph plugin: name=%s, asok_path=%s", d->name, d->asok_path);
392 }
393
394 static void ceph_daemons_print(void)
395 {
396     int i;
397     for(i = 0; i < g_num_daemons; ++i)
398     {
399         ceph_daemon_print(g_daemons[i]);
400     }
401 }
402
403 static void ceph_daemon_free(struct ceph_daemon *d)
404 {
405     int i = 0;
406     for(; i < d->last_idx; i++)
407     {
408         sfree(d->last_poll_data[i]);
409     }
410     sfree(d->last_poll_data);
411     d->last_poll_data = NULL;
412     d->last_idx = 0;
413     for(i = 0; i < d->ds_num; i++)
414     {
415         sfree(d->ds_names[i]);
416     }
417     sfree(d->ds_types);
418     sfree(d->ds_names);
419     sfree(d);
420 }
421
422 /**
423  * Compact ds name by removing special characters and trimming length to
424  * DATA_MAX_NAME_LEN if necessary
425  */
426 static void compact_ds_name(char *source, char *dest)
427 {
428     int keys_num = 0, i;
429     char *save_ptr = NULL, *tmp_ptr = source;
430     char *keys[16];
431     char len_str[3];
432     char tmp[DATA_MAX_NAME_LEN];
433     size_t key_chars_remaining = (DATA_MAX_NAME_LEN-1);
434     int reserved = 0;
435     int offset = 0;
436     memset(tmp, 0, sizeof(tmp));
437     if(source == NULL || dest == NULL || source[0] == '\0' || dest[0] != '\0')
438     {
439         return;
440     }
441     size_t src_len = strlen(source);
442     snprintf(len_str, sizeof(len_str), "%zu", src_len);
443     unsigned char append_status = 0x0;
444     append_status |= (source[src_len - 1] == '-') ? 0x1 : 0x0;
445     append_status |= (source[src_len - 1] == '+') ? 0x2 : 0x0;
446     while ((keys[keys_num] = strtok_r(tmp_ptr, ":_-+", &save_ptr)) != NULL)
447     {
448         tmp_ptr = NULL;
449         /** capitalize 1st char **/
450         keys[keys_num][0] = toupper(keys[keys_num][0]);
451         keys_num++;
452         if(keys_num >= 16)
453         {
454             break;
455         }
456     }
457     /** concatenate each part of source string **/
458     for(i = 0; i < keys_num; i++)
459     {
460         strncat(tmp, keys[i], key_chars_remaining);
461         key_chars_remaining -= strlen(keys[i]);
462     }
463     tmp[DATA_MAX_NAME_LEN - 1] = '\0';
464     /** to coordinate limitation of length of type_instance
465      *  we will truncate ds_name
466      *  when the its length is more than
467      *  DATA_MAX_NAME_LEN
468      */
469     if(strlen(tmp) > DATA_MAX_NAME_LEN - 1)
470     {
471         append_status |= 0x4;
472         /** we should reserve space for
473          * len_str
474          */
475         reserved += 2;
476     }
477     if(append_status & 0x1)
478     {
479         /** we should reserve space for
480          * "Minus"
481          */
482         reserved += 5;
483     }
484     if(append_status & 0x2)
485     {
486         /** we should reserve space for
487          * "Plus"
488          */
489         reserved += 4;
490     }
491     snprintf(dest, DATA_MAX_NAME_LEN - reserved, "%s", tmp);
492     offset = strlen(dest);
493     switch (append_status)
494     {
495         case 0x1:
496             memcpy(dest + offset, "Minus", 5);
497             break;
498         case 0x2:
499             memcpy(dest + offset, "Plus", 5);
500             break;
501         case 0x4:
502             memcpy(dest + offset, len_str, 2);
503             break;
504         case 0x5:
505             memcpy(dest + offset, "Minus", 5);
506             memcpy(dest + offset + 5, len_str, 2);
507             break;
508         case 0x6:
509             memcpy(dest + offset, "Plus", 4);
510             memcpy(dest + offset + 4, len_str, 2);
511             break;
512         default:
513             break;
514     }
515 }
516
517 /**
518  * Parse key to remove "type" if this is for schema and initiate compaction
519  */
520 static int parse_keys(const char *key_str, char *ds_name)
521 {
522     char *ptr, *rptr;
523     size_t ds_name_len = 0;
524     /**
525      * allow up to 100 characters before compaction - compact_ds_name will not
526      * allow more than DATA_MAX_NAME_LEN chars
527      */
528     int max_str_len = 100;
529     char tmp_ds_name[max_str_len];
530     memset(tmp_ds_name, 0, sizeof(tmp_ds_name));
531     if(ds_name == NULL || key_str == NULL ||  key_str[0] == '\0' ||
532                                                             ds_name[0] != '\0')
533     {
534         return -1;
535     }
536     if((ptr = strchr(key_str, '.')) == NULL
537             || (rptr = strrchr(key_str, '.')) == NULL)
538     {
539         memcpy(tmp_ds_name, key_str, max_str_len - 1);
540         goto compact;
541     }
542
543     ds_name_len = (rptr - ptr) > max_str_len ? max_str_len : (rptr - ptr);
544     if((ds_name_len == 0) || strncmp(rptr + 1, "type", 4))
545     { /** copy whole key **/
546         memcpy(tmp_ds_name, key_str, max_str_len - 1);
547     }
548     else
549     {/** more than two keys **/
550         memcpy(tmp_ds_name, key_str, ((rptr - key_str) > (max_str_len - 1) ?
551                 (max_str_len - 1) : (rptr - key_str)));
552     }
553
554     compact: compact_ds_name(tmp_ds_name, ds_name);
555     return 0;
556 }
557
558 /**
559  * while parsing ceph admin socket schema, save counter name and type for later
560  * data processing
561  */
562 static int ceph_daemon_add_ds_entry(struct ceph_daemon *d, const char *name,
563         int pc_type)
564 {
565     uint32_t type;
566     char ds_name[DATA_MAX_NAME_LEN];
567     memset(ds_name, 0, sizeof(ds_name));
568
569     if(convert_special_metrics)
570     {
571         /**
572          * Special case for filestore:JournalWrBytes. For some reason, Ceph
573          * schema encodes this as a count/sum pair while all other "Bytes" data
574          * (excluding used/capacity bytes for OSD space) uses a single "Derive"
575          * type. To spare further confusion, keep this KPI as the same type of
576          * other "Bytes". Instead of keeping an "average" or "rate", use the
577          * "sum" in the pair and assign that to the derive value.
578          */
579         if((strcmp(name,"filestore.journal_wr_bytes.type") == 0))
580         {
581             pc_type = 10;
582         }
583     }
584
585     d->ds_names = realloc(d->ds_names, sizeof(char *) * (d->ds_num + 1));
586     if(!d->ds_names)
587     {
588         return -ENOMEM;
589     }
590
591     d->ds_types = realloc(d->ds_types, sizeof(uint32_t) * (d->ds_num + 1));
592     if(!d->ds_types)
593     {
594         return -ENOMEM;
595     }
596
597     d->ds_names[d->ds_num] = malloc(sizeof(char) * DATA_MAX_NAME_LEN);
598     if(!d->ds_names[d->ds_num])
599     {
600         return -ENOMEM;
601     }
602
603     type = (pc_type & PERFCOUNTER_DERIVE) ? DSET_RATE :
604             ((pc_type & PERFCOUNTER_LATENCY) ? DSET_LATENCY : DSET_BYTES);
605     d->ds_types[d->ds_num] = type;
606
607     if(parse_keys(name, ds_name))
608     {
609         return 1;
610     }
611
612     sstrncpy(d->ds_names[d->ds_num], ds_name, DATA_MAX_NAME_LEN -1);
613     d->ds_num = (d->ds_num + 1);
614
615     return 0;
616 }
617
618 /******* ceph_config *******/
619 static int cc_handle_str(struct oconfig_item_s *item, char *dest, int dest_len)
620 {
621     const char *val;
622     if(item->values_num != 1)
623     {
624         return -ENOTSUP;
625     }
626     if(item->values[0].type != OCONFIG_TYPE_STRING)
627     {
628         return -ENOTSUP;
629     }
630     val = item->values[0].value.string;
631     if(snprintf(dest, dest_len, "%s", val) > (dest_len - 1))
632     {
633         ERROR("ceph plugin: configuration parameter '%s' is too long.\n",
634                 item->key);
635         return -ENAMETOOLONG;
636     }
637     return 0;
638 }
639
640 static int cc_handle_bool(struct oconfig_item_s *item, int *dest)
641 {
642     if(item->values_num != 1)
643     {
644         return -ENOTSUP;
645     }
646
647     if(item->values[0].type != OCONFIG_TYPE_BOOLEAN)
648     {
649         return -ENOTSUP;
650     }
651
652     *dest = (item->values[0].value.boolean) ? 1 : 0;
653     return 0;
654 }
655
656 static int cc_add_daemon_config(oconfig_item_t *ci)
657 {
658     int ret, i;
659     struct ceph_daemon *nd, cd;
660     struct ceph_daemon **tmp;
661     memset(&cd, 0, sizeof(struct ceph_daemon));
662
663     if((ci->values_num != 1) || (ci->values[0].type != OCONFIG_TYPE_STRING))
664     {
665         WARNING("ceph plugin: `Daemon' blocks need exactly one string "
666                 "argument.");
667         return (-1);
668     }
669
670     ret = cc_handle_str(ci, cd.name, DATA_MAX_NAME_LEN);
671     if(ret)
672     {
673         return ret;
674     }
675
676     for(i=0; i < ci->children_num; i++)
677     {
678         oconfig_item_t *child = ci->children + i;
679
680         if(strcasecmp("SocketPath", child->key) == 0)
681         {
682             ret = cc_handle_str(child, cd.asok_path, sizeof(cd.asok_path));
683             if(ret)
684             {
685                 return ret;
686             }
687         }
688         else
689         {
690             WARNING("ceph plugin: ignoring unknown option %s", child->key);
691         }
692     }
693     if(cd.name[0] == '\0')
694     {
695         ERROR("ceph plugin: you must configure a daemon name.\n");
696         return -EINVAL;
697     }
698     else if(cd.asok_path[0] == '\0')
699     {
700         ERROR("ceph plugin(name=%s): you must configure an administrative "
701         "socket path.\n", cd.name);
702         return -EINVAL;
703     }
704     else if(!((cd.asok_path[0] == '/') ||
705             (cd.asok_path[0] == '.' && cd.asok_path[1] == '/')))
706     {
707         ERROR("ceph plugin(name=%s): administrative socket paths must begin "
708                 "with '/' or './' Can't parse: '%s'\n", cd.name, cd.asok_path);
709         return -EINVAL;
710     }
711
712     tmp = realloc(g_daemons, (g_num_daemons+1) * sizeof(*g_daemons));
713     if(tmp == NULL)
714     {
715         /* The positive return value here indicates that this is a
716          * runtime error, not a configuration error.  */
717         return ENOMEM;
718     }
719     g_daemons = tmp;
720
721     nd = malloc(sizeof(*nd));
722     if(!nd)
723     {
724         return ENOMEM;
725     }
726     memcpy(nd, &cd, sizeof(*nd));
727     g_daemons[g_num_daemons++] = nd;
728     return 0;
729 }
730
731 static int ceph_config(oconfig_item_t *ci)
732 {
733     int ret, i;
734
735     for(i = 0; i < ci->children_num; ++i)
736     {
737         oconfig_item_t *child = ci->children + i;
738         if(strcasecmp("Daemon", child->key) == 0)
739         {
740             ret = cc_add_daemon_config(child);
741             if(ret == ENOMEM)
742             {
743                 ERROR("ceph plugin: Couldn't allocate memory");
744                 return ret;
745             }
746             else if(ret)
747             {
748                 //process other daemons and ignore this one
749                 continue;
750             }
751         }
752         else if(strcasecmp("LongRunAvgLatency", child->key) == 0)
753         {
754             ret = cc_handle_bool(child, &long_run_latency_avg);
755             if(ret)
756             {
757                 return ret;
758             }
759         }
760         else if(strcasecmp("ConvertSpecialMetricTypes", child->key) == 0)
761         {
762             ret = cc_handle_bool(child, &convert_special_metrics);
763             if(ret)
764             {
765                 return ret;
766             }
767         }
768         else
769         {
770             WARNING("ceph plugin: ignoring unknown option %s", child->key);
771         }
772     }
773     return 0;
774 }
775
776 /**
777  * Parse JSON and get error message if present
778  */
779 static int
780 traverse_json(const unsigned char *json, uint32_t json_len, yajl_handle hand)
781 {
782     yajl_status status = yajl_parse(hand, json, json_len);
783     unsigned char *msg;
784
785     switch(status)
786     {
787         case yajl_status_error:
788             msg = yajl_get_error(hand, /* verbose = */ 1,
789                                        /* jsonText = */ (unsigned char *) json,
790                                                       (unsigned int) json_len);
791             ERROR ("ceph plugin: yajl_parse failed: %s", msg);
792             yajl_free_error(hand, msg);
793             return 1;
794         case yajl_status_client_canceled:
795             return 1;
796         default:
797             return 0;
798     }
799 }
800
801 /**
802  * Add entry for each counter while parsing schema
803  */
804 static int
805 node_handler_define_schema(void *arg, const char *val, const char *key)
806 {
807     struct ceph_daemon *d = (struct ceph_daemon *) arg;
808     int pc_type;
809     pc_type = atoi(val);
810     return ceph_daemon_add_ds_entry(d, key, pc_type);
811 }
812
813 /**
814  * Latency counter does not yet have an entry in last poll data - add it.
815  */
816 static int add_last(struct ceph_daemon *d, const char *ds_n, double cur_sum,
817         uint64_t cur_count)
818 {
819     d->last_poll_data[d->last_idx] = malloc(1 * sizeof(struct last_data));
820     if(!d->last_poll_data[d->last_idx])
821     {
822         return -ENOMEM;
823     }
824     sstrncpy(d->last_poll_data[d->last_idx]->ds_name,ds_n,
825             sizeof(d->last_poll_data[d->last_idx]->ds_name));
826     d->last_poll_data[d->last_idx]->last_sum = cur_sum;
827     d->last_poll_data[d->last_idx]->last_count = cur_count;
828     d->last_idx = (d->last_idx + 1);
829     return 0;
830 }
831
832 /**
833  * Update latency counter or add new entry if it doesn't exist
834  */
835 static int update_last(struct ceph_daemon *d, const char *ds_n, int index,
836         double cur_sum, uint64_t cur_count)
837 {
838     if((d->last_idx > index) && (strcmp(d->last_poll_data[index]->ds_name, ds_n) == 0))
839     {
840         d->last_poll_data[index]->last_sum = cur_sum;
841         d->last_poll_data[index]->last_count = cur_count;
842         return 0;
843     }
844
845     if(!d->last_poll_data)
846     {
847         d->last_poll_data = malloc(1 * sizeof(struct last_data *));
848         if(!d->last_poll_data)
849         {
850             return -ENOMEM;
851         }
852     }
853     else
854     {
855         struct last_data **tmp_last = realloc(d->last_poll_data,
856                 ((d->last_idx+1) * sizeof(struct last_data *)));
857         if(!tmp_last)
858         {
859             return -ENOMEM;
860         }
861         d->last_poll_data = tmp_last;
862     }
863     return add_last(d, ds_n, cur_sum, cur_count);
864 }
865
866 /**
867  * If using index guess failed (shouldn't happen, but possible if counters
868  * get rearranged), resort to searching for counter name
869  */
870 static int backup_search_for_last_avg(struct ceph_daemon *d, const char *ds_n)
871 {
872     int i = 0;
873     for(; i < d->last_idx; i++)
874     {
875         if(strcmp(d->last_poll_data[i]->ds_name, ds_n) == 0)
876         {
877             return i;
878         }
879     }
880     return -1;
881 }
882
883 /**
884  * Calculate average b/t current data and last poll data
885  * if last poll data exists
886  */
887 static double get_last_avg(struct ceph_daemon *d, const char *ds_n, int index,
888         double cur_sum, uint64_t cur_count)
889 {
890     double result = -1.1, sum_delt = 0.0;
891     uint64_t count_delt = 0;
892     int tmp_index = 0;
893     if(d->last_idx > index)
894     {
895         if(strcmp(d->last_poll_data[index]->ds_name, ds_n) == 0)
896         {
897             tmp_index = index;
898         }
899         //test previous index
900         else if((index > 0) && (strcmp(d->last_poll_data[index-1]->ds_name, ds_n) == 0))
901         {
902             tmp_index = (index - 1);
903         }
904         else
905         {
906             tmp_index = backup_search_for_last_avg(d, ds_n);
907         }
908
909         if((tmp_index > -1) && (cur_count > d->last_poll_data[tmp_index]->last_count))
910         {
911             sum_delt = (cur_sum - d->last_poll_data[tmp_index]->last_sum);
912             count_delt = (cur_count - d->last_poll_data[tmp_index]->last_count);
913             result = (sum_delt / count_delt);
914         }
915     }
916
917     if(result == -1.1)
918     {
919         result = NAN;
920     }
921     if(update_last(d, ds_n, tmp_index, cur_sum, cur_count) == -ENOMEM)
922     {
923         return -ENOMEM;
924     }
925     return result;
926 }
927
928 /**
929  * If using index guess failed, resort to searching for counter name
930  */
931 static uint32_t backup_search_for_type(struct ceph_daemon *d, char *ds_name)
932 {
933     int idx = 0;
934     for(; idx < d->ds_num; idx++)
935     {
936         if(strcmp(d->ds_names[idx], ds_name) == 0)
937         {
938             return d->ds_types[idx];
939         }
940     }
941     return DSET_TYPE_UNFOUND;
942 }
943
944 /**
945  * Process counter data and dispatch values
946  */
947 static int node_handler_fetch_data(void *arg, const char *val, const char *key)
948 {
949     value_t uv;
950     double tmp_d;
951     uint64_t tmp_u;
952     struct values_tmp *vtmp = (struct values_tmp*) arg;
953     uint32_t type = DSET_TYPE_UNFOUND;
954     int index = vtmp->index;
955
956     char ds_name[DATA_MAX_NAME_LEN];
957     memset(ds_name, 0, sizeof(ds_name));
958
959     if(parse_keys(key, ds_name))
960     {
961         return 1;
962     }
963
964     if(index >= vtmp->d->ds_num)
965     {
966         //don't overflow bounds of array
967         index = (vtmp->d->ds_num - 1);
968     }
969
970     /**
971      * counters should remain in same order we parsed schema... we maintain the
972      * index variable to keep track of current point in list of counters. first
973      * use index to guess point in array for retrieving type. if that doesn't
974      * work, use the old way to get the counter type
975      */
976     if(strcmp(ds_name, vtmp->d->ds_names[index]) == 0)
977     {
978         //found match
979         type = vtmp->d->ds_types[index];
980     }
981     else if((index > 0) && (strcmp(ds_name, vtmp->d->ds_names[index-1]) == 0))
982     {
983         //try previous key
984         type = vtmp->d->ds_types[index-1];
985     }
986
987     if(type == DSET_TYPE_UNFOUND)
988     {
989         //couldn't find right type by guessing, check the old way
990         type = backup_search_for_type(vtmp->d, ds_name);
991     }
992
993     switch(type)
994     {
995         case DSET_LATENCY:
996             if(vtmp->avgcount_exists == -1)
997             {
998                 sscanf(val, "%" PRIu64, &vtmp->avgcount);
999                 vtmp->avgcount_exists = 0;
1000                 //return after saving avgcount - don't dispatch value
1001                 //until latency calculation
1002                 return 0;
1003             }
1004             else
1005             {
1006                 double sum, result;
1007                 sscanf(val, "%lf", &sum);
1008
1009                 if(vtmp->avgcount == 0)
1010                 {
1011                     vtmp->avgcount = 1;
1012                 }
1013
1014                 /** User wants latency values as long run avg */
1015                 if(long_run_latency_avg)
1016                 {
1017                     result = (sum / vtmp->avgcount);
1018                 }
1019                 else
1020                 {
1021                     result = get_last_avg(vtmp->d, ds_name, vtmp->latency_index, sum, vtmp->avgcount);
1022                     if(result == -ENOMEM)
1023                     {
1024                         return -ENOMEM;
1025                     }
1026                 }
1027
1028                 uv.gauge = result;
1029                 vtmp->avgcount_exists = -1;
1030                 vtmp->latency_index = (vtmp->latency_index + 1);
1031             }
1032             break;
1033         case DSET_BYTES:
1034             sscanf(val, "%lf", &tmp_d);
1035             uv.gauge = tmp_d;
1036             break;
1037         case DSET_RATE:
1038             sscanf(val, "%" PRIu64, &tmp_u);
1039             uv.derive = tmp_u;
1040             break;
1041         case DSET_TYPE_UNFOUND:
1042         default:
1043             ERROR("ceph plugin: ds %s was not properly initialized.", ds_name);
1044             return -1;
1045     }
1046
1047     sstrncpy(vtmp->vlist.type, ceph_dset_types[type], sizeof(vtmp->vlist.type));
1048     sstrncpy(vtmp->vlist.type_instance, ds_name, sizeof(vtmp->vlist.type_instance));
1049     vtmp->vlist.values = &uv;
1050     vtmp->vlist.values_len = 1;
1051
1052     vtmp->index = (vtmp->index + 1);
1053     plugin_dispatch_values(&vtmp->vlist);
1054
1055     return 0;
1056 }
1057
1058 static int cconn_connect(struct cconn *io)
1059 {
1060     struct sockaddr_un address;
1061     int flags, fd, err;
1062     if(io->state != CSTATE_UNCONNECTED)
1063     {
1064         ERROR("ceph plugin: cconn_connect: io->state != CSTATE_UNCONNECTED");
1065         return -EDOM;
1066     }
1067     fd = socket(PF_UNIX, SOCK_STREAM, 0);
1068     if(fd < 0)
1069     {
1070         int err = -errno;
1071         ERROR("ceph plugin: cconn_connect: socket(PF_UNIX, SOCK_STREAM, 0) "
1072             "failed: error %d", err);
1073         return err;
1074     }
1075     memset(&address, 0, sizeof(struct sockaddr_un));
1076     address.sun_family = AF_UNIX;
1077     snprintf(address.sun_path, sizeof(address.sun_path), "%s",
1078             io->d->asok_path);
1079     RETRY_ON_EINTR(err,
1080         connect(fd, (struct sockaddr *) &address, sizeof(struct sockaddr_un)));
1081     if(err < 0)
1082     {
1083         ERROR("ceph plugin: cconn_connect: connect(%d) failed: error %d",
1084             fd, err);
1085         close(fd);
1086         return err;
1087     }
1088
1089     flags = fcntl(fd, F_GETFL, 0);
1090     if(fcntl(fd, F_SETFL, flags | O_NONBLOCK) != 0)
1091     {
1092         err = -errno;
1093         ERROR("ceph plugin: cconn_connect: fcntl(%d, O_NONBLOCK) error %d",
1094             fd, err);
1095         close(fd);
1096         return err;
1097     }
1098     io->asok = fd;
1099     io->state = CSTATE_WRITE_REQUEST;
1100     io->amt = 0;
1101     io->json_len = 0;
1102     io->json = NULL;
1103     return 0;
1104 }
1105
1106 static void cconn_close(struct cconn *io)
1107 {
1108     io->state = CSTATE_UNCONNECTED;
1109     if(io->asok != -1)
1110     {
1111         int res;
1112         RETRY_ON_EINTR(res, close(io->asok));
1113     }
1114     io->asok = -1;
1115     io->amt = 0;
1116     io->json_len = 0;
1117     sfree(io->json);
1118     io->json = NULL;
1119 }
1120
1121 /* Process incoming JSON counter data */
1122 static int
1123 cconn_process_data(struct cconn *io, yajl_struct *yajl, yajl_handle hand)
1124 {
1125     int ret;
1126     struct values_tmp *vtmp = calloc(1, sizeof(struct values_tmp) * 1);
1127     if(!vtmp)
1128     {
1129         return -ENOMEM;
1130     }
1131
1132     vtmp->vlist = (value_list_t)VALUE_LIST_INIT;
1133     sstrncpy(vtmp->vlist.host, hostname_g, sizeof(vtmp->vlist.host));
1134     sstrncpy(vtmp->vlist.plugin, "ceph", sizeof(vtmp->vlist.plugin));
1135     sstrncpy(vtmp->vlist.plugin_instance, io->d->name, sizeof(vtmp->vlist.plugin_instance));
1136
1137     vtmp->d = io->d;
1138     vtmp->avgcount_exists = -1;
1139     vtmp->latency_index = 0;
1140     vtmp->index = 0;
1141     yajl->handler_arg = vtmp;
1142     ret = traverse_json(io->json, io->json_len, hand);
1143     sfree(vtmp);
1144     return ret;
1145 }
1146
1147 /**
1148  * Initiate JSON parsing and print error if one occurs
1149  */
1150 static int cconn_process_json(struct cconn *io)
1151 {
1152     if((io->request_type != ASOK_REQ_DATA) &&
1153             (io->request_type != ASOK_REQ_SCHEMA))
1154     {
1155         return -EDOM;
1156     }
1157
1158     int result = 1;
1159     yajl_handle hand;
1160     yajl_status status;
1161
1162     hand = yajl_alloc(&callbacks,
1163 #if HAVE_YAJL_V2
1164       /* alloc funcs = */ NULL,
1165 #else
1166       /* alloc funcs = */ NULL, NULL,
1167 #endif
1168       /* context = */ (void *)(&io->yajl));
1169
1170     if(!hand)
1171     {
1172         ERROR ("ceph plugin: yajl_alloc failed.");
1173         return ENOMEM;
1174     }
1175
1176     io->yajl.depth = 0;
1177
1178     switch(io->request_type)
1179     {
1180         case ASOK_REQ_DATA:
1181             io->yajl.handler = node_handler_fetch_data;
1182             result = cconn_process_data(io, &io->yajl, hand);
1183             break;
1184         case ASOK_REQ_SCHEMA:
1185             //init daemon specific variables
1186             io->d->ds_num = 0;
1187             io->d->last_idx = 0;
1188             io->d->last_poll_data = NULL;
1189             io->yajl.handler = node_handler_define_schema;
1190             io->yajl.handler_arg = io->d;
1191             result = traverse_json(io->json, io->json_len, hand);
1192             break;
1193     }
1194
1195     if(result)
1196     {
1197         goto done;
1198     }
1199
1200 #if HAVE_YAJL_V2
1201     status = yajl_complete_parse(hand);
1202 #else
1203     status = yajl_parse_complete(hand);
1204 #endif
1205
1206     if (status != yajl_status_ok)
1207     {
1208       unsigned char *errmsg = yajl_get_error (hand, /* verbose = */ 0,
1209           /* jsonText = */ NULL, /* jsonTextLen = */ 0);
1210       ERROR ("ceph plugin: yajl_parse_complete failed: %s",
1211           (char *) errmsg);
1212       yajl_free_error (hand, errmsg);
1213       yajl_free (hand);
1214       return 1;
1215     }
1216
1217     done:
1218     yajl_free (hand);
1219     return result;
1220 }
1221
1222 static int cconn_validate_revents(struct cconn *io, int revents)
1223 {
1224     if(revents & POLLERR)
1225     {
1226         ERROR("ceph plugin: cconn_validate_revents(name=%s): got POLLERR",
1227             io->d->name);
1228         return -EIO;
1229     }
1230     switch (io->state)
1231     {
1232         case CSTATE_WRITE_REQUEST:
1233             return (revents & POLLOUT) ? 0 : -EINVAL;
1234         case CSTATE_READ_VERSION:
1235         case CSTATE_READ_AMT:
1236         case CSTATE_READ_JSON:
1237             return (revents & POLLIN) ? 0 : -EINVAL;
1238         default:
1239             ERROR("ceph plugin: cconn_validate_revents(name=%s) got to "
1240                 "illegal state on line %d", io->d->name, __LINE__);
1241             return -EDOM;
1242     }
1243 }
1244
1245 /** Handle a network event for a connection */
1246 static int cconn_handle_event(struct cconn *io)
1247 {
1248     int ret;
1249     switch (io->state)
1250     {
1251         case CSTATE_UNCONNECTED:
1252             ERROR("ceph plugin: cconn_handle_event(name=%s) got to illegal "
1253                 "state on line %d", io->d->name, __LINE__);
1254
1255             return -EDOM;
1256         case CSTATE_WRITE_REQUEST:
1257         {
1258             char cmd[32];
1259             snprintf(cmd, sizeof(cmd), "%s%d%s", "{ \"prefix\": \"",
1260                     io->request_type, "\" }\n");
1261             size_t cmd_len = strlen(cmd);
1262             RETRY_ON_EINTR(ret,
1263                   write(io->asok, ((char*)&cmd) + io->amt, cmd_len - io->amt));
1264             DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,amt=%d,ret=%d)",
1265                     io->d->name, io->state, io->amt, ret);
1266             if(ret < 0)
1267             {
1268                 return ret;
1269             }
1270             io->amt += ret;
1271             if(io->amt >= cmd_len)
1272             {
1273                 io->amt = 0;
1274                 switch (io->request_type)
1275                 {
1276                     case ASOK_REQ_VERSION:
1277                         io->state = CSTATE_READ_VERSION;
1278                         break;
1279                     default:
1280                         io->state = CSTATE_READ_AMT;
1281                         break;
1282                 }
1283             }
1284             return 0;
1285         }
1286         case CSTATE_READ_VERSION:
1287         {
1288             RETRY_ON_EINTR(ret,
1289                     read(io->asok, ((char*)(&io->d->version)) + io->amt,
1290                             sizeof(io->d->version) - io->amt));
1291             DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,ret=%d)",
1292                     io->d->name, io->state, ret);
1293             if(ret < 0)
1294             {
1295                 return ret;
1296             }
1297             io->amt += ret;
1298             if(io->amt >= sizeof(io->d->version))
1299             {
1300                 io->d->version = ntohl(io->d->version);
1301                 if(io->d->version != 1)
1302                 {
1303                     ERROR("ceph plugin: cconn_handle_event(name=%s) not "
1304                         "expecting version %d!", io->d->name, io->d->version);
1305                     return -ENOTSUP;
1306                 }
1307                 DEBUG("ceph plugin: cconn_handle_event(name=%s): identified as "
1308                         "version %d", io->d->name, io->d->version);
1309                 io->amt = 0;
1310                 cconn_close(io);
1311                 io->request_type = ASOK_REQ_SCHEMA;
1312             }
1313             return 0;
1314         }
1315         case CSTATE_READ_AMT:
1316         {
1317             RETRY_ON_EINTR(ret,
1318                     read(io->asok, ((char*)(&io->json_len)) + io->amt,
1319                             sizeof(io->json_len) - io->amt));
1320             DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,ret=%d)",
1321                     io->d->name, io->state, ret);
1322             if(ret < 0)
1323             {
1324                 return ret;
1325             }
1326             io->amt += ret;
1327             if(io->amt >= sizeof(io->json_len))
1328             {
1329                 io->json_len = ntohl(io->json_len);
1330                 io->amt = 0;
1331                 io->state = CSTATE_READ_JSON;
1332                 io->json = calloc(1, io->json_len + 1);
1333                 if(!io->json)
1334                 {
1335                     ERROR("ceph plugin: error callocing io->json");
1336                     return -ENOMEM;
1337                 }
1338             }
1339             return 0;
1340         }
1341         case CSTATE_READ_JSON:
1342         {
1343             RETRY_ON_EINTR(ret,
1344                    read(io->asok, io->json + io->amt, io->json_len - io->amt));
1345             DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,ret=%d)",
1346                     io->d->name, io->state, ret);
1347             if(ret < 0)
1348             {
1349                 return ret;
1350             }
1351             io->amt += ret;
1352             if(io->amt >= io->json_len)
1353             {
1354                 ret = cconn_process_json(io);
1355                 if(ret)
1356                 {
1357                     return ret;
1358                 }
1359                 cconn_close(io);
1360                 io->request_type = ASOK_REQ_NONE;
1361             }
1362             return 0;
1363         }
1364         default:
1365             ERROR("ceph plugin: cconn_handle_event(name=%s) got to illegal "
1366                 "state on line %d", io->d->name, __LINE__);
1367             return -EDOM;
1368     }
1369 }
1370
1371 static int cconn_prepare(struct cconn *io, struct pollfd* fds)
1372 {
1373     int ret;
1374     if(io->request_type == ASOK_REQ_NONE)
1375     {
1376         /* The request has already been serviced. */
1377         return 0;
1378     }
1379     else if((io->request_type == ASOK_REQ_DATA) && (io->d->ds_num == 0))
1380     {
1381         /* If there are no counters to report on, don't bother
1382          * connecting */
1383         return 0;
1384     }
1385
1386     switch (io->state)
1387     {
1388         case CSTATE_UNCONNECTED:
1389             ret = cconn_connect(io);
1390             if(ret > 0)
1391             {
1392                 return -ret;
1393             }
1394             else if(ret < 0)
1395             {
1396                 return ret;
1397             }
1398             fds->fd = io->asok;
1399             fds->events = POLLOUT;
1400             return 1;
1401         case CSTATE_WRITE_REQUEST:
1402             fds->fd = io->asok;
1403             fds->events = POLLOUT;
1404             return 1;
1405         case CSTATE_READ_VERSION:
1406         case CSTATE_READ_AMT:
1407         case CSTATE_READ_JSON:
1408             fds->fd = io->asok;
1409             fds->events = POLLIN;
1410             return 1;
1411         default:
1412             ERROR("ceph plugin: cconn_prepare(name=%s) got to illegal state "
1413                 "on line %d", io->d->name, __LINE__);
1414             return -EDOM;
1415     }
1416 }
1417
1418 /** Returns the difference between two struct timevals in milliseconds.
1419  * On overflow, we return max/min int.
1420  */
1421 static int milli_diff(const struct timeval *t1, const struct timeval *t2)
1422 {
1423     int64_t ret;
1424     int sec_diff = t1->tv_sec - t2->tv_sec;
1425     int usec_diff = t1->tv_usec - t2->tv_usec;
1426     ret = usec_diff / 1000;
1427     ret += (sec_diff * 1000);
1428     return (ret > INT_MAX) ? INT_MAX : ((ret < INT_MIN) ? INT_MIN : (int)ret);
1429 }
1430
1431 /** This handles the actual network I/O to talk to the Ceph daemons.
1432  */
1433 static int cconn_main_loop(uint32_t request_type)
1434 {
1435     int i, ret, some_unreachable = 0;
1436     struct timeval end_tv;
1437     struct cconn io_array[g_num_daemons];
1438
1439     DEBUG("ceph plugin: entering cconn_main_loop(request_type = %d)", request_type);
1440
1441     /* create cconn array */
1442     memset(io_array, 0, sizeof(io_array));
1443     for(i = 0; i < g_num_daemons; ++i)
1444     {
1445         io_array[i].d = g_daemons[i];
1446         io_array[i].request_type = request_type;
1447         io_array[i].state = CSTATE_UNCONNECTED;
1448     }
1449
1450     /** Calculate the time at which we should give up */
1451     gettimeofday(&end_tv, NULL);
1452     end_tv.tv_sec += CEPH_TIMEOUT_INTERVAL;
1453
1454     while (1)
1455     {
1456         int nfds, diff;
1457         struct timeval tv;
1458         struct cconn *polled_io_array[g_num_daemons];
1459         struct pollfd fds[g_num_daemons];
1460         memset(fds, 0, sizeof(fds));
1461         nfds = 0;
1462         for(i = 0; i < g_num_daemons; ++i)
1463         {
1464             struct cconn *io = io_array + i;
1465             ret = cconn_prepare(io, fds + nfds);
1466             if(ret < 0)
1467             {
1468                 WARNING("ceph plugin: cconn_prepare(name=%s,i=%d,st=%d)=%d",
1469                         io->d->name, i, io->state, ret);
1470                 cconn_close(io);
1471                 io->request_type = ASOK_REQ_NONE;
1472                 some_unreachable = 1;
1473             }
1474             else if(ret == 1)
1475             {
1476                 polled_io_array[nfds++] = io_array + i;
1477             }
1478         }
1479         if(nfds == 0)
1480         {
1481             /* finished */
1482             ret = 0;
1483             goto done;
1484         }
1485         gettimeofday(&tv, NULL);
1486         diff = milli_diff(&end_tv, &tv);
1487         if(diff <= 0)
1488         {
1489             /* Timed out */
1490             ret = -ETIMEDOUT;
1491             WARNING("ceph plugin: cconn_main_loop: timed out.");
1492             goto done;
1493         }
1494         RETRY_ON_EINTR(ret, poll(fds, nfds, diff));
1495         if(ret < 0)
1496         {
1497             ERROR("ceph plugin: poll(2) error: %d", ret);
1498             goto done;
1499         }
1500         for(i = 0; i < nfds; ++i)
1501         {
1502             struct cconn *io = polled_io_array[i];
1503             int revents = fds[i].revents;
1504             if(revents == 0)
1505             {
1506                 /* do nothing */
1507             }
1508             else if(cconn_validate_revents(io, revents))
1509             {
1510                 WARNING("ceph plugin: cconn(name=%s,i=%d,st=%d): "
1511                 "revents validation error: "
1512                 "revents=0x%08x", io->d->name, i, io->state, revents);
1513                 cconn_close(io);
1514                 io->request_type = ASOK_REQ_NONE;
1515                 some_unreachable = 1;
1516             }
1517             else
1518             {
1519                 int ret = cconn_handle_event(io);
1520                 if(ret)
1521                 {
1522                     WARNING("ceph plugin: cconn_handle_event(name=%s,"
1523                     "i=%d,st=%d): error %d", io->d->name, i, io->state, ret);
1524                     cconn_close(io);
1525                     io->request_type = ASOK_REQ_NONE;
1526                     some_unreachable = 1;
1527                 }
1528             }
1529         }
1530     }
1531     done: for(i = 0; i < g_num_daemons; ++i)
1532     {
1533         cconn_close(io_array + i);
1534     }
1535     if(some_unreachable)
1536     {
1537         DEBUG("ceph plugin: cconn_main_loop: some Ceph daemons were unreachable.");
1538     }
1539     else
1540     {
1541         DEBUG("ceph plugin: cconn_main_loop: reached all Ceph daemons :)");
1542     }
1543     return ret;
1544 }
1545
1546 static int ceph_read(void)
1547 {
1548     return cconn_main_loop(ASOK_REQ_DATA);
1549 }
1550
1551 /******* lifecycle *******/
1552 static int ceph_init(void)
1553 {
1554     int ret;
1555     ceph_daemons_print();
1556
1557     ret = cconn_main_loop(ASOK_REQ_VERSION);
1558
1559     return (ret) ? ret : 0;
1560 }
1561
1562 static int ceph_shutdown(void)
1563 {
1564     int i;
1565     for(i = 0; i < g_num_daemons; ++i)
1566     {
1567         ceph_daemon_free(g_daemons[i]);
1568     }
1569     sfree(g_daemons);
1570     g_daemons = NULL;
1571     g_num_daemons = 0;
1572     DEBUG("ceph plugin: finished ceph_shutdown");
1573     return 0;
1574 }
1575
1576 void module_register(void)
1577 {
1578     plugin_register_complex_config("ceph", ceph_config);
1579     plugin_register_init("ceph", ceph_init);
1580     plugin_register_read("ceph", ceph_read);
1581     plugin_register_shutdown("ceph", ceph_shutdown);
1582 }