21 #include <netlink-local.h>
22 #include <netlink-tc.h>
23 #include <netlink/netlink.h>
24 #include <netlink/utils.h>
25 #include <netlink/route/qdisc.h>
26 #include <netlink/route/qdisc-modules.h>
27 #include <netlink/route/sch/netem.h>
30 #define SCH_NETEM_ATTR_LATENCY 0x001
31 #define SCH_NETEM_ATTR_LIMIT 0x002
32 #define SCH_NETEM_ATTR_LOSS 0x004
33 #define SCH_NETEM_ATTR_GAP 0x008
34 #define SCH_NETEM_ATTR_DUPLICATE 0x010
35 #define SCH_NETEM_ATTR_JITTER 0x020
36 #define SCH_NETEM_ATTR_DELAY_CORR 0x040
37 #define SCH_NETEM_ATTR_LOSS_CORR 0x080
38 #define SCH_NETEM_ATTR_DUP_CORR 0x100
39 #define SCH_NETEM_ATTR_RO_PROB 0x200
40 #define SCH_NETEM_ATTR_RO_CORR 0x400
43 static inline struct rtnl_netem *netem_qdisc(
struct rtnl_qdisc *qdisc)
45 return (
struct rtnl_netem *) qdisc->q_subdata;
48 static inline struct rtnl_netem *netem_alloc(
struct rtnl_qdisc *qdisc)
50 if (!qdisc->q_subdata)
51 qdisc->q_subdata = calloc(1,
sizeof(
struct rtnl_netem));
53 return netem_qdisc(qdisc);
56 static struct nla_policy netem_policy[TCA_NETEM_MAX+1] = {
57 [TCA_NETEM_CORR] = { .
minlen =
sizeof(
struct tc_netem_corr) },
58 [TCA_NETEM_REORDER] = { .minlen =
sizeof(
struct tc_netem_reorder) },
61 static int netem_msg_parser(
struct rtnl_qdisc *qdisc)
64 struct rtnl_netem *netem;
65 struct tc_netem_qopt *opts;
67 if (qdisc->q_opts->d_size <
sizeof(*opts))
68 return nl_error(EINVAL,
"Netem specific options size mismatch");
70 netem = netem_alloc(qdisc);
72 return nl_errno(ENOMEM);
74 opts = (
struct tc_netem_qopt *) qdisc->q_opts->d_data;
75 netem->qnm_latency = opts->latency;
76 netem->qnm_limit = opts->limit;
77 netem->qnm_loss = opts->loss;
78 netem->qnm_gap = opts->gap;
79 netem->qnm_duplicate = opts->duplicate;
80 netem->qnm_jitter = opts->jitter;
82 netem->qnm_mask = (SCH_NETEM_ATTR_LATENCY | SCH_NETEM_ATTR_LIMIT |
83 SCH_NETEM_ATTR_LOSS | SCH_NETEM_ATTR_GAP |
84 SCH_NETEM_ATTR_DUPLICATE | SCH_NETEM_ATTR_JITTER);
86 len = qdisc->q_opts->d_size -
sizeof(*opts);
89 struct nlattr *tb[TCA_NETEM_MAX+1];
91 err =
nla_parse(tb, TCA_NETEM_MAX, (
struct nlattr *)
92 qdisc->q_opts->d_data +
sizeof(*opts),
99 if (tb[TCA_NETEM_CORR]) {
100 struct tc_netem_corr cor;
102 nla_memcpy(&cor, tb[TCA_NETEM_CORR],
sizeof(cor));
103 netem->qnm_corr.nmc_delay = cor.delay_corr;
104 netem->qnm_corr.nmc_loss = cor.loss_corr;
105 netem->qnm_corr.nmc_duplicate = cor.dup_corr;
107 netem->qnm_mask |= (SCH_NETEM_ATTR_DELAY_CORR |
108 SCH_NETEM_ATTR_LOSS_CORR |
109 SCH_NETEM_ATTR_DELAY_CORR);
112 if (tb[TCA_NETEM_REORDER]) {
113 struct tc_netem_reorder ro;
115 nla_memcpy(&ro, tb[TCA_NETEM_REORDER],
sizeof(ro));
116 netem->qnm_ro.nmro_probability = ro.probability;
117 netem->qnm_ro.nmro_correlation = ro.correlation;
119 netem->qnm_mask |= (SCH_NETEM_ATTR_RO_PROB |
120 SCH_NETEM_ATTR_RO_CORR);
127 static void netem_free_data(
struct rtnl_qdisc *qdisc)
129 free(qdisc->q_subdata);
132 static int netem_dump_brief(
struct rtnl_qdisc *qdisc,
struct nl_dump_params *p,
135 struct rtnl_netem *netem = netem_qdisc(qdisc);
138 dp_dump(p,
"limit %d", netem->qnm_limit);
143 static int netem_dump_full(
struct rtnl_qdisc *qdisc,
struct nl_dump_params *p,
149 static struct nl_msg *netem_get_opts(
struct rtnl_qdisc *qdisc)
167 struct rtnl_netem *netem;
169 netem = netem_alloc(qdisc);
171 return nl_errno(ENOMEM);
173 netem->qnm_limit = limit;
174 netem->qnm_mask |= SCH_NETEM_ATTR_LIMIT;
186 struct rtnl_netem *netem;
188 netem = netem_qdisc(qdisc);
189 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_LIMIT))
190 return netem->qnm_limit;
192 return nl_errno(ENOENT);
210 struct rtnl_netem *netem;
212 netem = netem_alloc(qdisc);
214 return nl_errno(ENOMEM);
216 netem->qnm_gap = gap;
217 netem->qnm_mask |= SCH_NETEM_ATTR_GAP;
229 struct rtnl_netem *netem;
231 netem = netem_qdisc(qdisc);
232 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_GAP))
233 return netem->qnm_gap;
235 return nl_errno(ENOENT);
246 struct rtnl_netem *netem;
248 netem = netem_alloc(qdisc);
250 return nl_errno(ENOMEM);
252 netem->qnm_ro.nmro_probability = prob;
253 netem->qnm_mask |= SCH_NETEM_ATTR_RO_PROB;
265 struct rtnl_netem *netem;
267 netem = netem_qdisc(qdisc);
268 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_RO_PROB))
269 return netem->qnm_ro.nmro_probability;
271 return nl_errno(ENOENT);
282 struct rtnl_netem *netem;
284 netem = netem_alloc(qdisc);
286 return nl_errno(ENOMEM);
288 netem->qnm_ro.nmro_correlation = prob;
289 netem->qnm_mask |= SCH_NETEM_ATTR_RO_CORR;
301 struct rtnl_netem *netem;
303 netem = netem_qdisc(qdisc);
304 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_RO_CORR))
305 return netem->qnm_ro.nmro_correlation;
307 return nl_errno(ENOENT);
325 struct rtnl_netem *netem;
327 netem = netem_alloc(qdisc);
329 return nl_errno(ENOMEM);
331 netem->qnm_loss = prob;
332 netem->qnm_mask |= SCH_NETEM_ATTR_LOSS;
344 struct rtnl_netem *netem;
346 netem = netem_qdisc(qdisc);
347 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_LOSS))
348 return netem->qnm_loss;
350 return nl_errno(ENOENT);
361 struct rtnl_netem *netem;
363 netem = netem_alloc(qdisc);
365 return nl_errno(ENOMEM);
367 netem->qnm_corr.nmc_loss = prob;
368 netem->qnm_mask |= SCH_NETEM_ATTR_LOSS_CORR;
380 struct rtnl_netem *netem;
382 netem = netem_qdisc(qdisc);
383 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_LOSS_CORR))
384 return netem->qnm_corr.nmc_loss;
386 return nl_errno(ENOENT);
404 struct rtnl_netem *netem;
406 netem = netem_alloc(qdisc);
408 return nl_errno(ENOMEM);
410 netem->qnm_duplicate = prob;
411 netem->qnm_mask |= SCH_NETEM_ATTR_DUPLICATE;
423 struct rtnl_netem *netem;
425 netem = netem_qdisc(qdisc);
426 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_DUPLICATE))
427 return netem->qnm_duplicate;
429 return nl_errno(ENOENT);
440 struct rtnl_netem *netem;
442 netem = netem_alloc(qdisc);
444 return nl_errno(ENOMEM);
446 netem->qnm_corr.nmc_duplicate = prob;
447 netem->qnm_mask |= SCH_NETEM_ATTR_DUP_CORR;
459 struct rtnl_netem *netem;
461 netem = netem_qdisc(qdisc);
462 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_DUP_CORR))
463 return netem->qnm_corr.nmc_duplicate;
465 return nl_errno(ENOENT);
483 struct rtnl_netem *netem;
485 netem = netem_alloc(qdisc);
487 return nl_errno(ENOMEM);
490 netem->qnm_mask |= SCH_NETEM_ATTR_LATENCY;
502 struct rtnl_netem *netem;
504 netem = netem_qdisc(qdisc);
505 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_LATENCY))
508 return nl_errno(ENOENT);
519 struct rtnl_netem *netem;
521 netem = netem_alloc(qdisc);
523 return nl_errno(ENOMEM);
526 netem->qnm_mask |= SCH_NETEM_ATTR_JITTER;
538 struct rtnl_netem *netem;
540 netem = netem_qdisc(qdisc);
541 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_JITTER))
544 return nl_errno(ENOENT);
554 struct rtnl_netem *netem;
556 netem = netem_alloc(qdisc);
558 return nl_errno(ENOMEM);
560 netem->qnm_corr.nmc_delay = prob;
561 netem->qnm_mask |= SCH_NETEM_ATTR_DELAY_CORR;
573 struct rtnl_netem *netem;
575 netem = netem_qdisc(qdisc);
576 if (netem && (netem->qnm_mask & SCH_NETEM_ATTR_DELAY_CORR))
577 return netem->qnm_corr.nmc_delay;
579 return nl_errno(ENOENT);
586 .qo_msg_parser = netem_msg_parser,
587 .qo_free_data = netem_free_data,
590 .qo_get_opts = netem_get_opts,
593 static void __init netem_init(
void)
598 static void __exit netem_exit(
void)