netdev-dummy: fix crash with more than one passive connection
[cascardo/ovs.git] / lib / netdev-dummy.c
1 /*
2  * Copyright (c) 2010, 2011, 2012, 2013, 2015, 2016 Nicira, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <config.h>
18
19 #include "dummy.h"
20
21 #include <errno.h>
22 #include <unistd.h>
23
24 #include "dp-packet.h"
25 #include "dpif-netdev.h"
26 #include "flow.h"
27 #include "netdev-provider.h"
28 #include "netdev-vport.h"
29 #include "odp-util.h"
30 #include "openvswitch/dynamic-string.h"
31 #include "openvswitch/list.h"
32 #include "openvswitch/ofp-print.h"
33 #include "openvswitch/ofpbuf.h"
34 #include "openvswitch/vlog.h"
35 #include "ovs-atomic.h"
36 #include "packets.h"
37 #include "pcap-file.h"
38 #include "poll-loop.h"
39 #include "shash.h"
40 #include "sset.h"
41 #include "stream.h"
42 #include "unaligned.h"
43 #include "timeval.h"
44 #include "unixctl.h"
45 #include "reconnect.h"
46
47 VLOG_DEFINE_THIS_MODULE(netdev_dummy);
48
49 struct reconnect;
50
51 struct dummy_packet_stream {
52     struct stream *stream;
53     struct dp_packet rxbuf;
54     struct ovs_list txq;
55 };
56
57 enum dummy_packet_conn_type {
58     NONE,       /* No connection is configured. */
59     PASSIVE,    /* Listener. */
60     ACTIVE      /* Connect to listener. */
61 };
62
63 enum dummy_netdev_conn_state {
64     CONN_STATE_CONNECTED,      /* Listener connected. */
65     CONN_STATE_NOT_CONNECTED,  /* Listener not connected.  */
66     CONN_STATE_UNKNOWN,        /* No relavent information.  */
67 };
68
69 struct dummy_packet_pconn {
70     struct pstream *pstream;
71     struct dummy_packet_stream **streams;
72     size_t n_streams;
73 };
74
75 struct dummy_packet_rconn {
76     struct dummy_packet_stream *rstream;
77     struct reconnect *reconnect;
78 };
79
80 struct dummy_packet_conn {
81     enum dummy_packet_conn_type type;
82     union {
83         struct dummy_packet_pconn pconn;
84         struct dummy_packet_rconn rconn;
85     } u;
86 };
87
88 struct pkt_list_node {
89     struct dp_packet *pkt;
90     struct ovs_list list_node;
91 };
92
93 /* Protects 'dummy_list'. */
94 static struct ovs_mutex dummy_list_mutex = OVS_MUTEX_INITIALIZER;
95
96 /* Contains all 'struct dummy_dev's. */
97 static struct ovs_list dummy_list OVS_GUARDED_BY(dummy_list_mutex)
98     = OVS_LIST_INITIALIZER(&dummy_list);
99
100 struct netdev_dummy {
101     struct netdev up;
102
103     /* In dummy_list. */
104     struct ovs_list list_node OVS_GUARDED_BY(dummy_list_mutex);
105
106     /* Protects all members below. */
107     struct ovs_mutex mutex OVS_ACQ_AFTER(dummy_list_mutex);
108
109     struct eth_addr hwaddr OVS_GUARDED;
110     int mtu OVS_GUARDED;
111     struct netdev_stats stats OVS_GUARDED;
112     enum netdev_flags flags OVS_GUARDED;
113     int ifindex OVS_GUARDED;
114     int numa_id OVS_GUARDED;
115
116     struct dummy_packet_conn conn OVS_GUARDED;
117
118     FILE *tx_pcap, *rxq_pcap OVS_GUARDED;
119
120     struct in_addr address, netmask;
121     struct in6_addr ipv6, ipv6_mask;
122     struct ovs_list rxes OVS_GUARDED; /* List of child "netdev_rxq_dummy"s. */
123
124     /* The following properties are for dummy-pmd and they cannot be changed
125      * when a device is running, so we remember the request and update them
126      * next time netdev_dummy_reconfigure() is called. */
127     int requested_n_txq OVS_GUARDED;
128     int requested_n_rxq OVS_GUARDED;
129     int requested_numa_id OVS_GUARDED;
130 };
131
132 /* Max 'recv_queue_len' in struct netdev_dummy. */
133 #define NETDEV_DUMMY_MAX_QUEUE 100
134
135 struct netdev_rxq_dummy {
136     struct netdev_rxq up;
137     struct ovs_list node;       /* In netdev_dummy's "rxes" list. */
138     struct ovs_list recv_queue;
139     int recv_queue_len;         /* ovs_list_size(&recv_queue). */
140     struct seq *seq;            /* Reports newly queued packets. */
141 };
142
143 static unixctl_cb_func netdev_dummy_set_admin_state;
144 static int netdev_dummy_construct(struct netdev *);
145 static void netdev_dummy_queue_packet(struct netdev_dummy *,
146                                       struct dp_packet *, int);
147
148 static void dummy_packet_stream_close(struct dummy_packet_stream *);
149
150 static void pkt_list_delete(struct ovs_list *);
151
152 static bool
153 is_dummy_class(const struct netdev_class *class)
154 {
155     return class->construct == netdev_dummy_construct;
156 }
157
158 static struct netdev_dummy *
159 netdev_dummy_cast(const struct netdev *netdev)
160 {
161     ovs_assert(is_dummy_class(netdev_get_class(netdev)));
162     return CONTAINER_OF(netdev, struct netdev_dummy, up);
163 }
164
165 static struct netdev_rxq_dummy *
166 netdev_rxq_dummy_cast(const struct netdev_rxq *rx)
167 {
168     ovs_assert(is_dummy_class(netdev_get_class(rx->netdev)));
169     return CONTAINER_OF(rx, struct netdev_rxq_dummy, up);
170 }
171
172 static void
173 dummy_packet_stream_init(struct dummy_packet_stream *s, struct stream *stream)
174 {
175     int rxbuf_size = stream ? 2048 : 0;
176     s->stream = stream;
177     dp_packet_init(&s->rxbuf, rxbuf_size);
178     ovs_list_init(&s->txq);
179 }
180
181 static struct dummy_packet_stream *
182 dummy_packet_stream_create(struct stream *stream)
183 {
184     struct dummy_packet_stream *s;
185
186     s = xzalloc(sizeof *s);
187     dummy_packet_stream_init(s, stream);
188
189     return s;
190 }
191
192 static void
193 dummy_packet_stream_wait(struct dummy_packet_stream *s)
194 {
195     stream_run_wait(s->stream);
196     if (!ovs_list_is_empty(&s->txq)) {
197         stream_send_wait(s->stream);
198     }
199     stream_recv_wait(s->stream);
200 }
201
202 static void
203 dummy_packet_stream_send(struct dummy_packet_stream *s, const void *buffer, size_t size)
204 {
205     if (ovs_list_size(&s->txq) < NETDEV_DUMMY_MAX_QUEUE) {
206         struct dp_packet *b;
207         struct pkt_list_node *node;
208
209         b = dp_packet_clone_data_with_headroom(buffer, size, 2);
210         put_unaligned_be16(dp_packet_push_uninit(b, 2), htons(size));
211
212         node = xmalloc(sizeof *node);
213         node->pkt = b;
214         ovs_list_push_back(&s->txq, &node->list_node);
215     }
216 }
217
218 static int
219 dummy_packet_stream_run(struct netdev_dummy *dev, struct dummy_packet_stream *s)
220 {
221     int error = 0;
222     size_t n;
223
224     stream_run(s->stream);
225
226     if (!ovs_list_is_empty(&s->txq)) {
227         struct pkt_list_node *txbuf_node;
228         struct dp_packet *txbuf;
229         int retval;
230
231         ASSIGN_CONTAINER(txbuf_node, ovs_list_front(&s->txq), list_node);
232         txbuf = txbuf_node->pkt;
233         retval = stream_send(s->stream, dp_packet_data(txbuf), dp_packet_size(txbuf));
234
235         if (retval > 0) {
236             dp_packet_pull(txbuf, retval);
237             if (!dp_packet_size(txbuf)) {
238                 ovs_list_remove(&txbuf_node->list_node);
239                 free(txbuf_node);
240                 dp_packet_delete(txbuf);
241             }
242         } else if (retval != -EAGAIN) {
243             error = -retval;
244         }
245     }
246
247     if (!error) {
248         if (dp_packet_size(&s->rxbuf) < 2) {
249             n = 2 - dp_packet_size(&s->rxbuf);
250         } else {
251             uint16_t frame_len;
252
253             frame_len = ntohs(get_unaligned_be16(dp_packet_data(&s->rxbuf)));
254             if (frame_len < ETH_HEADER_LEN) {
255                 error = EPROTO;
256                 n = 0;
257             } else {
258                 n = (2 + frame_len) - dp_packet_size(&s->rxbuf);
259             }
260         }
261     }
262     if (!error) {
263         int retval;
264
265         dp_packet_prealloc_tailroom(&s->rxbuf, n);
266         retval = stream_recv(s->stream, dp_packet_tail(&s->rxbuf), n);
267
268         if (retval > 0) {
269             dp_packet_set_size(&s->rxbuf, dp_packet_size(&s->rxbuf) + retval);
270             if (retval == n && dp_packet_size(&s->rxbuf) > 2) {
271                 dp_packet_pull(&s->rxbuf, 2);
272                 netdev_dummy_queue_packet(dev,
273                                           dp_packet_clone(&s->rxbuf), 0);
274                 dp_packet_clear(&s->rxbuf);
275             }
276         } else if (retval != -EAGAIN) {
277             error = (retval < 0 ? -retval
278                      : dp_packet_size(&s->rxbuf) ? EPROTO
279                      : EOF);
280         }
281     }
282
283     return error;
284 }
285
286 static void
287 dummy_packet_stream_close(struct dummy_packet_stream *s)
288 {
289     stream_close(s->stream);
290     dp_packet_uninit(&s->rxbuf);
291     pkt_list_delete(&s->txq);
292 }
293
294 static void
295 dummy_packet_conn_init(struct dummy_packet_conn *conn)
296 {
297     memset(conn, 0, sizeof *conn);
298     conn->type = NONE;
299 }
300
301 static void
302 dummy_packet_conn_get_config(struct dummy_packet_conn *conn, struct smap *args)
303 {
304
305     switch (conn->type) {
306     case PASSIVE:
307         smap_add(args, "pstream", pstream_get_name(conn->u.pconn.pstream));
308         break;
309
310     case ACTIVE:
311         smap_add(args, "stream", stream_get_name(conn->u.rconn.rstream->stream));
312         break;
313
314     case NONE:
315     default:
316         break;
317     }
318 }
319
320 static void
321 dummy_packet_conn_close(struct dummy_packet_conn *conn)
322 {
323     int i;
324     struct dummy_packet_pconn *pconn = &conn->u.pconn;
325     struct dummy_packet_rconn *rconn = &conn->u.rconn;
326
327     switch (conn->type) {
328     case PASSIVE:
329         pstream_close(pconn->pstream);
330         for (i = 0; i < pconn->n_streams; i++) {
331             dummy_packet_stream_close(pconn->streams[i]);
332             free(pconn->streams[i]);
333         }
334         free(pconn->streams);
335         pconn->pstream = NULL;
336         pconn->streams = NULL;
337         break;
338
339     case ACTIVE:
340         dummy_packet_stream_close(rconn->rstream);
341         free(rconn->rstream);
342         rconn->rstream = NULL;
343         reconnect_destroy(rconn->reconnect);
344         rconn->reconnect = NULL;
345         break;
346
347     case NONE:
348     default:
349         break;
350     }
351
352     conn->type = NONE;
353     memset(conn, 0, sizeof *conn);
354 }
355
356 static void
357 dummy_packet_conn_set_config(struct dummy_packet_conn *conn,
358                              const struct smap *args)
359 {
360     const char *pstream = smap_get(args, "pstream");
361     const char *stream = smap_get(args, "stream");
362
363     if (pstream && stream) {
364          VLOG_WARN("Open failed: both %s and %s are configured",
365                    pstream, stream);
366          return;
367     }
368
369     switch (conn->type) {
370     case PASSIVE:
371         if (pstream &&
372             !strcmp(pstream_get_name(conn->u.pconn.pstream), pstream)) {
373             return;
374         }
375         dummy_packet_conn_close(conn);
376         break;
377     case ACTIVE:
378         if (stream &&
379             !strcmp(stream_get_name(conn->u.rconn.rstream->stream), stream)) {
380             return;
381         }
382         dummy_packet_conn_close(conn);
383         break;
384     case NONE:
385     default:
386         break;
387     }
388
389     if (pstream) {
390         int error;
391
392         error = pstream_open(pstream, &conn->u.pconn.pstream, DSCP_DEFAULT);
393         if (error) {
394             VLOG_WARN("%s: open failed (%s)", pstream, ovs_strerror(error));
395         } else {
396             conn->type = PASSIVE;
397         }
398     }
399
400     if (stream) {
401         int error;
402         struct stream *active_stream;
403         struct reconnect *reconnect;
404
405         reconnect = reconnect_create(time_msec());
406         reconnect_set_name(reconnect, stream);
407         reconnect_set_passive(reconnect, false, time_msec());
408         reconnect_enable(reconnect, time_msec());
409         reconnect_set_backoff(reconnect, 100, INT_MAX);
410         reconnect_set_probe_interval(reconnect, 0);
411         conn->u.rconn.reconnect = reconnect;
412         conn->type = ACTIVE;
413
414         error = stream_open(stream, &active_stream, DSCP_DEFAULT);
415         conn->u.rconn.rstream = dummy_packet_stream_create(active_stream);
416
417         switch (error) {
418         case 0:
419             reconnect_connected(reconnect, time_msec());
420             break;
421
422         case EAGAIN:
423             reconnect_connecting(reconnect, time_msec());
424             break;
425
426         default:
427             reconnect_connect_failed(reconnect, time_msec(), error);
428             stream_close(active_stream);
429             conn->u.rconn.rstream->stream = NULL;
430             break;
431         }
432     }
433 }
434
435 static void
436 dummy_pconn_run(struct netdev_dummy *dev)
437     OVS_REQUIRES(dev->mutex)
438 {
439     struct stream *new_stream;
440     struct dummy_packet_pconn *pconn = &dev->conn.u.pconn;
441     int error;
442     size_t i;
443
444     error = pstream_accept(pconn->pstream, &new_stream);
445     if (!error) {
446         struct dummy_packet_stream *s;
447
448         pconn->streams = xrealloc(pconn->streams,
449                                 ((pconn->n_streams + 1)
450                                  * sizeof s));
451         s = xmalloc(sizeof *s);
452         pconn->streams[pconn->n_streams++] = s;
453         dummy_packet_stream_init(s, new_stream);
454     } else if (error != EAGAIN) {
455         VLOG_WARN("%s: accept failed (%s)",
456                   pstream_get_name(pconn->pstream), ovs_strerror(error));
457         pstream_close(pconn->pstream);
458         pconn->pstream = NULL;
459         dev->conn.type = NONE;
460     }
461
462     for (i = 0; i < pconn->n_streams; ) {
463         struct dummy_packet_stream *s = pconn->streams[i];
464
465         error = dummy_packet_stream_run(dev, s);
466         if (error) {
467             VLOG_DBG("%s: closing connection (%s)",
468                      stream_get_name(s->stream),
469                      ovs_retval_to_string(error));
470             dummy_packet_stream_close(s);
471             free(s);
472             pconn->streams[i] = pconn->streams[--pconn->n_streams];
473         } else {
474             i++;
475         }
476     }
477 }
478
479 static void
480 dummy_rconn_run(struct netdev_dummy *dev)
481 OVS_REQUIRES(dev->mutex)
482 {
483     struct dummy_packet_rconn *rconn = &dev->conn.u.rconn;
484
485     switch (reconnect_run(rconn->reconnect, time_msec())) {
486     case RECONNECT_CONNECT:
487         {
488             int error;
489
490             if (rconn->rstream->stream) {
491                 error = stream_connect(rconn->rstream->stream);
492             } else {
493                 error = stream_open(reconnect_get_name(rconn->reconnect),
494                                     &rconn->rstream->stream, DSCP_DEFAULT);
495             }
496
497             switch (error) {
498             case 0:
499                 reconnect_connected(rconn->reconnect, time_msec());
500                 break;
501
502             case EAGAIN:
503                 reconnect_connecting(rconn->reconnect, time_msec());
504                 break;
505
506             default:
507                 reconnect_connect_failed(rconn->reconnect, time_msec(), error);
508                 stream_close(rconn->rstream->stream);
509                 rconn->rstream->stream = NULL;
510                 break;
511             }
512         }
513         break;
514
515     case RECONNECT_DISCONNECT:
516     case RECONNECT_PROBE:
517     default:
518         break;
519     }
520
521     if (reconnect_is_connected(rconn->reconnect)) {
522         int err;
523
524         err = dummy_packet_stream_run(dev, rconn->rstream);
525
526         if (err) {
527             reconnect_disconnected(rconn->reconnect, time_msec(), err);
528             stream_close(rconn->rstream->stream);
529             rconn->rstream->stream = NULL;
530         }
531     }
532 }
533
534 static void
535 dummy_packet_conn_run(struct netdev_dummy *dev)
536     OVS_REQUIRES(dev->mutex)
537 {
538     switch (dev->conn.type) {
539     case PASSIVE:
540         dummy_pconn_run(dev);
541         break;
542
543     case ACTIVE:
544         dummy_rconn_run(dev);
545         break;
546
547     case NONE:
548     default:
549         break;
550     }
551 }
552
553 static void
554 dummy_packet_conn_wait(struct dummy_packet_conn *conn)
555 {
556     int i;
557     switch (conn->type) {
558     case PASSIVE:
559         pstream_wait(conn->u.pconn.pstream);
560         for (i = 0; i < conn->u.pconn.n_streams; i++) {
561             struct dummy_packet_stream *s = conn->u.pconn.streams[i];
562             dummy_packet_stream_wait(s);
563         }
564         break;
565     case ACTIVE:
566         if (reconnect_is_connected(conn->u.rconn.reconnect)) {
567             dummy_packet_stream_wait(conn->u.rconn.rstream);
568         }
569         break;
570
571     case NONE:
572     default:
573         break;
574     }
575 }
576
577 static void
578 dummy_packet_conn_send(struct dummy_packet_conn *conn,
579                        const void *buffer, size_t size)
580 {
581     int i;
582
583     switch (conn->type) {
584     case PASSIVE:
585         for (i = 0; i < conn->u.pconn.n_streams; i++) {
586             struct dummy_packet_stream *s = conn->u.pconn.streams[i];
587
588             dummy_packet_stream_send(s, buffer, size);
589             pstream_wait(conn->u.pconn.pstream);
590         }
591         break;
592
593     case ACTIVE:
594         if (reconnect_is_connected(conn->u.rconn.reconnect)) {
595             dummy_packet_stream_send(conn->u.rconn.rstream, buffer, size);
596             dummy_packet_stream_wait(conn->u.rconn.rstream);
597         }
598         break;
599
600     case NONE:
601     default:
602         break;
603     }
604 }
605
606 static enum dummy_netdev_conn_state
607 dummy_netdev_get_conn_state(struct dummy_packet_conn *conn)
608 {
609     enum dummy_netdev_conn_state state;
610
611     if (conn->type == ACTIVE) {
612         if (reconnect_is_connected(conn->u.rconn.reconnect)) {
613             state = CONN_STATE_CONNECTED;
614         } else {
615             state = CONN_STATE_NOT_CONNECTED;
616         }
617     } else {
618         state = CONN_STATE_UNKNOWN;
619     }
620
621     return state;
622 }
623
624 static void
625 netdev_dummy_run(void)
626 {
627     struct netdev_dummy *dev;
628
629     ovs_mutex_lock(&dummy_list_mutex);
630     LIST_FOR_EACH (dev, list_node, &dummy_list) {
631         ovs_mutex_lock(&dev->mutex);
632         dummy_packet_conn_run(dev);
633         ovs_mutex_unlock(&dev->mutex);
634     }
635     ovs_mutex_unlock(&dummy_list_mutex);
636 }
637
638 static void
639 netdev_dummy_wait(void)
640 {
641     struct netdev_dummy *dev;
642
643     ovs_mutex_lock(&dummy_list_mutex);
644     LIST_FOR_EACH (dev, list_node, &dummy_list) {
645         ovs_mutex_lock(&dev->mutex);
646         dummy_packet_conn_wait(&dev->conn);
647         ovs_mutex_unlock(&dev->mutex);
648     }
649     ovs_mutex_unlock(&dummy_list_mutex);
650 }
651
652 static struct netdev *
653 netdev_dummy_alloc(void)
654 {
655     struct netdev_dummy *netdev = xzalloc(sizeof *netdev);
656     return &netdev->up;
657 }
658
659 static int
660 netdev_dummy_construct(struct netdev *netdev_)
661 {
662     static atomic_count next_n = ATOMIC_COUNT_INIT(0xaa550000);
663     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
664     unsigned int n;
665
666     n = atomic_count_inc(&next_n);
667
668     ovs_mutex_init(&netdev->mutex);
669     ovs_mutex_lock(&netdev->mutex);
670     netdev->hwaddr.ea[0] = 0xaa;
671     netdev->hwaddr.ea[1] = 0x55;
672     netdev->hwaddr.ea[2] = n >> 24;
673     netdev->hwaddr.ea[3] = n >> 16;
674     netdev->hwaddr.ea[4] = n >> 8;
675     netdev->hwaddr.ea[5] = n;
676     netdev->mtu = 1500;
677     netdev->flags = 0;
678     netdev->ifindex = -EOPNOTSUPP;
679     netdev->requested_n_rxq = netdev_->n_rxq;
680     netdev->requested_n_txq = netdev_->n_txq;
681     netdev->numa_id = 0;
682
683     dummy_packet_conn_init(&netdev->conn);
684
685     ovs_list_init(&netdev->rxes);
686     ovs_mutex_unlock(&netdev->mutex);
687
688     ovs_mutex_lock(&dummy_list_mutex);
689     ovs_list_push_back(&dummy_list, &netdev->list_node);
690     ovs_mutex_unlock(&dummy_list_mutex);
691
692     return 0;
693 }
694
695 static void
696 netdev_dummy_destruct(struct netdev *netdev_)
697 {
698     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
699
700     ovs_mutex_lock(&dummy_list_mutex);
701     ovs_list_remove(&netdev->list_node);
702     ovs_mutex_unlock(&dummy_list_mutex);
703
704     ovs_mutex_lock(&netdev->mutex);
705     dummy_packet_conn_close(&netdev->conn);
706     netdev->conn.type = NONE;
707
708     ovs_mutex_unlock(&netdev->mutex);
709     ovs_mutex_destroy(&netdev->mutex);
710 }
711
712 static void
713 netdev_dummy_dealloc(struct netdev *netdev_)
714 {
715     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
716
717     free(netdev);
718 }
719
720 static int
721 netdev_dummy_get_config(const struct netdev *dev, struct smap *args)
722 {
723     struct netdev_dummy *netdev = netdev_dummy_cast(dev);
724
725     ovs_mutex_lock(&netdev->mutex);
726
727     if (netdev->ifindex >= 0) {
728         smap_add_format(args, "ifindex", "%d", netdev->ifindex);
729     }
730
731     dummy_packet_conn_get_config(&netdev->conn, args);
732
733     /* 'dummy-pmd' specific config. */
734     if (!netdev_is_pmd(dev)) {
735         goto exit;
736     }
737     smap_add_format(args, "requested_rx_queues", "%d", netdev->requested_n_rxq);
738     smap_add_format(args, "configured_rx_queues", "%d", dev->n_rxq);
739     smap_add_format(args, "requested_tx_queues", "%d", netdev->requested_n_txq);
740     smap_add_format(args, "configured_tx_queues", "%d", dev->n_txq);
741
742 exit:
743     ovs_mutex_unlock(&netdev->mutex);
744     return 0;
745 }
746
747 static int
748 netdev_dummy_get_addr_list(const struct netdev *netdev_, struct in6_addr **paddr,
749                            struct in6_addr **pmask, int *n_addr)
750 {
751     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
752     int cnt = 0, i = 0, err = 0;
753     struct in6_addr *addr, *mask;
754
755     ovs_mutex_lock(&netdev->mutex);
756     if (netdev->address.s_addr != INADDR_ANY) {
757         cnt++;
758     }
759
760     if (ipv6_addr_is_set(&netdev->ipv6)) {
761         cnt++;
762     }
763     if (!cnt) {
764         err = EADDRNOTAVAIL;
765         goto out;
766     }
767     addr = xmalloc(sizeof *addr * cnt);
768     mask = xmalloc(sizeof *mask * cnt);
769     if (netdev->address.s_addr != INADDR_ANY) {
770         in6_addr_set_mapped_ipv4(&addr[i], netdev->address.s_addr);
771         in6_addr_set_mapped_ipv4(&mask[i], netdev->netmask.s_addr);
772         i++;
773     }
774
775     if (ipv6_addr_is_set(&netdev->ipv6)) {
776         memcpy(&addr[i], &netdev->ipv6, sizeof *addr);
777         memcpy(&mask[i], &netdev->ipv6_mask, sizeof *mask);
778         i++;
779     }
780     if (paddr) {
781         *paddr = addr;
782         *pmask = mask;
783         *n_addr = cnt;
784     } else {
785         free(addr);
786         free(mask);
787     }
788 out:
789     ovs_mutex_unlock(&netdev->mutex);
790
791     return err;
792 }
793
794 static int
795 netdev_dummy_set_in4(struct netdev *netdev_, struct in_addr address,
796                      struct in_addr netmask)
797 {
798     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
799
800     ovs_mutex_lock(&netdev->mutex);
801     netdev->address = address;
802     netdev->netmask = netmask;
803     netdev_change_seq_changed(netdev_);
804     ovs_mutex_unlock(&netdev->mutex);
805
806     return 0;
807 }
808
809 static int
810 netdev_dummy_set_in6(struct netdev *netdev_, struct in6_addr *in6,
811                      struct in6_addr *mask)
812 {
813     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
814
815     ovs_mutex_lock(&netdev->mutex);
816     netdev->ipv6 = *in6;
817     netdev->ipv6_mask = *mask;
818     netdev_change_seq_changed(netdev_);
819     ovs_mutex_unlock(&netdev->mutex);
820
821     return 0;
822 }
823
824 static int
825 netdev_dummy_set_config(struct netdev *netdev_, const struct smap *args)
826 {
827     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
828     const char *pcap;
829     int new_n_rxq, new_n_txq, new_numa_id;
830
831     ovs_mutex_lock(&netdev->mutex);
832     netdev->ifindex = smap_get_int(args, "ifindex", -EOPNOTSUPP);
833
834     dummy_packet_conn_set_config(&netdev->conn, args);
835
836     if (netdev->rxq_pcap) {
837         fclose(netdev->rxq_pcap);
838     }
839     if (netdev->tx_pcap && netdev->tx_pcap != netdev->rxq_pcap) {
840         fclose(netdev->tx_pcap);
841     }
842     netdev->rxq_pcap = netdev->tx_pcap = NULL;
843     pcap = smap_get(args, "pcap");
844     if (pcap) {
845         netdev->rxq_pcap = netdev->tx_pcap = ovs_pcap_open(pcap, "ab");
846     } else {
847         const char *rxq_pcap = smap_get(args, "rxq_pcap");
848         const char *tx_pcap = smap_get(args, "tx_pcap");
849
850         if (rxq_pcap) {
851             netdev->rxq_pcap = ovs_pcap_open(rxq_pcap, "ab");
852         }
853         if (tx_pcap) {
854             netdev->tx_pcap = ovs_pcap_open(tx_pcap, "ab");
855         }
856     }
857
858     netdev_change_seq_changed(netdev_);
859
860     /* 'dummy-pmd' specific config. */
861     if (!netdev_->netdev_class->is_pmd) {
862         goto exit;
863     }
864
865     new_n_rxq = MAX(smap_get_int(args, "n_rxq", netdev->requested_n_rxq), 1);
866     new_n_txq = MAX(smap_get_int(args, "n_txq", netdev->requested_n_txq), 1);
867     new_numa_id = smap_get_int(args, "numa_id", 0);
868     if (new_n_rxq != netdev->requested_n_rxq
869         || new_n_txq != netdev->requested_n_txq
870         || new_numa_id != netdev->requested_numa_id) {
871         netdev->requested_n_rxq = new_n_rxq;
872         netdev->requested_n_txq = new_n_txq;
873         netdev->requested_numa_id = new_numa_id;
874         netdev_request_reconfigure(netdev_);
875     }
876
877 exit:
878     ovs_mutex_unlock(&netdev->mutex);
879     return 0;
880 }
881
882 static int
883 netdev_dummy_get_numa_id(const struct netdev *netdev_)
884 {
885     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
886
887     ovs_mutex_lock(&netdev->mutex);
888     int numa_id = netdev->numa_id;
889     ovs_mutex_unlock(&netdev->mutex);
890
891     return numa_id;
892 }
893
894 /* Sets the number of tx queues and rx queues for the dummy PMD interface. */
895 static int
896 netdev_dummy_reconfigure(struct netdev *netdev_)
897 {
898     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
899
900     ovs_mutex_lock(&netdev->mutex);
901
902     netdev_->n_txq = netdev->requested_n_txq;
903     netdev_->n_rxq = netdev->requested_n_rxq;
904     netdev->numa_id = netdev->requested_numa_id;
905
906     ovs_mutex_unlock(&netdev->mutex);
907     return 0;
908 }
909
910 static struct netdev_rxq *
911 netdev_dummy_rxq_alloc(void)
912 {
913     struct netdev_rxq_dummy *rx = xzalloc(sizeof *rx);
914     return &rx->up;
915 }
916
917 static int
918 netdev_dummy_rxq_construct(struct netdev_rxq *rxq_)
919 {
920     struct netdev_rxq_dummy *rx = netdev_rxq_dummy_cast(rxq_);
921     struct netdev_dummy *netdev = netdev_dummy_cast(rx->up.netdev);
922
923     ovs_mutex_lock(&netdev->mutex);
924     ovs_list_push_back(&netdev->rxes, &rx->node);
925     ovs_list_init(&rx->recv_queue);
926     rx->recv_queue_len = 0;
927     rx->seq = seq_create();
928     ovs_mutex_unlock(&netdev->mutex);
929
930     return 0;
931 }
932
933 static void
934 netdev_dummy_rxq_destruct(struct netdev_rxq *rxq_)
935 {
936     struct netdev_rxq_dummy *rx = netdev_rxq_dummy_cast(rxq_);
937     struct netdev_dummy *netdev = netdev_dummy_cast(rx->up.netdev);
938
939     ovs_mutex_lock(&netdev->mutex);
940     ovs_list_remove(&rx->node);
941     pkt_list_delete(&rx->recv_queue);
942     ovs_mutex_unlock(&netdev->mutex);
943     seq_destroy(rx->seq);
944 }
945
946 static void
947 netdev_dummy_rxq_dealloc(struct netdev_rxq *rxq_)
948 {
949     struct netdev_rxq_dummy *rx = netdev_rxq_dummy_cast(rxq_);
950
951     free(rx);
952 }
953
954 static int
955 netdev_dummy_rxq_recv(struct netdev_rxq *rxq_, struct dp_packet_batch *batch)
956 {
957     struct netdev_rxq_dummy *rx = netdev_rxq_dummy_cast(rxq_);
958     struct netdev_dummy *netdev = netdev_dummy_cast(rx->up.netdev);
959     struct dp_packet *packet;
960
961     ovs_mutex_lock(&netdev->mutex);
962     if (!ovs_list_is_empty(&rx->recv_queue)) {
963         struct pkt_list_node *pkt_node;
964
965         ASSIGN_CONTAINER(pkt_node, ovs_list_pop_front(&rx->recv_queue), list_node);
966         packet = pkt_node->pkt;
967         free(pkt_node);
968         rx->recv_queue_len--;
969     } else {
970         packet = NULL;
971     }
972     ovs_mutex_unlock(&netdev->mutex);
973
974     if (!packet) {
975         if (netdev_is_pmd(&netdev->up)) {
976             /* If 'netdev' is a PMD device, this is called as part of the PMD
977              * thread busy loop.  We yield here (without quiescing) for two
978              * reasons:
979              *
980              * - To reduce the CPU utilization during the testsuite
981              * - To give valgrind a chance to switch thread. According
982              *   to the valgrind documentation, there's a big lock that
983              *   prevents multiple thread from being executed at the same
984              *   time.  On my system, without this sleep, the pmd threads
985              *   testcases fail under valgrind, because ovs-vswitchd becomes
986              *   unresponsive. */
987             sched_yield();
988         }
989         return EAGAIN;
990     }
991     ovs_mutex_lock(&netdev->mutex);
992     netdev->stats.rx_packets++;
993     netdev->stats.rx_bytes += dp_packet_size(packet);
994     ovs_mutex_unlock(&netdev->mutex);
995
996     dp_packet_pad(packet);
997
998     batch->packets[0] = packet;
999     batch->count = 1;
1000     return 0;
1001 }
1002
1003 static void
1004 netdev_dummy_rxq_wait(struct netdev_rxq *rxq_)
1005 {
1006     struct netdev_rxq_dummy *rx = netdev_rxq_dummy_cast(rxq_);
1007     struct netdev_dummy *netdev = netdev_dummy_cast(rx->up.netdev);
1008     uint64_t seq = seq_read(rx->seq);
1009
1010     ovs_mutex_lock(&netdev->mutex);
1011     if (!ovs_list_is_empty(&rx->recv_queue)) {
1012         poll_immediate_wake();
1013     } else {
1014         seq_wait(rx->seq, seq);
1015     }
1016     ovs_mutex_unlock(&netdev->mutex);
1017 }
1018
1019 static int
1020 netdev_dummy_rxq_drain(struct netdev_rxq *rxq_)
1021 {
1022     struct netdev_rxq_dummy *rx = netdev_rxq_dummy_cast(rxq_);
1023     struct netdev_dummy *netdev = netdev_dummy_cast(rx->up.netdev);
1024
1025     ovs_mutex_lock(&netdev->mutex);
1026     pkt_list_delete(&rx->recv_queue);
1027     rx->recv_queue_len = 0;
1028     ovs_mutex_unlock(&netdev->mutex);
1029
1030     seq_change(rx->seq);
1031
1032     return 0;
1033 }
1034
1035 static int
1036 netdev_dummy_send(struct netdev *netdev, int qid OVS_UNUSED,
1037                   struct dp_packet_batch *batch, bool may_steal)
1038 {
1039     struct netdev_dummy *dev = netdev_dummy_cast(netdev);
1040     int error = 0;
1041     int i;
1042
1043     for (i = 0; i < batch->count; i++) {
1044         const void *buffer = dp_packet_data(batch->packets[i]);
1045         size_t size = dp_packet_size(batch->packets[i]);
1046
1047         size -= dp_packet_get_cutlen(batch->packets[i]);
1048
1049         if (size < ETH_HEADER_LEN) {
1050             error = EMSGSIZE;
1051             break;
1052         } else {
1053             const struct eth_header *eth = buffer;
1054             int max_size;
1055
1056             ovs_mutex_lock(&dev->mutex);
1057             max_size = dev->mtu + ETH_HEADER_LEN;
1058             ovs_mutex_unlock(&dev->mutex);
1059
1060             if (eth->eth_type == htons(ETH_TYPE_VLAN)) {
1061                 max_size += VLAN_HEADER_LEN;
1062             }
1063             if (size > max_size) {
1064                 error = EMSGSIZE;
1065                 break;
1066             }
1067         }
1068
1069         ovs_mutex_lock(&dev->mutex);
1070         dev->stats.tx_packets++;
1071         dev->stats.tx_bytes += size;
1072
1073         dummy_packet_conn_send(&dev->conn, buffer, size);
1074
1075         /* Reply to ARP requests for 'dev''s assigned IP address. */
1076         if (dev->address.s_addr) {
1077             struct dp_packet packet;
1078             struct flow flow;
1079
1080             dp_packet_use_const(&packet, buffer, size);
1081             flow_extract(&packet, &flow);
1082             if (flow.dl_type == htons(ETH_TYPE_ARP)
1083                 && flow.nw_proto == ARP_OP_REQUEST
1084                 && flow.nw_dst == dev->address.s_addr) {
1085                 struct dp_packet *reply = dp_packet_new(0);
1086                 compose_arp(reply, ARP_OP_REPLY, dev->hwaddr, flow.dl_src,
1087                             false, flow.nw_dst, flow.nw_src);
1088                 netdev_dummy_queue_packet(dev, reply, 0);
1089             }
1090         }
1091
1092         if (dev->tx_pcap) {
1093             struct dp_packet packet;
1094
1095             dp_packet_use_const(&packet, buffer, size);
1096             ovs_pcap_write(dev->tx_pcap, &packet);
1097             fflush(dev->tx_pcap);
1098         }
1099
1100         ovs_mutex_unlock(&dev->mutex);
1101     }
1102
1103     dp_packet_delete_batch(batch, may_steal);
1104
1105     return error;
1106 }
1107
1108 static int
1109 netdev_dummy_set_etheraddr(struct netdev *netdev, const struct eth_addr mac)
1110 {
1111     struct netdev_dummy *dev = netdev_dummy_cast(netdev);
1112
1113     ovs_mutex_lock(&dev->mutex);
1114     if (!eth_addr_equals(dev->hwaddr, mac)) {
1115         dev->hwaddr = mac;
1116         netdev_change_seq_changed(netdev);
1117     }
1118     ovs_mutex_unlock(&dev->mutex);
1119
1120     return 0;
1121 }
1122
1123 static int
1124 netdev_dummy_get_etheraddr(const struct netdev *netdev, struct eth_addr *mac)
1125 {
1126     struct netdev_dummy *dev = netdev_dummy_cast(netdev);
1127
1128     ovs_mutex_lock(&dev->mutex);
1129     *mac = dev->hwaddr;
1130     ovs_mutex_unlock(&dev->mutex);
1131
1132     return 0;
1133 }
1134
1135 static int
1136 netdev_dummy_get_mtu(const struct netdev *netdev, int *mtup)
1137 {
1138     struct netdev_dummy *dev = netdev_dummy_cast(netdev);
1139
1140     ovs_mutex_lock(&dev->mutex);
1141     *mtup = dev->mtu;
1142     ovs_mutex_unlock(&dev->mutex);
1143
1144     return 0;
1145 }
1146
1147 static int
1148 netdev_dummy_set_mtu(const struct netdev *netdev, int mtu)
1149 {
1150     struct netdev_dummy *dev = netdev_dummy_cast(netdev);
1151
1152     ovs_mutex_lock(&dev->mutex);
1153     dev->mtu = mtu;
1154     ovs_mutex_unlock(&dev->mutex);
1155
1156     return 0;
1157 }
1158
1159 static int
1160 netdev_dummy_get_stats(const struct netdev *netdev, struct netdev_stats *stats)
1161 {
1162     struct netdev_dummy *dev = netdev_dummy_cast(netdev);
1163
1164     ovs_mutex_lock(&dev->mutex);
1165     /* Passing only collected counters */
1166     stats->tx_packets = dev->stats.tx_packets;
1167     stats->tx_bytes = dev->stats.tx_bytes;
1168     stats->rx_packets = dev->stats.rx_packets;
1169     stats->rx_bytes = dev->stats.rx_bytes;
1170     ovs_mutex_unlock(&dev->mutex);
1171
1172     return 0;
1173 }
1174
1175 static int
1176 netdev_dummy_get_queue(const struct netdev *netdev OVS_UNUSED,
1177                        unsigned int queue_id, struct smap *details OVS_UNUSED)
1178 {
1179     if (queue_id == 0) {
1180         return 0;
1181     } else {
1182         return EINVAL;
1183     }
1184 }
1185
1186 static void
1187 netdev_dummy_init_queue_stats(struct netdev_queue_stats *stats)
1188 {
1189     *stats = (struct netdev_queue_stats) {
1190         .tx_bytes = UINT64_MAX,
1191         .tx_packets = UINT64_MAX,
1192         .tx_errors = UINT64_MAX,
1193         .created = LLONG_MIN,
1194     };
1195 }
1196
1197 static int
1198 netdev_dummy_get_queue_stats(const struct netdev *netdev OVS_UNUSED,
1199                              unsigned int queue_id,
1200                              struct netdev_queue_stats *stats)
1201 {
1202     if (queue_id == 0) {
1203         netdev_dummy_init_queue_stats(stats);
1204         return 0;
1205     } else {
1206         return EINVAL;
1207     }
1208 }
1209
1210 struct netdev_dummy_queue_state {
1211     unsigned int next_queue;
1212 };
1213
1214 static int
1215 netdev_dummy_queue_dump_start(const struct netdev *netdev OVS_UNUSED,
1216                               void **statep)
1217 {
1218     struct netdev_dummy_queue_state *state = xmalloc(sizeof *state);
1219     state->next_queue = 0;
1220     *statep = state;
1221     return 0;
1222 }
1223
1224 static int
1225 netdev_dummy_queue_dump_next(const struct netdev *netdev OVS_UNUSED,
1226                              void *state_,
1227                              unsigned int *queue_id,
1228                              struct smap *details OVS_UNUSED)
1229 {
1230     struct netdev_dummy_queue_state *state = state_;
1231     if (state->next_queue == 0) {
1232         *queue_id = 0;
1233         state->next_queue++;
1234         return 0;
1235     } else {
1236         return EOF;
1237     }
1238 }
1239
1240 static int
1241 netdev_dummy_queue_dump_done(const struct netdev *netdev OVS_UNUSED,
1242                              void *state)
1243 {
1244     free(state);
1245     return 0;
1246 }
1247
1248 static int
1249 netdev_dummy_dump_queue_stats(const struct netdev *netdev OVS_UNUSED,
1250                               void (*cb)(unsigned int queue_id,
1251                                          struct netdev_queue_stats *,
1252                                          void *aux),
1253                               void *aux)
1254 {
1255     struct netdev_queue_stats stats;
1256     netdev_dummy_init_queue_stats(&stats);
1257     cb(0, &stats, aux);
1258     return 0;
1259 }
1260
1261 static int
1262 netdev_dummy_get_ifindex(const struct netdev *netdev)
1263 {
1264     struct netdev_dummy *dev = netdev_dummy_cast(netdev);
1265     int ifindex;
1266
1267     ovs_mutex_lock(&dev->mutex);
1268     ifindex = dev->ifindex;
1269     ovs_mutex_unlock(&dev->mutex);
1270
1271     return ifindex;
1272 }
1273
1274 static int
1275 netdev_dummy_update_flags__(struct netdev_dummy *netdev,
1276                             enum netdev_flags off, enum netdev_flags on,
1277                             enum netdev_flags *old_flagsp)
1278     OVS_REQUIRES(netdev->mutex)
1279 {
1280     if ((off | on) & ~(NETDEV_UP | NETDEV_PROMISC)) {
1281         return EINVAL;
1282     }
1283
1284     *old_flagsp = netdev->flags;
1285     netdev->flags |= on;
1286     netdev->flags &= ~off;
1287     if (*old_flagsp != netdev->flags) {
1288         netdev_change_seq_changed(&netdev->up);
1289     }
1290
1291     return 0;
1292 }
1293
1294 static int
1295 netdev_dummy_update_flags(struct netdev *netdev_,
1296                           enum netdev_flags off, enum netdev_flags on,
1297                           enum netdev_flags *old_flagsp)
1298 {
1299     struct netdev_dummy *netdev = netdev_dummy_cast(netdev_);
1300     int error;
1301
1302     ovs_mutex_lock(&netdev->mutex);
1303     error = netdev_dummy_update_flags__(netdev, off, on, old_flagsp);
1304     ovs_mutex_unlock(&netdev->mutex);
1305
1306     return error;
1307 }
1308 \f
1309 /* Helper functions. */
1310
1311 #define NETDEV_DUMMY_CLASS(NAME, PMD, RECOFIGURE)               \
1312 {                                                               \
1313     NAME,                                                       \
1314     PMD,                        /* is_pmd */                    \
1315     NULL,                       /* init */                      \
1316     netdev_dummy_run,                                           \
1317     netdev_dummy_wait,                                          \
1318                                                                 \
1319     netdev_dummy_alloc,                                         \
1320     netdev_dummy_construct,                                     \
1321     netdev_dummy_destruct,                                      \
1322     netdev_dummy_dealloc,                                       \
1323     netdev_dummy_get_config,                                    \
1324     netdev_dummy_set_config,                                    \
1325     NULL,                       /* get_tunnel_config */         \
1326     NULL,                       /* build header */              \
1327     NULL,                       /* push header */               \
1328     NULL,                       /* pop header */                \
1329     netdev_dummy_get_numa_id,                                   \
1330     NULL,                       /* set_tx_multiq */             \
1331                                                                 \
1332     netdev_dummy_send,          /* send */                      \
1333     NULL,                       /* send_wait */                 \
1334                                                                 \
1335     netdev_dummy_set_etheraddr,                                 \
1336     netdev_dummy_get_etheraddr,                                 \
1337     netdev_dummy_get_mtu,                                       \
1338     netdev_dummy_set_mtu,                                       \
1339     netdev_dummy_get_ifindex,                                   \
1340     NULL,                       /* get_carrier */               \
1341     NULL,                       /* get_carrier_resets */        \
1342     NULL,                       /* get_miimon */                \
1343     netdev_dummy_get_stats,                                     \
1344                                                                 \
1345     NULL,                       /* get_features */              \
1346     NULL,                       /* set_advertisements */        \
1347                                                                 \
1348     NULL,                       /* set_policing */              \
1349     NULL,                       /* get_qos_types */             \
1350     NULL,                       /* get_qos_capabilities */      \
1351     NULL,                       /* get_qos */                   \
1352     NULL,                       /* set_qos */                   \
1353     netdev_dummy_get_queue,                                     \
1354     NULL,                       /* set_queue */                 \
1355     NULL,                       /* delete_queue */              \
1356     netdev_dummy_get_queue_stats,                               \
1357     netdev_dummy_queue_dump_start,                              \
1358     netdev_dummy_queue_dump_next,                               \
1359     netdev_dummy_queue_dump_done,                               \
1360     netdev_dummy_dump_queue_stats,                              \
1361                                                                 \
1362     NULL,                       /* set_in4 */                   \
1363     netdev_dummy_get_addr_list,                                 \
1364     NULL,                       /* add_router */                \
1365     NULL,                       /* get_next_hop */              \
1366     NULL,                       /* get_status */                \
1367     NULL,                       /* arp_lookup */                \
1368                                                                 \
1369     netdev_dummy_update_flags,                                  \
1370     RECOFIGURE,                                                 \
1371                                                                 \
1372     netdev_dummy_rxq_alloc,                                     \
1373     netdev_dummy_rxq_construct,                                 \
1374     netdev_dummy_rxq_destruct,                                  \
1375     netdev_dummy_rxq_dealloc,                                   \
1376     netdev_dummy_rxq_recv,                                      \
1377     netdev_dummy_rxq_wait,                                      \
1378     netdev_dummy_rxq_drain,                                     \
1379 }
1380
1381 static const struct netdev_class dummy_class =
1382     NETDEV_DUMMY_CLASS("dummy", false, NULL);
1383
1384 static const struct netdev_class dummy_pmd_class =
1385     NETDEV_DUMMY_CLASS("dummy-pmd", true,
1386                        netdev_dummy_reconfigure);
1387
1388 static void
1389 pkt_list_delete(struct ovs_list *l)
1390 {
1391     struct pkt_list_node *pkt;
1392
1393     LIST_FOR_EACH_POP(pkt, list_node, l) {
1394         dp_packet_delete(pkt->pkt);
1395         free(pkt);
1396     }
1397 }
1398
1399 static struct dp_packet *
1400 eth_from_packet_or_flow(const char *s)
1401 {
1402     enum odp_key_fitness fitness;
1403     struct dp_packet *packet;
1404     struct ofpbuf odp_key;
1405     struct flow flow;
1406     int error;
1407
1408     if (!eth_from_hex(s, &packet)) {
1409         return packet;
1410     }
1411
1412     /* Convert string to datapath key.
1413      *
1414      * It would actually be nicer to parse an OpenFlow-like flow key here, but
1415      * the code for that currently calls exit() on parse error.  We have to
1416      * settle for parsing a datapath key for now.
1417      */
1418     ofpbuf_init(&odp_key, 0);
1419     error = odp_flow_from_string(s, NULL, &odp_key, NULL);
1420     if (error) {
1421         ofpbuf_uninit(&odp_key);
1422         return NULL;
1423     }
1424
1425     /* Convert odp_key to flow. */
1426     fitness = odp_flow_key_to_flow(odp_key.data, odp_key.size, &flow);
1427     if (fitness == ODP_FIT_ERROR) {
1428         ofpbuf_uninit(&odp_key);
1429         return NULL;
1430     }
1431
1432     packet = dp_packet_new(0);
1433     flow_compose(packet, &flow);
1434
1435     ofpbuf_uninit(&odp_key);
1436     return packet;
1437 }
1438
1439 static void
1440 netdev_dummy_queue_packet__(struct netdev_rxq_dummy *rx, struct dp_packet *packet)
1441 {
1442     struct pkt_list_node *pkt_node = xmalloc(sizeof *pkt_node);
1443
1444     pkt_node->pkt = packet;
1445     ovs_list_push_back(&rx->recv_queue, &pkt_node->list_node);
1446     rx->recv_queue_len++;
1447     seq_change(rx->seq);
1448 }
1449
1450 static void
1451 netdev_dummy_queue_packet(struct netdev_dummy *dummy, struct dp_packet *packet,
1452                           int queue_id)
1453     OVS_REQUIRES(dummy->mutex)
1454 {
1455     struct netdev_rxq_dummy *rx, *prev;
1456
1457     if (dummy->rxq_pcap) {
1458         ovs_pcap_write(dummy->rxq_pcap, packet);
1459         fflush(dummy->rxq_pcap);
1460     }
1461     prev = NULL;
1462     LIST_FOR_EACH (rx, node, &dummy->rxes) {
1463         if (rx->up.queue_id == queue_id &&
1464             rx->recv_queue_len < NETDEV_DUMMY_MAX_QUEUE) {
1465             if (prev) {
1466                 netdev_dummy_queue_packet__(prev, dp_packet_clone(packet));
1467             }
1468             prev = rx;
1469         }
1470     }
1471     if (prev) {
1472         netdev_dummy_queue_packet__(prev, packet);
1473     } else {
1474         dp_packet_delete(packet);
1475     }
1476 }
1477
1478 static void
1479 netdev_dummy_receive(struct unixctl_conn *conn,
1480                      int argc, const char *argv[], void *aux OVS_UNUSED)
1481 {
1482     struct netdev_dummy *dummy_dev;
1483     struct netdev *netdev;
1484     int i, k = 1, rx_qid = 0;
1485
1486     netdev = netdev_from_name(argv[k++]);
1487     if (!netdev || !is_dummy_class(netdev->netdev_class)) {
1488         unixctl_command_reply_error(conn, "no such dummy netdev");
1489         goto exit_netdev;
1490     }
1491     dummy_dev = netdev_dummy_cast(netdev);
1492
1493     ovs_mutex_lock(&dummy_dev->mutex);
1494
1495     if (argc > k + 1 && !strcmp(argv[k], "--qid")) {
1496         rx_qid = strtol(argv[k + 1], NULL, 10);
1497         if (rx_qid < 0 || rx_qid >= netdev->n_rxq) {
1498             unixctl_command_reply_error(conn, "bad rx queue id.");
1499             goto exit;
1500         }
1501         k += 2;
1502     }
1503
1504     for (i = k; i < argc; i++) {
1505         struct dp_packet *packet;
1506
1507         packet = eth_from_packet_or_flow(argv[i]);
1508         if (!packet) {
1509             unixctl_command_reply_error(conn, "bad packet syntax");
1510             goto exit;
1511         }
1512
1513         netdev_dummy_queue_packet(dummy_dev, packet, rx_qid);
1514     }
1515
1516     unixctl_command_reply(conn, NULL);
1517
1518 exit:
1519     ovs_mutex_unlock(&dummy_dev->mutex);
1520 exit_netdev:
1521     netdev_close(netdev);
1522 }
1523
1524 static void
1525 netdev_dummy_set_admin_state__(struct netdev_dummy *dev, bool admin_state)
1526     OVS_REQUIRES(dev->mutex)
1527 {
1528     enum netdev_flags old_flags;
1529
1530     if (admin_state) {
1531         netdev_dummy_update_flags__(dev, 0, NETDEV_UP, &old_flags);
1532     } else {
1533         netdev_dummy_update_flags__(dev, NETDEV_UP, 0, &old_flags);
1534     }
1535 }
1536
1537 static void
1538 netdev_dummy_set_admin_state(struct unixctl_conn *conn, int argc,
1539                              const char *argv[], void *aux OVS_UNUSED)
1540 {
1541     bool up;
1542
1543     if (!strcasecmp(argv[argc - 1], "up")) {
1544         up = true;
1545     } else if ( !strcasecmp(argv[argc - 1], "down")) {
1546         up = false;
1547     } else {
1548         unixctl_command_reply_error(conn, "Invalid Admin State");
1549         return;
1550     }
1551
1552     if (argc > 2) {
1553         struct netdev *netdev = netdev_from_name(argv[1]);
1554         if (netdev && is_dummy_class(netdev->netdev_class)) {
1555             struct netdev_dummy *dummy_dev = netdev_dummy_cast(netdev);
1556
1557             ovs_mutex_lock(&dummy_dev->mutex);
1558             netdev_dummy_set_admin_state__(dummy_dev, up);
1559             ovs_mutex_unlock(&dummy_dev->mutex);
1560
1561             netdev_close(netdev);
1562         } else {
1563             unixctl_command_reply_error(conn, "Unknown Dummy Interface");
1564             netdev_close(netdev);
1565             return;
1566         }
1567     } else {
1568         struct netdev_dummy *netdev;
1569
1570         ovs_mutex_lock(&dummy_list_mutex);
1571         LIST_FOR_EACH (netdev, list_node, &dummy_list) {
1572             ovs_mutex_lock(&netdev->mutex);
1573             netdev_dummy_set_admin_state__(netdev, up);
1574             ovs_mutex_unlock(&netdev->mutex);
1575         }
1576         ovs_mutex_unlock(&dummy_list_mutex);
1577     }
1578     unixctl_command_reply(conn, "OK");
1579 }
1580
1581 static void
1582 display_conn_state__(struct ds *s, const char *name,
1583                      enum dummy_netdev_conn_state state)
1584 {
1585     ds_put_format(s, "%s: ", name);
1586
1587     switch (state) {
1588     case CONN_STATE_CONNECTED:
1589         ds_put_cstr(s, "connected\n");
1590         break;
1591
1592     case CONN_STATE_NOT_CONNECTED:
1593         ds_put_cstr(s, "disconnected\n");
1594         break;
1595
1596     case CONN_STATE_UNKNOWN:
1597     default:
1598         ds_put_cstr(s, "unknown\n");
1599         break;
1600     };
1601 }
1602
1603 static void
1604 netdev_dummy_conn_state(struct unixctl_conn *conn, int argc,
1605                         const char *argv[], void *aux OVS_UNUSED)
1606 {
1607     enum dummy_netdev_conn_state state = CONN_STATE_UNKNOWN;
1608     struct ds s;
1609
1610     ds_init(&s);
1611
1612     if (argc > 1) {
1613         const char *dev_name = argv[1];
1614         struct netdev *netdev = netdev_from_name(dev_name);
1615
1616         if (netdev && is_dummy_class(netdev->netdev_class)) {
1617             struct netdev_dummy *dummy_dev = netdev_dummy_cast(netdev);
1618
1619             ovs_mutex_lock(&dummy_dev->mutex);
1620             state = dummy_netdev_get_conn_state(&dummy_dev->conn);
1621             ovs_mutex_unlock(&dummy_dev->mutex);
1622
1623             netdev_close(netdev);
1624         }
1625         display_conn_state__(&s, dev_name, state);
1626     } else {
1627         struct netdev_dummy *netdev;
1628
1629         ovs_mutex_lock(&dummy_list_mutex);
1630         LIST_FOR_EACH (netdev, list_node, &dummy_list) {
1631             ovs_mutex_lock(&netdev->mutex);
1632             state = dummy_netdev_get_conn_state(&netdev->conn);
1633             ovs_mutex_unlock(&netdev->mutex);
1634             if (state != CONN_STATE_UNKNOWN) {
1635                 display_conn_state__(&s, netdev->up.name, state);
1636             }
1637         }
1638         ovs_mutex_unlock(&dummy_list_mutex);
1639     }
1640
1641     unixctl_command_reply(conn, ds_cstr(&s));
1642     ds_destroy(&s);
1643 }
1644
1645 static void
1646 netdev_dummy_ip4addr(struct unixctl_conn *conn, int argc OVS_UNUSED,
1647                      const char *argv[], void *aux OVS_UNUSED)
1648 {
1649     struct netdev *netdev = netdev_from_name(argv[1]);
1650
1651     if (netdev && is_dummy_class(netdev->netdev_class)) {
1652         struct in_addr ip, mask;
1653         char *error;
1654
1655         error = ip_parse_masked(argv[2], &ip.s_addr, &mask.s_addr);
1656         if (!error) {
1657             netdev_dummy_set_in4(netdev, ip, mask);
1658             unixctl_command_reply(conn, "OK");
1659         } else {
1660             unixctl_command_reply_error(conn, error);
1661             free(error);
1662         }
1663     } else {
1664         unixctl_command_reply_error(conn, "Unknown Dummy Interface");
1665     }
1666
1667     netdev_close(netdev);
1668 }
1669
1670 static void
1671 netdev_dummy_ip6addr(struct unixctl_conn *conn, int argc OVS_UNUSED,
1672                      const char *argv[], void *aux OVS_UNUSED)
1673 {
1674     struct netdev *netdev = netdev_from_name(argv[1]);
1675
1676     if (netdev && is_dummy_class(netdev->netdev_class)) {
1677         struct in6_addr ip6;
1678         char *error;
1679         uint32_t plen;
1680
1681         error = ipv6_parse_cidr(argv[2], &ip6, &plen);
1682         if (!error) {
1683             struct in6_addr mask;
1684
1685             mask = ipv6_create_mask(plen);
1686             netdev_dummy_set_in6(netdev, &ip6, &mask);
1687             unixctl_command_reply(conn, "OK");
1688         } else {
1689             unixctl_command_reply_error(conn, error);
1690             free(error);
1691         }
1692         netdev_close(netdev);
1693     } else {
1694         unixctl_command_reply_error(conn, "Unknown Dummy Interface");
1695     }
1696
1697     netdev_close(netdev);
1698 }
1699
1700
1701 static void
1702 netdev_dummy_override(const char *type)
1703 {
1704     if (!netdev_unregister_provider(type)) {
1705         struct netdev_class *class;
1706         int error;
1707
1708         class = xmemdup(&dummy_class, sizeof dummy_class);
1709         class->type = xstrdup(type);
1710         error = netdev_register_provider(class);
1711         if (error) {
1712             VLOG_ERR("%s: failed to register netdev provider (%s)",
1713                      type, ovs_strerror(error));
1714             free(CONST_CAST(char *, class->type));
1715             free(class);
1716         }
1717     }
1718 }
1719
1720 void
1721 netdev_dummy_register(enum dummy_level level)
1722 {
1723     unixctl_command_register("netdev-dummy/receive",
1724                              "name [--qid queue_id] packet|flow...",
1725                              2, INT_MAX, netdev_dummy_receive, NULL);
1726     unixctl_command_register("netdev-dummy/set-admin-state",
1727                              "[netdev] up|down", 1, 2,
1728                              netdev_dummy_set_admin_state, NULL);
1729     unixctl_command_register("netdev-dummy/conn-state",
1730                              "[netdev]", 0, 1,
1731                              netdev_dummy_conn_state, NULL);
1732     unixctl_command_register("netdev-dummy/ip4addr",
1733                              "[netdev] ipaddr/mask-prefix-len", 2, 2,
1734                              netdev_dummy_ip4addr, NULL);
1735     unixctl_command_register("netdev-dummy/ip6addr",
1736                              "[netdev] ip6addr", 2, 2,
1737                              netdev_dummy_ip6addr, NULL);
1738
1739     if (level == DUMMY_OVERRIDE_ALL) {
1740         struct sset types;
1741         const char *type;
1742
1743         sset_init(&types);
1744         netdev_enumerate_types(&types);
1745         SSET_FOR_EACH (type, &types) {
1746             if (strcmp(type, "patch")) {
1747                 netdev_dummy_override(type);
1748             }
1749         }
1750         sset_destroy(&types);
1751     } else if (level == DUMMY_OVERRIDE_SYSTEM) {
1752         netdev_dummy_override("system");
1753     }
1754     netdev_register_provider(&dummy_class);
1755     netdev_register_provider(&dummy_pmd_class);
1756
1757     netdev_vport_tunnel_register();
1758 }