dpif: Generalize test for dummy dpifs beyond the name.
[cascardo/ovs.git] / lib / dpif.c
1 /*
2  * Copyright (c) 2008, 2009, 2010, 2011, 2012, 2013, 2014, 2015 Nicira, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <config.h>
18 #include "dpif-provider.h"
19
20 #include <ctype.h>
21 #include <errno.h>
22 #include <inttypes.h>
23 #include <stdlib.h>
24 #include <string.h>
25
26 #include "coverage.h"
27 #include "dpctl.h"
28 #include "dp-packet.h"
29 #include "dpif-netdev.h"
30 #include "dynamic-string.h"
31 #include "flow.h"
32 #include "netdev.h"
33 #include "netlink.h"
34 #include "odp-execute.h"
35 #include "odp-util.h"
36 #include "ofp-errors.h"
37 #include "ofp-print.h"
38 #include "ofp-util.h"
39 #include "ofpbuf.h"
40 #include "packets.h"
41 #include "poll-loop.h"
42 #include "route-table.h"
43 #include "seq.h"
44 #include "shash.h"
45 #include "sset.h"
46 #include "timeval.h"
47 #include "tnl-arp-cache.h"
48 #include "tnl-ports.h"
49 #include "util.h"
50 #include "uuid.h"
51 #include "valgrind.h"
52 #include "openvswitch/vlog.h"
53
54 VLOG_DEFINE_THIS_MODULE(dpif);
55
56 COVERAGE_DEFINE(dpif_destroy);
57 COVERAGE_DEFINE(dpif_port_add);
58 COVERAGE_DEFINE(dpif_port_del);
59 COVERAGE_DEFINE(dpif_flow_flush);
60 COVERAGE_DEFINE(dpif_flow_get);
61 COVERAGE_DEFINE(dpif_flow_put);
62 COVERAGE_DEFINE(dpif_flow_del);
63 COVERAGE_DEFINE(dpif_execute);
64 COVERAGE_DEFINE(dpif_purge);
65 COVERAGE_DEFINE(dpif_execute_with_help);
66
67 static const struct dpif_class *base_dpif_classes[] = {
68 #if defined(__linux__) || defined(_WIN32)
69     &dpif_netlink_class,
70 #endif
71     &dpif_netdev_class,
72 };
73
74 struct registered_dpif_class {
75     const struct dpif_class *dpif_class;
76     int refcount;
77 };
78 static struct shash dpif_classes = SHASH_INITIALIZER(&dpif_classes);
79 static struct sset dpif_blacklist = SSET_INITIALIZER(&dpif_blacklist);
80
81 /* Protects 'dpif_classes', including the refcount, and 'dpif_blacklist'. */
82 static struct ovs_mutex dpif_mutex = OVS_MUTEX_INITIALIZER;
83
84 /* Rate limit for individual messages going to or from the datapath, output at
85  * DBG level.  This is very high because, if these are enabled, it is because
86  * we really need to see them. */
87 static struct vlog_rate_limit dpmsg_rl = VLOG_RATE_LIMIT_INIT(600, 600);
88
89 /* Not really much point in logging many dpif errors. */
90 static struct vlog_rate_limit error_rl = VLOG_RATE_LIMIT_INIT(60, 5);
91
92 static void log_flow_message(const struct dpif *dpif, int error,
93                              const char *operation,
94                              const struct nlattr *key, size_t key_len,
95                              const struct nlattr *mask, size_t mask_len,
96                              const ovs_u128 *ufid,
97                              const struct dpif_flow_stats *stats,
98                              const struct nlattr *actions, size_t actions_len);
99 static void log_operation(const struct dpif *, const char *operation,
100                           int error);
101 static bool should_log_flow_message(int error);
102 static void log_flow_put_message(struct dpif *, const struct dpif_flow_put *,
103                                  int error);
104 static void log_flow_del_message(struct dpif *, const struct dpif_flow_del *,
105                                  int error);
106 static void log_execute_message(struct dpif *, const struct dpif_execute *,
107                                 bool subexecute, int error);
108 static void log_flow_get_message(const struct dpif *,
109                                  const struct dpif_flow_get *, int error);
110
111 /* Incremented whenever tnl route, arp, etc changes. */
112 struct seq *tnl_conf_seq;
113
114 static void
115 dp_initialize(void)
116 {
117     static struct ovsthread_once once = OVSTHREAD_ONCE_INITIALIZER;
118
119     if (ovsthread_once_start(&once)) {
120         int i;
121
122         tnl_conf_seq = seq_create();
123         dpctl_unixctl_register();
124         tnl_port_map_init();
125         tnl_arp_cache_init();
126         route_table_init();
127
128         for (i = 0; i < ARRAY_SIZE(base_dpif_classes); i++) {
129             dp_register_provider(base_dpif_classes[i]);
130         }
131
132         ovsthread_once_done(&once);
133     }
134 }
135
136 static int
137 dp_register_provider__(const struct dpif_class *new_class)
138 {
139     struct registered_dpif_class *registered_class;
140     int error;
141
142     if (sset_contains(&dpif_blacklist, new_class->type)) {
143         VLOG_DBG("attempted to register blacklisted provider: %s",
144                  new_class->type);
145         return EINVAL;
146     }
147
148     if (shash_find(&dpif_classes, new_class->type)) {
149         VLOG_WARN("attempted to register duplicate datapath provider: %s",
150                   new_class->type);
151         return EEXIST;
152     }
153
154     error = new_class->init ? new_class->init() : 0;
155     if (error) {
156         VLOG_WARN("failed to initialize %s datapath class: %s",
157                   new_class->type, ovs_strerror(error));
158         return error;
159     }
160
161     registered_class = xmalloc(sizeof *registered_class);
162     registered_class->dpif_class = new_class;
163     registered_class->refcount = 0;
164
165     shash_add(&dpif_classes, new_class->type, registered_class);
166
167     return 0;
168 }
169
170 /* Registers a new datapath provider.  After successful registration, new
171  * datapaths of that type can be opened using dpif_open(). */
172 int
173 dp_register_provider(const struct dpif_class *new_class)
174 {
175     int error;
176
177     ovs_mutex_lock(&dpif_mutex);
178     error = dp_register_provider__(new_class);
179     ovs_mutex_unlock(&dpif_mutex);
180
181     return error;
182 }
183
184 /* Unregisters a datapath provider.  'type' must have been previously
185  * registered and not currently be in use by any dpifs.  After unregistration
186  * new datapaths of that type cannot be opened using dpif_open(). */
187 static int
188 dp_unregister_provider__(const char *type)
189 {
190     struct shash_node *node;
191     struct registered_dpif_class *registered_class;
192
193     node = shash_find(&dpif_classes, type);
194     if (!node) {
195         VLOG_WARN("attempted to unregister a datapath provider that is not "
196                   "registered: %s", type);
197         return EAFNOSUPPORT;
198     }
199
200     registered_class = node->data;
201     if (registered_class->refcount) {
202         VLOG_WARN("attempted to unregister in use datapath provider: %s", type);
203         return EBUSY;
204     }
205
206     shash_delete(&dpif_classes, node);
207     free(registered_class);
208
209     return 0;
210 }
211
212 /* Unregisters a datapath provider.  'type' must have been previously
213  * registered and not currently be in use by any dpifs.  After unregistration
214  * new datapaths of that type cannot be opened using dpif_open(). */
215 int
216 dp_unregister_provider(const char *type)
217 {
218     int error;
219
220     dp_initialize();
221
222     ovs_mutex_lock(&dpif_mutex);
223     error = dp_unregister_provider__(type);
224     ovs_mutex_unlock(&dpif_mutex);
225
226     return error;
227 }
228
229 /* Blacklists a provider.  Causes future calls of dp_register_provider() with
230  * a dpif_class which implements 'type' to fail. */
231 void
232 dp_blacklist_provider(const char *type)
233 {
234     ovs_mutex_lock(&dpif_mutex);
235     sset_add(&dpif_blacklist, type);
236     ovs_mutex_unlock(&dpif_mutex);
237 }
238
239 /* Adds the types of all currently registered datapath providers to 'types'.
240  * The caller must first initialize the sset. */
241 void
242 dp_enumerate_types(struct sset *types)
243 {
244     struct shash_node *node;
245
246     dp_initialize();
247
248     ovs_mutex_lock(&dpif_mutex);
249     SHASH_FOR_EACH(node, &dpif_classes) {
250         const struct registered_dpif_class *registered_class = node->data;
251         sset_add(types, registered_class->dpif_class->type);
252     }
253     ovs_mutex_unlock(&dpif_mutex);
254 }
255
256 static void
257 dp_class_unref(struct registered_dpif_class *rc)
258 {
259     ovs_mutex_lock(&dpif_mutex);
260     ovs_assert(rc->refcount);
261     rc->refcount--;
262     ovs_mutex_unlock(&dpif_mutex);
263 }
264
265 static struct registered_dpif_class *
266 dp_class_lookup(const char *type)
267 {
268     struct registered_dpif_class *rc;
269
270     ovs_mutex_lock(&dpif_mutex);
271     rc = shash_find_data(&dpif_classes, type);
272     if (rc) {
273         rc->refcount++;
274     }
275     ovs_mutex_unlock(&dpif_mutex);
276
277     return rc;
278 }
279
280 /* Clears 'names' and enumerates the names of all known created datapaths with
281  * the given 'type'.  The caller must first initialize the sset.  Returns 0 if
282  * successful, otherwise a positive errno value.
283  *
284  * Some kinds of datapaths might not be practically enumerable.  This is not
285  * considered an error. */
286 int
287 dp_enumerate_names(const char *type, struct sset *names)
288 {
289     struct registered_dpif_class *registered_class;
290     const struct dpif_class *dpif_class;
291     int error;
292
293     dp_initialize();
294     sset_clear(names);
295
296     registered_class = dp_class_lookup(type);
297     if (!registered_class) {
298         VLOG_WARN("could not enumerate unknown type: %s", type);
299         return EAFNOSUPPORT;
300     }
301
302     dpif_class = registered_class->dpif_class;
303     error = (dpif_class->enumerate
304              ? dpif_class->enumerate(names, dpif_class)
305              : 0);
306     if (error) {
307         VLOG_WARN("failed to enumerate %s datapaths: %s", dpif_class->type,
308                    ovs_strerror(error));
309     }
310     dp_class_unref(registered_class);
311
312     return error;
313 }
314
315 /* Parses 'datapath_name_', which is of the form [type@]name into its
316  * component pieces.  'name' and 'type' must be freed by the caller.
317  *
318  * The returned 'type' is normalized, as if by dpif_normalize_type(). */
319 void
320 dp_parse_name(const char *datapath_name_, char **name, char **type)
321 {
322     char *datapath_name = xstrdup(datapath_name_);
323     char *separator;
324
325     separator = strchr(datapath_name, '@');
326     if (separator) {
327         *separator = '\0';
328         *type = datapath_name;
329         *name = xstrdup(dpif_normalize_type(separator + 1));
330     } else {
331         *name = datapath_name;
332         *type = xstrdup(dpif_normalize_type(NULL));
333     }
334 }
335
336 static int
337 do_open(const char *name, const char *type, bool create, struct dpif **dpifp)
338 {
339     struct dpif *dpif = NULL;
340     int error;
341     struct registered_dpif_class *registered_class;
342
343     dp_initialize();
344
345     type = dpif_normalize_type(type);
346     registered_class = dp_class_lookup(type);
347     if (!registered_class) {
348         VLOG_WARN("could not create datapath %s of unknown type %s", name,
349                   type);
350         error = EAFNOSUPPORT;
351         goto exit;
352     }
353
354     error = registered_class->dpif_class->open(registered_class->dpif_class,
355                                                name, create, &dpif);
356     if (!error) {
357         ovs_assert(dpif->dpif_class == registered_class->dpif_class);
358     } else {
359         dp_class_unref(registered_class);
360     }
361
362 exit:
363     *dpifp = error ? NULL : dpif;
364     return error;
365 }
366
367 /* Tries to open an existing datapath named 'name' and type 'type'.  Will fail
368  * if no datapath with 'name' and 'type' exists.  'type' may be either NULL or
369  * the empty string to specify the default system type.  Returns 0 if
370  * successful, otherwise a positive errno value.  On success stores a pointer
371  * to the datapath in '*dpifp', otherwise a null pointer. */
372 int
373 dpif_open(const char *name, const char *type, struct dpif **dpifp)
374 {
375     return do_open(name, type, false, dpifp);
376 }
377
378 /* Tries to create and open a new datapath with the given 'name' and 'type'.
379  * 'type' may be either NULL or the empty string to specify the default system
380  * type.  Will fail if a datapath with 'name' and 'type' already exists.
381  * Returns 0 if successful, otherwise a positive errno value.  On success
382  * stores a pointer to the datapath in '*dpifp', otherwise a null pointer. */
383 int
384 dpif_create(const char *name, const char *type, struct dpif **dpifp)
385 {
386     return do_open(name, type, true, dpifp);
387 }
388
389 /* Tries to open a datapath with the given 'name' and 'type', creating it if it
390  * does not exist.  'type' may be either NULL or the empty string to specify
391  * the default system type.  Returns 0 if successful, otherwise a positive
392  * errno value. On success stores a pointer to the datapath in '*dpifp',
393  * otherwise a null pointer. */
394 int
395 dpif_create_and_open(const char *name, const char *type, struct dpif **dpifp)
396 {
397     int error;
398
399     error = dpif_create(name, type, dpifp);
400     if (error == EEXIST || error == EBUSY) {
401         error = dpif_open(name, type, dpifp);
402         if (error) {
403             VLOG_WARN("datapath %s already exists but cannot be opened: %s",
404                       name, ovs_strerror(error));
405         }
406     } else if (error) {
407         VLOG_WARN("failed to create datapath %s: %s",
408                   name, ovs_strerror(error));
409     }
410     return error;
411 }
412
413 /* Closes and frees the connection to 'dpif'.  Does not destroy the datapath
414  * itself; call dpif_delete() first, instead, if that is desirable. */
415 void
416 dpif_close(struct dpif *dpif)
417 {
418     if (dpif) {
419         struct registered_dpif_class *rc;
420
421         rc = shash_find_data(&dpif_classes, dpif->dpif_class->type);
422         dpif_uninit(dpif, true);
423         dp_class_unref(rc);
424     }
425 }
426
427 /* Performs periodic work needed by 'dpif'. */
428 bool
429 dpif_run(struct dpif *dpif)
430 {
431     if (dpif->dpif_class->run) {
432         return dpif->dpif_class->run(dpif);
433     }
434     return false;
435 }
436
437 /* Arranges for poll_block() to wake up when dp_run() needs to be called for
438  * 'dpif'. */
439 void
440 dpif_wait(struct dpif *dpif)
441 {
442     if (dpif->dpif_class->wait) {
443         dpif->dpif_class->wait(dpif);
444     }
445 }
446
447 /* Returns the name of datapath 'dpif' prefixed with the type
448  * (for use in log messages). */
449 const char *
450 dpif_name(const struct dpif *dpif)
451 {
452     return dpif->full_name;
453 }
454
455 /* Returns the name of datapath 'dpif' without the type
456  * (for use in device names). */
457 const char *
458 dpif_base_name(const struct dpif *dpif)
459 {
460     return dpif->base_name;
461 }
462
463 /* Returns the type of datapath 'dpif'. */
464 const char *
465 dpif_type(const struct dpif *dpif)
466 {
467     return dpif->dpif_class->type;
468 }
469
470 /* Returns the fully spelled out name for the given datapath 'type'.
471  *
472  * Normalized type string can be compared with strcmp().  Unnormalized type
473  * string might be the same even if they have different spellings. */
474 const char *
475 dpif_normalize_type(const char *type)
476 {
477     return type && type[0] ? type : "system";
478 }
479
480 /* Destroys the datapath that 'dpif' is connected to, first removing all of its
481  * ports.  After calling this function, it does not make sense to pass 'dpif'
482  * to any functions other than dpif_name() or dpif_close(). */
483 int
484 dpif_delete(struct dpif *dpif)
485 {
486     int error;
487
488     COVERAGE_INC(dpif_destroy);
489
490     error = dpif->dpif_class->destroy(dpif);
491     log_operation(dpif, "delete", error);
492     return error;
493 }
494
495 /* Retrieves statistics for 'dpif' into 'stats'.  Returns 0 if successful,
496  * otherwise a positive errno value. */
497 int
498 dpif_get_dp_stats(const struct dpif *dpif, struct dpif_dp_stats *stats)
499 {
500     int error = dpif->dpif_class->get_stats(dpif, stats);
501     if (error) {
502         memset(stats, 0, sizeof *stats);
503     }
504     log_operation(dpif, "get_stats", error);
505     return error;
506 }
507
508 const char *
509 dpif_port_open_type(const char *datapath_type, const char *port_type)
510 {
511     struct registered_dpif_class *rc;
512
513     datapath_type = dpif_normalize_type(datapath_type);
514
515     ovs_mutex_lock(&dpif_mutex);
516     rc = shash_find_data(&dpif_classes, datapath_type);
517     if (rc && rc->dpif_class->port_open_type) {
518         port_type = rc->dpif_class->port_open_type(rc->dpif_class, port_type);
519     }
520     ovs_mutex_unlock(&dpif_mutex);
521
522     return port_type;
523 }
524
525 /* Attempts to add 'netdev' as a port on 'dpif'.  If 'port_nop' is
526  * non-null and its value is not ODPP_NONE, then attempts to use the
527  * value as the port number.
528  *
529  * If successful, returns 0 and sets '*port_nop' to the new port's port
530  * number (if 'port_nop' is non-null).  On failure, returns a positive
531  * errno value and sets '*port_nop' to ODPP_NONE (if 'port_nop' is
532  * non-null). */
533 int
534 dpif_port_add(struct dpif *dpif, struct netdev *netdev, odp_port_t *port_nop)
535 {
536     const char *netdev_name = netdev_get_name(netdev);
537     odp_port_t port_no = ODPP_NONE;
538     int error;
539
540     COVERAGE_INC(dpif_port_add);
541
542     if (port_nop) {
543         port_no = *port_nop;
544     }
545
546     error = dpif->dpif_class->port_add(dpif, netdev, &port_no);
547     if (!error) {
548         VLOG_DBG_RL(&dpmsg_rl, "%s: added %s as port %"PRIu32,
549                     dpif_name(dpif), netdev_name, port_no);
550     } else {
551         VLOG_WARN_RL(&error_rl, "%s: failed to add %s as port: %s",
552                      dpif_name(dpif), netdev_name, ovs_strerror(error));
553         port_no = ODPP_NONE;
554     }
555     if (port_nop) {
556         *port_nop = port_no;
557     }
558     return error;
559 }
560
561 /* Attempts to remove 'dpif''s port number 'port_no'.  Returns 0 if successful,
562  * otherwise a positive errno value. */
563 int
564 dpif_port_del(struct dpif *dpif, odp_port_t port_no)
565 {
566     int error;
567
568     COVERAGE_INC(dpif_port_del);
569
570     error = dpif->dpif_class->port_del(dpif, port_no);
571     if (!error) {
572         VLOG_DBG_RL(&dpmsg_rl, "%s: port_del(%"PRIu32")",
573                     dpif_name(dpif), port_no);
574     } else {
575         log_operation(dpif, "port_del", error);
576     }
577     return error;
578 }
579
580 /* Makes a deep copy of 'src' into 'dst'. */
581 void
582 dpif_port_clone(struct dpif_port *dst, const struct dpif_port *src)
583 {
584     dst->name = xstrdup(src->name);
585     dst->type = xstrdup(src->type);
586     dst->port_no = src->port_no;
587 }
588
589 /* Frees memory allocated to members of 'dpif_port'.
590  *
591  * Do not call this function on a dpif_port obtained from
592  * dpif_port_dump_next(): that function retains ownership of the data in the
593  * dpif_port. */
594 void
595 dpif_port_destroy(struct dpif_port *dpif_port)
596 {
597     free(dpif_port->name);
598     free(dpif_port->type);
599 }
600
601 /* Checks if port named 'devname' exists in 'dpif'.  If so, returns
602  * true; otherwise, returns false. */
603 bool
604 dpif_port_exists(const struct dpif *dpif, const char *devname)
605 {
606     int error = dpif->dpif_class->port_query_by_name(dpif, devname, NULL);
607     if (error != 0 && error != ENOENT && error != ENODEV) {
608         VLOG_WARN_RL(&error_rl, "%s: failed to query port %s: %s",
609                      dpif_name(dpif), devname, ovs_strerror(error));
610     }
611
612     return !error;
613 }
614
615 /* Looks up port number 'port_no' in 'dpif'.  On success, returns 0 and
616  * initializes '*port' appropriately; on failure, returns a positive errno
617  * value.
618  *
619  * The caller owns the data in 'port' and must free it with
620  * dpif_port_destroy() when it is no longer needed. */
621 int
622 dpif_port_query_by_number(const struct dpif *dpif, odp_port_t port_no,
623                           struct dpif_port *port)
624 {
625     int error = dpif->dpif_class->port_query_by_number(dpif, port_no, port);
626     if (!error) {
627         VLOG_DBG_RL(&dpmsg_rl, "%s: port %"PRIu32" is device %s",
628                     dpif_name(dpif), port_no, port->name);
629     } else {
630         memset(port, 0, sizeof *port);
631         VLOG_WARN_RL(&error_rl, "%s: failed to query port %"PRIu32": %s",
632                      dpif_name(dpif), port_no, ovs_strerror(error));
633     }
634     return error;
635 }
636
637 /* Looks up port named 'devname' in 'dpif'.  On success, returns 0 and
638  * initializes '*port' appropriately; on failure, returns a positive errno
639  * value.
640  *
641  * The caller owns the data in 'port' and must free it with
642  * dpif_port_destroy() when it is no longer needed. */
643 int
644 dpif_port_query_by_name(const struct dpif *dpif, const char *devname,
645                         struct dpif_port *port)
646 {
647     int error = dpif->dpif_class->port_query_by_name(dpif, devname, port);
648     if (!error) {
649         VLOG_DBG_RL(&dpmsg_rl, "%s: device %s is on port %"PRIu32,
650                     dpif_name(dpif), devname, port->port_no);
651     } else {
652         memset(port, 0, sizeof *port);
653
654         /* For ENOENT or ENODEV we use DBG level because the caller is probably
655          * interested in whether 'dpif' actually has a port 'devname', so that
656          * it's not an issue worth logging if it doesn't.  Other errors are
657          * uncommon and more likely to indicate a real problem. */
658         VLOG_RL(&error_rl,
659                 error == ENOENT || error == ENODEV ? VLL_DBG : VLL_WARN,
660                 "%s: failed to query port %s: %s",
661                 dpif_name(dpif), devname, ovs_strerror(error));
662     }
663     return error;
664 }
665
666 /* Returns the Netlink PID value to supply in OVS_ACTION_ATTR_USERSPACE
667  * actions as the OVS_USERSPACE_ATTR_PID attribute's value, for use in
668  * flows whose packets arrived on port 'port_no'.  In the case where the
669  * provider allocates multiple Netlink PIDs to a single port, it may use
670  * 'hash' to spread load among them.  The caller need not use a particular
671  * hash function; a 5-tuple hash is suitable.
672  *
673  * (The datapath implementation might use some different hash function for
674  * distributing packets received via flow misses among PIDs.  This means
675  * that packets received via flow misses might be reordered relative to
676  * packets received via userspace actions.  This is not ordinarily a
677  * problem.)
678  *
679  * A 'port_no' of ODPP_NONE is a special case: it returns a reserved PID, not
680  * allocated to any port, that the client may use for special purposes.
681  *
682  * The return value is only meaningful when DPIF_UC_ACTION has been enabled in
683  * the 'dpif''s listen mask.  It is allowed to change when DPIF_UC_ACTION is
684  * disabled and then re-enabled, so a client that does that must be prepared to
685  * update all of the flows that it installed that contain
686  * OVS_ACTION_ATTR_USERSPACE actions. */
687 uint32_t
688 dpif_port_get_pid(const struct dpif *dpif, odp_port_t port_no, uint32_t hash)
689 {
690     return (dpif->dpif_class->port_get_pid
691             ? (dpif->dpif_class->port_get_pid)(dpif, port_no, hash)
692             : 0);
693 }
694
695 /* Looks up port number 'port_no' in 'dpif'.  On success, returns 0 and copies
696  * the port's name into the 'name_size' bytes in 'name', ensuring that the
697  * result is null-terminated.  On failure, returns a positive errno value and
698  * makes 'name' the empty string. */
699 int
700 dpif_port_get_name(struct dpif *dpif, odp_port_t port_no,
701                    char *name, size_t name_size)
702 {
703     struct dpif_port port;
704     int error;
705
706     ovs_assert(name_size > 0);
707
708     error = dpif_port_query_by_number(dpif, port_no, &port);
709     if (!error) {
710         ovs_strlcpy(name, port.name, name_size);
711         dpif_port_destroy(&port);
712     } else {
713         *name = '\0';
714     }
715     return error;
716 }
717
718 /* Initializes 'dump' to begin dumping the ports in a dpif.
719  *
720  * This function provides no status indication.  An error status for the entire
721  * dump operation is provided when it is completed by calling
722  * dpif_port_dump_done().
723  */
724 void
725 dpif_port_dump_start(struct dpif_port_dump *dump, const struct dpif *dpif)
726 {
727     dump->dpif = dpif;
728     dump->error = dpif->dpif_class->port_dump_start(dpif, &dump->state);
729     log_operation(dpif, "port_dump_start", dump->error);
730 }
731
732 /* Attempts to retrieve another port from 'dump', which must have been
733  * initialized with dpif_port_dump_start().  On success, stores a new dpif_port
734  * into 'port' and returns true.  On failure, returns false.
735  *
736  * Failure might indicate an actual error or merely that the last port has been
737  * dumped.  An error status for the entire dump operation is provided when it
738  * is completed by calling dpif_port_dump_done().
739  *
740  * The dpif owns the data stored in 'port'.  It will remain valid until at
741  * least the next time 'dump' is passed to dpif_port_dump_next() or
742  * dpif_port_dump_done(). */
743 bool
744 dpif_port_dump_next(struct dpif_port_dump *dump, struct dpif_port *port)
745 {
746     const struct dpif *dpif = dump->dpif;
747
748     if (dump->error) {
749         return false;
750     }
751
752     dump->error = dpif->dpif_class->port_dump_next(dpif, dump->state, port);
753     if (dump->error == EOF) {
754         VLOG_DBG_RL(&dpmsg_rl, "%s: dumped all ports", dpif_name(dpif));
755     } else {
756         log_operation(dpif, "port_dump_next", dump->error);
757     }
758
759     if (dump->error) {
760         dpif->dpif_class->port_dump_done(dpif, dump->state);
761         return false;
762     }
763     return true;
764 }
765
766 /* Completes port table dump operation 'dump', which must have been initialized
767  * with dpif_port_dump_start().  Returns 0 if the dump operation was
768  * error-free, otherwise a positive errno value describing the problem. */
769 int
770 dpif_port_dump_done(struct dpif_port_dump *dump)
771 {
772     const struct dpif *dpif = dump->dpif;
773     if (!dump->error) {
774         dump->error = dpif->dpif_class->port_dump_done(dpif, dump->state);
775         log_operation(dpif, "port_dump_done", dump->error);
776     }
777     return dump->error == EOF ? 0 : dump->error;
778 }
779
780 /* Polls for changes in the set of ports in 'dpif'.  If the set of ports in
781  * 'dpif' has changed, this function does one of the following:
782  *
783  * - Stores the name of the device that was added to or deleted from 'dpif' in
784  *   '*devnamep' and returns 0.  The caller is responsible for freeing
785  *   '*devnamep' (with free()) when it no longer needs it.
786  *
787  * - Returns ENOBUFS and sets '*devnamep' to NULL.
788  *
789  * This function may also return 'false positives', where it returns 0 and
790  * '*devnamep' names a device that was not actually added or deleted or it
791  * returns ENOBUFS without any change.
792  *
793  * Returns EAGAIN if the set of ports in 'dpif' has not changed.  May also
794  * return other positive errno values to indicate that something has gone
795  * wrong. */
796 int
797 dpif_port_poll(const struct dpif *dpif, char **devnamep)
798 {
799     int error = dpif->dpif_class->port_poll(dpif, devnamep);
800     if (error) {
801         *devnamep = NULL;
802     }
803     return error;
804 }
805
806 /* Arranges for the poll loop to wake up when port_poll(dpif) will return a
807  * value other than EAGAIN. */
808 void
809 dpif_port_poll_wait(const struct dpif *dpif)
810 {
811     dpif->dpif_class->port_poll_wait(dpif);
812 }
813
814 /* Extracts the flow stats for a packet.  The 'flow' and 'packet'
815  * arguments must have been initialized through a call to flow_extract().
816  * 'used' is stored into stats->used. */
817 void
818 dpif_flow_stats_extract(const struct flow *flow, const struct dp_packet *packet,
819                         long long int used, struct dpif_flow_stats *stats)
820 {
821     stats->tcp_flags = ntohs(flow->tcp_flags);
822     stats->n_bytes = dp_packet_size(packet);
823     stats->n_packets = 1;
824     stats->used = used;
825 }
826
827 /* Appends a human-readable representation of 'stats' to 's'. */
828 void
829 dpif_flow_stats_format(const struct dpif_flow_stats *stats, struct ds *s)
830 {
831     ds_put_format(s, "packets:%"PRIu64", bytes:%"PRIu64", used:",
832                   stats->n_packets, stats->n_bytes);
833     if (stats->used) {
834         ds_put_format(s, "%.3fs", (time_msec() - stats->used) / 1000.0);
835     } else {
836         ds_put_format(s, "never");
837     }
838     if (stats->tcp_flags) {
839         ds_put_cstr(s, ", flags:");
840         packet_format_tcp_flags(s, stats->tcp_flags);
841     }
842 }
843
844 /* Places the hash of the 'key_len' bytes starting at 'key' into '*hash'. */
845 void
846 dpif_flow_hash(const struct dpif *dpif OVS_UNUSED,
847                const void *key, size_t key_len, ovs_u128 *hash)
848 {
849     static struct ovsthread_once once = OVSTHREAD_ONCE_INITIALIZER;
850     static uint32_t secret;
851
852     if (ovsthread_once_start(&once)) {
853         secret = random_uint32();
854         ovsthread_once_done(&once);
855     }
856     hash_bytes128(key, key_len, secret, hash);
857     uuid_set_bits_v4((struct uuid *)hash);
858 }
859
860 /* Deletes all flows from 'dpif'.  Returns 0 if successful, otherwise a
861  * positive errno value.  */
862 int
863 dpif_flow_flush(struct dpif *dpif)
864 {
865     int error;
866
867     COVERAGE_INC(dpif_flow_flush);
868
869     error = dpif->dpif_class->flow_flush(dpif);
870     log_operation(dpif, "flow_flush", error);
871     return error;
872 }
873
874 /* Attempts to install 'key' into the datapath, fetches it, then deletes it.
875  * Returns true if the datapath supported installing 'flow', false otherwise.
876  */
877 bool
878 dpif_probe_feature(struct dpif *dpif, const char *name,
879                    const struct ofpbuf *key, const ovs_u128 *ufid)
880 {
881     struct dpif_flow flow;
882     struct ofpbuf reply;
883     uint64_t stub[DPIF_FLOW_BUFSIZE / 8];
884     bool enable_feature = false;
885     int error;
886
887     /* Use DPIF_FP_MODIFY to cover the case where ovs-vswitchd is killed (and
888      * restarted) at just the right time such that feature probes from the
889      * previous run are still present in the datapath. */
890     error = dpif_flow_put(dpif, DPIF_FP_CREATE | DPIF_FP_MODIFY | DPIF_FP_PROBE,
891                           key->data, key->size, NULL, 0, NULL, 0,
892                           ufid, PMD_ID_NULL, NULL);
893     if (error) {
894         if (error != EINVAL) {
895             VLOG_WARN("%s: %s flow probe failed (%s)",
896                       dpif_name(dpif), name, ovs_strerror(error));
897         }
898         return false;
899     }
900
901     ofpbuf_use_stack(&reply, &stub, sizeof stub);
902     error = dpif_flow_get(dpif, key->data, key->size, ufid,
903                           PMD_ID_NULL, &reply, &flow);
904     if (!error
905         && (!ufid || (flow.ufid_present
906                       && ovs_u128_equals(ufid, &flow.ufid)))) {
907         enable_feature = true;
908     }
909
910     error = dpif_flow_del(dpif, key->data, key->size, ufid,
911                           PMD_ID_NULL, NULL);
912     if (error) {
913         VLOG_WARN("%s: failed to delete %s feature probe flow",
914                   dpif_name(dpif), name);
915     }
916
917     return enable_feature;
918 }
919
920 /* A dpif_operate() wrapper for performing a single DPIF_OP_FLOW_GET. */
921 int
922 dpif_flow_get(struct dpif *dpif,
923               const struct nlattr *key, size_t key_len, const ovs_u128 *ufid,
924               const unsigned pmd_id, struct ofpbuf *buf, struct dpif_flow *flow)
925 {
926     struct dpif_op *opp;
927     struct dpif_op op;
928
929     op.type = DPIF_OP_FLOW_GET;
930     op.u.flow_get.key = key;
931     op.u.flow_get.key_len = key_len;
932     op.u.flow_get.ufid = ufid;
933     op.u.flow_get.pmd_id = pmd_id;
934     op.u.flow_get.buffer = buf;
935
936     memset(flow, 0, sizeof *flow);
937     op.u.flow_get.flow = flow;
938     op.u.flow_get.flow->key = key;
939     op.u.flow_get.flow->key_len = key_len;
940
941     opp = &op;
942     dpif_operate(dpif, &opp, 1);
943
944     return op.error;
945 }
946
947 /* A dpif_operate() wrapper for performing a single DPIF_OP_FLOW_PUT. */
948 int
949 dpif_flow_put(struct dpif *dpif, enum dpif_flow_put_flags flags,
950               const struct nlattr *key, size_t key_len,
951               const struct nlattr *mask, size_t mask_len,
952               const struct nlattr *actions, size_t actions_len,
953               const ovs_u128 *ufid, const unsigned pmd_id,
954               struct dpif_flow_stats *stats)
955 {
956     struct dpif_op *opp;
957     struct dpif_op op;
958
959     op.type = DPIF_OP_FLOW_PUT;
960     op.u.flow_put.flags = flags;
961     op.u.flow_put.key = key;
962     op.u.flow_put.key_len = key_len;
963     op.u.flow_put.mask = mask;
964     op.u.flow_put.mask_len = mask_len;
965     op.u.flow_put.actions = actions;
966     op.u.flow_put.actions_len = actions_len;
967     op.u.flow_put.ufid = ufid;
968     op.u.flow_put.pmd_id = pmd_id;
969     op.u.flow_put.stats = stats;
970
971     opp = &op;
972     dpif_operate(dpif, &opp, 1);
973
974     return op.error;
975 }
976
977 /* A dpif_operate() wrapper for performing a single DPIF_OP_FLOW_DEL. */
978 int
979 dpif_flow_del(struct dpif *dpif,
980               const struct nlattr *key, size_t key_len, const ovs_u128 *ufid,
981               const unsigned pmd_id, struct dpif_flow_stats *stats)
982 {
983     struct dpif_op *opp;
984     struct dpif_op op;
985
986     op.type = DPIF_OP_FLOW_DEL;
987     op.u.flow_del.key = key;
988     op.u.flow_del.key_len = key_len;
989     op.u.flow_del.ufid = ufid;
990     op.u.flow_del.pmd_id = pmd_id;
991     op.u.flow_del.stats = stats;
992     op.u.flow_del.terse = false;
993
994     opp = &op;
995     dpif_operate(dpif, &opp, 1);
996
997     return op.error;
998 }
999
1000 /* Creates and returns a new 'struct dpif_flow_dump' for iterating through the
1001  * flows in 'dpif'. If 'terse' is true, then only UFID and statistics will
1002  * be returned in the dump. Otherwise, all fields will be returned.
1003  *
1004  * This function always successfully returns a dpif_flow_dump.  Error
1005  * reporting is deferred to dpif_flow_dump_destroy(). */
1006 struct dpif_flow_dump *
1007 dpif_flow_dump_create(const struct dpif *dpif, bool terse)
1008 {
1009     return dpif->dpif_class->flow_dump_create(dpif, terse);
1010 }
1011
1012 /* Destroys 'dump', which must have been created with dpif_flow_dump_create().
1013  * All dpif_flow_dump_thread structures previously created for 'dump' must
1014  * previously have been destroyed.
1015  *
1016  * Returns 0 if the dump operation was error-free, otherwise a positive errno
1017  * value describing the problem. */
1018 int
1019 dpif_flow_dump_destroy(struct dpif_flow_dump *dump)
1020 {
1021     const struct dpif *dpif = dump->dpif;
1022     int error = dpif->dpif_class->flow_dump_destroy(dump);
1023     log_operation(dpif, "flow_dump_destroy", error);
1024     return error == EOF ? 0 : error;
1025 }
1026
1027 /* Returns new thread-local state for use with dpif_flow_dump_next(). */
1028 struct dpif_flow_dump_thread *
1029 dpif_flow_dump_thread_create(struct dpif_flow_dump *dump)
1030 {
1031     return dump->dpif->dpif_class->flow_dump_thread_create(dump);
1032 }
1033
1034 /* Releases 'thread'. */
1035 void
1036 dpif_flow_dump_thread_destroy(struct dpif_flow_dump_thread *thread)
1037 {
1038     thread->dpif->dpif_class->flow_dump_thread_destroy(thread);
1039 }
1040
1041 /* Attempts to retrieve up to 'max_flows' more flows from 'thread'.  Returns 0
1042  * if and only if no flows remained to be retrieved, otherwise a positive
1043  * number reflecting the number of elements in 'flows[]' that were updated.
1044  * The number of flows returned might be less than 'max_flows' because
1045  * fewer than 'max_flows' remained, because this particular datapath does not
1046  * benefit from batching, or because an error occurred partway through
1047  * retrieval.  Thus, the caller should continue calling until a 0 return value,
1048  * even if intermediate return values are less than 'max_flows'.
1049  *
1050  * No error status is immediately provided.  An error status for the entire
1051  * dump operation is provided when it is completed by calling
1052  * dpif_flow_dump_destroy().
1053  *
1054  * All of the data stored into 'flows' is owned by the datapath, not by the
1055  * caller, and the caller must not modify or free it.  The datapath guarantees
1056  * that it remains accessible and unchanged until the first of:
1057  *  - The next call to dpif_flow_dump_next() for 'thread', or
1058  *  - The next rcu quiescent period. */
1059 int
1060 dpif_flow_dump_next(struct dpif_flow_dump_thread *thread,
1061                     struct dpif_flow *flows, int max_flows)
1062 {
1063     struct dpif *dpif = thread->dpif;
1064     int n;
1065
1066     ovs_assert(max_flows > 0);
1067     n = dpif->dpif_class->flow_dump_next(thread, flows, max_flows);
1068     if (n > 0) {
1069         struct dpif_flow *f;
1070
1071         for (f = flows; f < &flows[n] && should_log_flow_message(0); f++) {
1072             log_flow_message(dpif, 0, "flow_dump",
1073                              f->key, f->key_len, f->mask, f->mask_len,
1074                              &f->ufid, &f->stats, f->actions, f->actions_len);
1075         }
1076     } else {
1077         VLOG_DBG_RL(&dpmsg_rl, "%s: dumped all flows", dpif_name(dpif));
1078     }
1079     return n;
1080 }
1081
1082 struct dpif_execute_helper_aux {
1083     struct dpif *dpif;
1084     int error;
1085 };
1086
1087 /* This is called for actions that need the context of the datapath to be
1088  * meaningful. */
1089 static void
1090 dpif_execute_helper_cb(void *aux_, struct dp_packet **packets, int cnt,
1091                        const struct nlattr *action, bool may_steal OVS_UNUSED)
1092 {
1093     struct dpif_execute_helper_aux *aux = aux_;
1094     int type = nl_attr_type(action);
1095     struct dp_packet *packet = *packets;
1096
1097     ovs_assert(cnt == 1);
1098
1099     switch ((enum ovs_action_attr)type) {
1100     case OVS_ACTION_ATTR_OUTPUT:
1101     case OVS_ACTION_ATTR_TUNNEL_PUSH:
1102     case OVS_ACTION_ATTR_TUNNEL_POP:
1103     case OVS_ACTION_ATTR_USERSPACE:
1104     case OVS_ACTION_ATTR_RECIRC: {
1105         struct dpif_execute execute;
1106         struct ofpbuf execute_actions;
1107         uint64_t stub[256 / 8];
1108         struct pkt_metadata *md = &packet->md;
1109
1110         if (md->tunnel.ip_dst) {
1111             /* The Linux kernel datapath throws away the tunnel information
1112              * that we supply as metadata.  We have to use a "set" action to
1113              * supply it. */
1114             ofpbuf_use_stub(&execute_actions, stub, sizeof stub);
1115             odp_put_tunnel_action(&md->tunnel, &execute_actions);
1116             ofpbuf_put(&execute_actions, action, NLA_ALIGN(action->nla_len));
1117
1118             execute.actions = execute_actions.data;
1119             execute.actions_len = execute_actions.size;
1120         } else {
1121             execute.actions = action;
1122             execute.actions_len = NLA_ALIGN(action->nla_len);
1123         }
1124
1125         execute.packet = packet;
1126         execute.needs_help = false;
1127         execute.probe = false;
1128         aux->error = dpif_execute(aux->dpif, &execute);
1129         log_execute_message(aux->dpif, &execute, true, aux->error);
1130
1131         if (md->tunnel.ip_dst) {
1132             ofpbuf_uninit(&execute_actions);
1133         }
1134         break;
1135     }
1136
1137     case OVS_ACTION_ATTR_HASH:
1138     case OVS_ACTION_ATTR_PUSH_VLAN:
1139     case OVS_ACTION_ATTR_POP_VLAN:
1140     case OVS_ACTION_ATTR_PUSH_MPLS:
1141     case OVS_ACTION_ATTR_POP_MPLS:
1142     case OVS_ACTION_ATTR_SET:
1143     case OVS_ACTION_ATTR_SET_MASKED:
1144     case OVS_ACTION_ATTR_SAMPLE:
1145     case OVS_ACTION_ATTR_UNSPEC:
1146     case __OVS_ACTION_ATTR_MAX:
1147         OVS_NOT_REACHED();
1148     }
1149 }
1150
1151 /* Executes 'execute' by performing most of the actions in userspace and
1152  * passing the fully constructed packets to 'dpif' for output and userspace
1153  * actions.
1154  *
1155  * This helps with actions that a given 'dpif' doesn't implement directly. */
1156 static int
1157 dpif_execute_with_help(struct dpif *dpif, struct dpif_execute *execute)
1158 {
1159     struct dpif_execute_helper_aux aux = {dpif, 0};
1160     struct dp_packet *pp;
1161
1162     COVERAGE_INC(dpif_execute_with_help);
1163
1164     pp = execute->packet;
1165     odp_execute_actions(&aux, &pp, 1, false, execute->actions,
1166                         execute->actions_len, dpif_execute_helper_cb);
1167     return aux.error;
1168 }
1169
1170 /* Returns true if the datapath needs help executing 'execute'. */
1171 static bool
1172 dpif_execute_needs_help(const struct dpif_execute *execute)
1173 {
1174     return execute->needs_help || nl_attr_oversized(execute->actions_len);
1175 }
1176
1177 /* A dpif_operate() wrapper for performing a single DPIF_OP_EXECUTE. */
1178 int
1179 dpif_execute(struct dpif *dpif, struct dpif_execute *execute)
1180 {
1181     if (execute->actions_len) {
1182         struct dpif_op *opp;
1183         struct dpif_op op;
1184
1185         op.type = DPIF_OP_EXECUTE;
1186         op.u.execute = *execute;
1187
1188         opp = &op;
1189         dpif_operate(dpif, &opp, 1);
1190
1191         return op.error;
1192     } else {
1193         return 0;
1194     }
1195 }
1196
1197 /* Executes each of the 'n_ops' operations in 'ops' on 'dpif', in the order in
1198  * which they are specified.  Places each operation's results in the "output"
1199  * members documented in comments, and 0 in the 'error' member on success or a
1200  * positive errno on failure. */
1201 void
1202 dpif_operate(struct dpif *dpif, struct dpif_op **ops, size_t n_ops)
1203 {
1204     while (n_ops > 0) {
1205         size_t chunk;
1206
1207         /* Count 'chunk', the number of ops that can be executed without
1208          * needing any help.  Ops that need help should be rare, so we
1209          * expect this to ordinarily be 'n_ops', that is, all the ops. */
1210         for (chunk = 0; chunk < n_ops; chunk++) {
1211             struct dpif_op *op = ops[chunk];
1212
1213             if (op->type == DPIF_OP_EXECUTE
1214                 && dpif_execute_needs_help(&op->u.execute)) {
1215                 break;
1216             }
1217         }
1218
1219         if (chunk) {
1220             /* Execute a chunk full of ops that the dpif provider can
1221              * handle itself, without help. */
1222             size_t i;
1223
1224             dpif->dpif_class->operate(dpif, ops, chunk);
1225
1226             for (i = 0; i < chunk; i++) {
1227                 struct dpif_op *op = ops[i];
1228                 int error = op->error;
1229
1230                 switch (op->type) {
1231                 case DPIF_OP_FLOW_PUT: {
1232                     struct dpif_flow_put *put = &op->u.flow_put;
1233
1234                     COVERAGE_INC(dpif_flow_put);
1235                     log_flow_put_message(dpif, put, error);
1236                     if (error && put->stats) {
1237                         memset(put->stats, 0, sizeof *put->stats);
1238                     }
1239                     break;
1240                 }
1241
1242                 case DPIF_OP_FLOW_GET: {
1243                     struct dpif_flow_get *get = &op->u.flow_get;
1244
1245                     COVERAGE_INC(dpif_flow_get);
1246                     if (error) {
1247                         memset(get->flow, 0, sizeof *get->flow);
1248                     }
1249                     log_flow_get_message(dpif, get, error);
1250
1251                     break;
1252                 }
1253
1254                 case DPIF_OP_FLOW_DEL: {
1255                     struct dpif_flow_del *del = &op->u.flow_del;
1256
1257                     COVERAGE_INC(dpif_flow_del);
1258                     log_flow_del_message(dpif, del, error);
1259                     if (error && del->stats) {
1260                         memset(del->stats, 0, sizeof *del->stats);
1261                     }
1262                     break;
1263                 }
1264
1265                 case DPIF_OP_EXECUTE:
1266                     COVERAGE_INC(dpif_execute);
1267                     log_execute_message(dpif, &op->u.execute, false, error);
1268                     break;
1269                 }
1270             }
1271
1272             ops += chunk;
1273             n_ops -= chunk;
1274         } else {
1275             /* Help the dpif provider to execute one op. */
1276             struct dpif_op *op = ops[0];
1277
1278             COVERAGE_INC(dpif_execute);
1279             op->error = dpif_execute_with_help(dpif, &op->u.execute);
1280             ops++;
1281             n_ops--;
1282         }
1283     }
1284 }
1285
1286 /* Returns a string that represents 'type', for use in log messages. */
1287 const char *
1288 dpif_upcall_type_to_string(enum dpif_upcall_type type)
1289 {
1290     switch (type) {
1291     case DPIF_UC_MISS: return "miss";
1292     case DPIF_UC_ACTION: return "action";
1293     case DPIF_N_UC_TYPES: default: return "<unknown>";
1294     }
1295 }
1296
1297 /* Enables or disables receiving packets with dpif_recv() on 'dpif'.  Returns 0
1298  * if successful, otherwise a positive errno value.
1299  *
1300  * Turning packet receive off and then back on may change the Netlink PID
1301  * assignments returned by dpif_port_get_pid().  If the client does this, it
1302  * must update all of the flows that have OVS_ACTION_ATTR_USERSPACE actions
1303  * using the new PID assignment. */
1304 int
1305 dpif_recv_set(struct dpif *dpif, bool enable)
1306 {
1307     int error = 0;
1308
1309     if (dpif->dpif_class->recv_set) {
1310         error = dpif->dpif_class->recv_set(dpif, enable);
1311         log_operation(dpif, "recv_set", error);
1312     }
1313     return error;
1314 }
1315
1316 /* Refreshes the poll loops and Netlink sockets associated to each port,
1317  * when the number of upcall handlers (upcall receiving thread) is changed
1318  * to 'n_handlers' and receiving packets for 'dpif' is enabled by
1319  * recv_set().
1320  *
1321  * Since multiple upcall handlers can read upcalls simultaneously from
1322  * 'dpif', each port can have multiple Netlink sockets, one per upcall
1323  * handler.  So, handlers_set() is responsible for the following tasks:
1324  *
1325  *    When receiving upcall is enabled, extends or creates the
1326  *    configuration to support:
1327  *
1328  *        - 'n_handlers' Netlink sockets for each port.
1329  *
1330  *        - 'n_handlers' poll loops, one for each upcall handler.
1331  *
1332  *        - registering the Netlink sockets for the same upcall handler to
1333  *          the corresponding poll loop.
1334  *
1335  * Returns 0 if successful, otherwise a positive errno value. */
1336 int
1337 dpif_handlers_set(struct dpif *dpif, uint32_t n_handlers)
1338 {
1339     int error = 0;
1340
1341     if (dpif->dpif_class->handlers_set) {
1342         error = dpif->dpif_class->handlers_set(dpif, n_handlers);
1343         log_operation(dpif, "handlers_set", error);
1344     }
1345     return error;
1346 }
1347
1348 void
1349 dpif_register_upcall_cb(struct dpif *dpif, upcall_callback *cb, void *aux)
1350 {
1351     if (dpif->dpif_class->register_upcall_cb) {
1352         dpif->dpif_class->register_upcall_cb(dpif, cb, aux);
1353     }
1354 }
1355
1356 void
1357 dpif_enable_upcall(struct dpif *dpif)
1358 {
1359     if (dpif->dpif_class->enable_upcall) {
1360         dpif->dpif_class->enable_upcall(dpif);
1361     }
1362 }
1363
1364 void
1365 dpif_disable_upcall(struct dpif *dpif)
1366 {
1367     if (dpif->dpif_class->disable_upcall) {
1368         dpif->dpif_class->disable_upcall(dpif);
1369     }
1370 }
1371
1372 void
1373 dpif_print_packet(struct dpif *dpif, struct dpif_upcall *upcall)
1374 {
1375     if (!VLOG_DROP_DBG(&dpmsg_rl)) {
1376         struct ds flow;
1377         char *packet;
1378
1379         packet = ofp_packet_to_string(dp_packet_data(&upcall->packet),
1380                                       dp_packet_size(&upcall->packet));
1381
1382         ds_init(&flow);
1383         odp_flow_key_format(upcall->key, upcall->key_len, &flow);
1384
1385         VLOG_DBG("%s: %s upcall:\n%s\n%s",
1386                  dpif_name(dpif), dpif_upcall_type_to_string(upcall->type),
1387                  ds_cstr(&flow), packet);
1388
1389         ds_destroy(&flow);
1390         free(packet);
1391     }
1392 }
1393
1394 /* If 'dpif' creates its own I/O polling threads, refreshes poll threads
1395  * configuration. */
1396 int
1397 dpif_poll_threads_set(struct dpif *dpif, unsigned int n_rxqs,
1398                       const char *cmask)
1399 {
1400     int error = 0;
1401
1402     if (dpif->dpif_class->poll_threads_set) {
1403         error = dpif->dpif_class->poll_threads_set(dpif, n_rxqs, cmask);
1404         if (error) {
1405             log_operation(dpif, "poll_threads_set", error);
1406         }
1407     }
1408
1409     return error;
1410 }
1411
1412 /* Polls for an upcall from 'dpif' for an upcall handler.  Since there
1413  * there can be multiple poll loops, 'handler_id' is needed as index to
1414  * identify the corresponding poll loop.  If successful, stores the upcall
1415  * into '*upcall', using 'buf' for storage.  Should only be called if
1416  * 'recv_set' has been used to enable receiving packets from 'dpif'.
1417  *
1418  * 'upcall->key' and 'upcall->userdata' point into data in the caller-provided
1419  * 'buf', so their memory cannot be freed separately from 'buf'.
1420  *
1421  * The caller owns the data of 'upcall->packet' and may modify it.  If
1422  * packet's headroom is exhausted as it is manipulated, 'upcall->packet'
1423  * will be reallocated.  This requires the data of 'upcall->packet' to be
1424  * released with ofpbuf_uninit() before 'upcall' is destroyed.  However,
1425  * when an error is returned, the 'upcall->packet' may be uninitialized
1426  * and should not be released.
1427  *
1428  * Returns 0 if successful, otherwise a positive errno value.  Returns EAGAIN
1429  * if no upcall is immediately available. */
1430 int
1431 dpif_recv(struct dpif *dpif, uint32_t handler_id, struct dpif_upcall *upcall,
1432           struct ofpbuf *buf)
1433 {
1434     int error = EAGAIN;
1435
1436     if (dpif->dpif_class->recv) {
1437         error = dpif->dpif_class->recv(dpif, handler_id, upcall, buf);
1438         if (!error) {
1439             dpif_print_packet(dpif, upcall);
1440         } else if (error != EAGAIN) {
1441             log_operation(dpif, "recv", error);
1442         }
1443     }
1444     return error;
1445 }
1446
1447 /* Discards all messages that would otherwise be received by dpif_recv() on
1448  * 'dpif'. */
1449 void
1450 dpif_recv_purge(struct dpif *dpif)
1451 {
1452     COVERAGE_INC(dpif_purge);
1453     if (dpif->dpif_class->recv_purge) {
1454         dpif->dpif_class->recv_purge(dpif);
1455     }
1456 }
1457
1458 /* Arranges for the poll loop for an upcall handler to wake up when 'dpif'
1459  * 'dpif' has a message queued to be received with the recv member
1460  * function.  Since there can be multiple poll loops, 'handler_id' is
1461  * needed as index to identify the corresponding poll loop. */
1462 void
1463 dpif_recv_wait(struct dpif *dpif, uint32_t handler_id)
1464 {
1465     if (dpif->dpif_class->recv_wait) {
1466         dpif->dpif_class->recv_wait(dpif, handler_id);
1467     }
1468 }
1469
1470 /*
1471  * Return the datapath version. Caller is responsible for freeing
1472  * the string.
1473  */
1474 char *
1475 dpif_get_dp_version(const struct dpif *dpif)
1476 {
1477     char *version = NULL;
1478
1479     if (dpif->dpif_class->get_datapath_version) {
1480         version = dpif->dpif_class->get_datapath_version();
1481     }
1482
1483     return version;
1484 }
1485
1486 /* Obtains the NetFlow engine type and engine ID for 'dpif' into '*engine_type'
1487  * and '*engine_id', respectively. */
1488 void
1489 dpif_get_netflow_ids(const struct dpif *dpif,
1490                      uint8_t *engine_type, uint8_t *engine_id)
1491 {
1492     *engine_type = dpif->netflow_engine_type;
1493     *engine_id = dpif->netflow_engine_id;
1494 }
1495
1496 /* Translates OpenFlow queue ID 'queue_id' (in host byte order) into a priority
1497  * value used for setting packet priority.
1498  * On success, returns 0 and stores the priority into '*priority'.
1499  * On failure, returns a positive errno value and stores 0 into '*priority'. */
1500 int
1501 dpif_queue_to_priority(const struct dpif *dpif, uint32_t queue_id,
1502                        uint32_t *priority)
1503 {
1504     int error = (dpif->dpif_class->queue_to_priority
1505                  ? dpif->dpif_class->queue_to_priority(dpif, queue_id,
1506                                                        priority)
1507                  : EOPNOTSUPP);
1508     if (error) {
1509         *priority = 0;
1510     }
1511     log_operation(dpif, "queue_to_priority", error);
1512     return error;
1513 }
1514 \f
1515 void
1516 dpif_init(struct dpif *dpif, const struct dpif_class *dpif_class,
1517           const char *name,
1518           uint8_t netflow_engine_type, uint8_t netflow_engine_id)
1519 {
1520     dpif->dpif_class = dpif_class;
1521     dpif->base_name = xstrdup(name);
1522     dpif->full_name = xasprintf("%s@%s", dpif_class->type, name);
1523     dpif->netflow_engine_type = netflow_engine_type;
1524     dpif->netflow_engine_id = netflow_engine_id;
1525 }
1526
1527 /* Undoes the results of initialization.
1528  *
1529  * Normally this function only needs to be called from dpif_close().
1530  * However, it may be called by providers due to an error on opening
1531  * that occurs after initialization.  It this case dpif_close() would
1532  * never be called. */
1533 void
1534 dpif_uninit(struct dpif *dpif, bool close)
1535 {
1536     char *base_name = dpif->base_name;
1537     char *full_name = dpif->full_name;
1538
1539     if (close) {
1540         dpif->dpif_class->close(dpif);
1541     }
1542
1543     free(base_name);
1544     free(full_name);
1545 }
1546 \f
1547 static void
1548 log_operation(const struct dpif *dpif, const char *operation, int error)
1549 {
1550     if (!error) {
1551         VLOG_DBG_RL(&dpmsg_rl, "%s: %s success", dpif_name(dpif), operation);
1552     } else if (ofperr_is_valid(error)) {
1553         VLOG_WARN_RL(&error_rl, "%s: %s failed (%s)",
1554                      dpif_name(dpif), operation, ofperr_get_name(error));
1555     } else {
1556         VLOG_WARN_RL(&error_rl, "%s: %s failed (%s)",
1557                      dpif_name(dpif), operation, ovs_strerror(error));
1558     }
1559 }
1560
1561 static enum vlog_level
1562 flow_message_log_level(int error)
1563 {
1564     /* If flows arrive in a batch, userspace may push down multiple
1565      * unique flow definitions that overlap when wildcards are applied.
1566      * Kernels that support flow wildcarding will reject these flows as
1567      * duplicates (EEXIST), so lower the log level to debug for these
1568      * types of messages. */
1569     return (error && error != EEXIST) ? VLL_WARN : VLL_DBG;
1570 }
1571
1572 static bool
1573 should_log_flow_message(int error)
1574 {
1575     return !vlog_should_drop(THIS_MODULE, flow_message_log_level(error),
1576                              error ? &error_rl : &dpmsg_rl);
1577 }
1578
1579 static void
1580 log_flow_message(const struct dpif *dpif, int error, const char *operation,
1581                  const struct nlattr *key, size_t key_len,
1582                  const struct nlattr *mask, size_t mask_len,
1583                  const ovs_u128 *ufid, const struct dpif_flow_stats *stats,
1584                  const struct nlattr *actions, size_t actions_len)
1585 {
1586     struct ds ds = DS_EMPTY_INITIALIZER;
1587     ds_put_format(&ds, "%s: ", dpif_name(dpif));
1588     if (error) {
1589         ds_put_cstr(&ds, "failed to ");
1590     }
1591     ds_put_format(&ds, "%s ", operation);
1592     if (error) {
1593         ds_put_format(&ds, "(%s) ", ovs_strerror(error));
1594     }
1595     if (ufid) {
1596         odp_format_ufid(ufid, &ds);
1597         ds_put_cstr(&ds, " ");
1598     }
1599     odp_flow_format(key, key_len, mask, mask_len, NULL, &ds, true);
1600     if (stats) {
1601         ds_put_cstr(&ds, ", ");
1602         dpif_flow_stats_format(stats, &ds);
1603     }
1604     if (actions || actions_len) {
1605         ds_put_cstr(&ds, ", actions:");
1606         format_odp_actions(&ds, actions, actions_len);
1607     }
1608     vlog(THIS_MODULE, flow_message_log_level(error), "%s", ds_cstr(&ds));
1609     ds_destroy(&ds);
1610 }
1611
1612 static void
1613 log_flow_put_message(struct dpif *dpif, const struct dpif_flow_put *put,
1614                      int error)
1615 {
1616     if (should_log_flow_message(error) && !(put->flags & DPIF_FP_PROBE)) {
1617         struct ds s;
1618
1619         ds_init(&s);
1620         ds_put_cstr(&s, "put");
1621         if (put->flags & DPIF_FP_CREATE) {
1622             ds_put_cstr(&s, "[create]");
1623         }
1624         if (put->flags & DPIF_FP_MODIFY) {
1625             ds_put_cstr(&s, "[modify]");
1626         }
1627         if (put->flags & DPIF_FP_ZERO_STATS) {
1628             ds_put_cstr(&s, "[zero]");
1629         }
1630         log_flow_message(dpif, error, ds_cstr(&s),
1631                          put->key, put->key_len, put->mask, put->mask_len,
1632                          put->ufid, put->stats, put->actions,
1633                          put->actions_len);
1634         ds_destroy(&s);
1635     }
1636 }
1637
1638 static void
1639 log_flow_del_message(struct dpif *dpif, const struct dpif_flow_del *del,
1640                      int error)
1641 {
1642     if (should_log_flow_message(error)) {
1643         log_flow_message(dpif, error, "flow_del", del->key, del->key_len,
1644                          NULL, 0, del->ufid, !error ? del->stats : NULL,
1645                          NULL, 0);
1646     }
1647 }
1648
1649 /* Logs that 'execute' was executed on 'dpif' and completed with errno 'error'
1650  * (0 for success).  'subexecute' should be true if the execution is a result
1651  * of breaking down a larger execution that needed help, false otherwise.
1652  *
1653  *
1654  * XXX In theory, the log message could be deceptive because this function is
1655  * called after the dpif_provider's '->execute' function, which is allowed to
1656  * modify execute->packet and execute->md.  In practice, though:
1657  *
1658  *     - dpif-netlink doesn't modify execute->packet or execute->md.
1659  *
1660  *     - dpif-netdev does modify them but it is less likely to have problems
1661  *       because it is built into ovs-vswitchd and cannot have version skew,
1662  *       etc.
1663  *
1664  * It would still be better to avoid the potential problem.  I don't know of a
1665  * good way to do that, though, that isn't expensive. */
1666 static void
1667 log_execute_message(struct dpif *dpif, const struct dpif_execute *execute,
1668                     bool subexecute, int error)
1669 {
1670     if (!(error ? VLOG_DROP_WARN(&error_rl) : VLOG_DROP_DBG(&dpmsg_rl))
1671         && !execute->probe) {
1672         struct ds ds = DS_EMPTY_INITIALIZER;
1673         char *packet;
1674
1675         packet = ofp_packet_to_string(dp_packet_data(execute->packet),
1676                                       dp_packet_size(execute->packet));
1677         ds_put_format(&ds, "%s: %sexecute ",
1678                       dpif_name(dpif),
1679                       (subexecute ? "sub-"
1680                        : dpif_execute_needs_help(execute) ? "super-"
1681                        : ""));
1682         format_odp_actions(&ds, execute->actions, execute->actions_len);
1683         if (error) {
1684             ds_put_format(&ds, " failed (%s)", ovs_strerror(error));
1685         }
1686         ds_put_format(&ds, " on packet %s", packet);
1687         vlog(THIS_MODULE, error ? VLL_WARN : VLL_DBG, "%s", ds_cstr(&ds));
1688         ds_destroy(&ds);
1689         free(packet);
1690     }
1691 }
1692
1693 static void
1694 log_flow_get_message(const struct dpif *dpif, const struct dpif_flow_get *get,
1695                      int error)
1696 {
1697     if (should_log_flow_message(error)) {
1698         log_flow_message(dpif, error, "flow_get",
1699                          get->key, get->key_len,
1700                          get->flow->mask, get->flow->mask_len,
1701                          get->ufid, &get->flow->stats,
1702                          get->flow->actions, get->flow->actions_len);
1703     }
1704 }
1705
1706 bool
1707 dpif_supports_tnl_push_pop(const struct dpif *dpif)
1708 {
1709     return dpif_is_netdev(dpif);
1710 }