ovs-numa: Change 'core_id' to unsigned.
[cascardo/ovs.git] / lib / dpif.c
1 /*
2  * Copyright (c) 2008, 2009, 2010, 2011, 2012, 2013, 2014 Nicira, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <config.h>
18 #include "dpif-provider.h"
19
20 #include <ctype.h>
21 #include <errno.h>
22 #include <inttypes.h>
23 #include <stdlib.h>
24 #include <string.h>
25
26 #include "coverage.h"
27 #include "dpctl.h"
28 #include "dp-packet.h"
29 #include "dynamic-string.h"
30 #include "flow.h"
31 #include "netdev.h"
32 #include "netlink.h"
33 #include "odp-execute.h"
34 #include "odp-util.h"
35 #include "ofp-errors.h"
36 #include "ofp-print.h"
37 #include "ofp-util.h"
38 #include "ofpbuf.h"
39 #include "packets.h"
40 #include "poll-loop.h"
41 #include "route-table.h"
42 #include "seq.h"
43 #include "shash.h"
44 #include "sset.h"
45 #include "timeval.h"
46 #include "tnl-arp-cache.h"
47 #include "tnl-ports.h"
48 #include "util.h"
49 #include "valgrind.h"
50 #include "openvswitch/vlog.h"
51
52 VLOG_DEFINE_THIS_MODULE(dpif);
53
54 COVERAGE_DEFINE(dpif_destroy);
55 COVERAGE_DEFINE(dpif_port_add);
56 COVERAGE_DEFINE(dpif_port_del);
57 COVERAGE_DEFINE(dpif_flow_flush);
58 COVERAGE_DEFINE(dpif_flow_get);
59 COVERAGE_DEFINE(dpif_flow_put);
60 COVERAGE_DEFINE(dpif_flow_del);
61 COVERAGE_DEFINE(dpif_execute);
62 COVERAGE_DEFINE(dpif_purge);
63 COVERAGE_DEFINE(dpif_execute_with_help);
64
65 static const struct dpif_class *base_dpif_classes[] = {
66 #if defined(__linux__) || defined(_WIN32)
67     &dpif_netlink_class,
68 #endif
69     &dpif_netdev_class,
70 };
71
72 struct registered_dpif_class {
73     const struct dpif_class *dpif_class;
74     int refcount;
75 };
76 static struct shash dpif_classes = SHASH_INITIALIZER(&dpif_classes);
77 static struct sset dpif_blacklist = SSET_INITIALIZER(&dpif_blacklist);
78
79 /* Protects 'dpif_classes', including the refcount, and 'dpif_blacklist'. */
80 static struct ovs_mutex dpif_mutex = OVS_MUTEX_INITIALIZER;
81
82 /* Rate limit for individual messages going to or from the datapath, output at
83  * DBG level.  This is very high because, if these are enabled, it is because
84  * we really need to see them. */
85 static struct vlog_rate_limit dpmsg_rl = VLOG_RATE_LIMIT_INIT(600, 600);
86
87 /* Not really much point in logging many dpif errors. */
88 static struct vlog_rate_limit error_rl = VLOG_RATE_LIMIT_INIT(60, 5);
89
90 static void log_flow_message(const struct dpif *dpif, int error,
91                              const char *operation,
92                              const struct nlattr *key, size_t key_len,
93                              const struct nlattr *mask, size_t mask_len,
94                              const ovs_u128 *ufid,
95                              const struct dpif_flow_stats *stats,
96                              const struct nlattr *actions, size_t actions_len);
97 static void log_operation(const struct dpif *, const char *operation,
98                           int error);
99 static bool should_log_flow_message(int error);
100 static void log_flow_put_message(struct dpif *, const struct dpif_flow_put *,
101                                  int error);
102 static void log_flow_del_message(struct dpif *, const struct dpif_flow_del *,
103                                  int error);
104 static void log_execute_message(struct dpif *, const struct dpif_execute *,
105                                 bool subexecute, int error);
106 static void log_flow_get_message(const struct dpif *,
107                                  const struct dpif_flow_get *, int error);
108
109 /* Incremented whenever tnl route, arp, etc changes. */
110 struct seq *tnl_conf_seq;
111
112 static void
113 dp_initialize(void)
114 {
115     static struct ovsthread_once once = OVSTHREAD_ONCE_INITIALIZER;
116
117     if (ovsthread_once_start(&once)) {
118         int i;
119
120         tnl_conf_seq = seq_create();
121         dpctl_unixctl_register();
122         tnl_port_map_init();
123         tnl_arp_cache_init();
124         route_table_init();
125
126         for (i = 0; i < ARRAY_SIZE(base_dpif_classes); i++) {
127             dp_register_provider(base_dpif_classes[i]);
128         }
129
130         ovsthread_once_done(&once);
131     }
132 }
133
134 static int
135 dp_register_provider__(const struct dpif_class *new_class)
136 {
137     struct registered_dpif_class *registered_class;
138     int error;
139
140     if (sset_contains(&dpif_blacklist, new_class->type)) {
141         VLOG_DBG("attempted to register blacklisted provider: %s",
142                  new_class->type);
143         return EINVAL;
144     }
145
146     if (shash_find(&dpif_classes, new_class->type)) {
147         VLOG_WARN("attempted to register duplicate datapath provider: %s",
148                   new_class->type);
149         return EEXIST;
150     }
151
152     error = new_class->init ? new_class->init() : 0;
153     if (error) {
154         VLOG_WARN("failed to initialize %s datapath class: %s",
155                   new_class->type, ovs_strerror(error));
156         return error;
157     }
158
159     registered_class = xmalloc(sizeof *registered_class);
160     registered_class->dpif_class = new_class;
161     registered_class->refcount = 0;
162
163     shash_add(&dpif_classes, new_class->type, registered_class);
164
165     return 0;
166 }
167
168 /* Registers a new datapath provider.  After successful registration, new
169  * datapaths of that type can be opened using dpif_open(). */
170 int
171 dp_register_provider(const struct dpif_class *new_class)
172 {
173     int error;
174
175     ovs_mutex_lock(&dpif_mutex);
176     error = dp_register_provider__(new_class);
177     ovs_mutex_unlock(&dpif_mutex);
178
179     return error;
180 }
181
182 /* Unregisters a datapath provider.  'type' must have been previously
183  * registered and not currently be in use by any dpifs.  After unregistration
184  * new datapaths of that type cannot be opened using dpif_open(). */
185 static int
186 dp_unregister_provider__(const char *type)
187 {
188     struct shash_node *node;
189     struct registered_dpif_class *registered_class;
190
191     node = shash_find(&dpif_classes, type);
192     if (!node) {
193         VLOG_WARN("attempted to unregister a datapath provider that is not "
194                   "registered: %s", type);
195         return EAFNOSUPPORT;
196     }
197
198     registered_class = node->data;
199     if (registered_class->refcount) {
200         VLOG_WARN("attempted to unregister in use datapath provider: %s", type);
201         return EBUSY;
202     }
203
204     shash_delete(&dpif_classes, node);
205     free(registered_class);
206
207     return 0;
208 }
209
210 /* Unregisters a datapath provider.  'type' must have been previously
211  * registered and not currently be in use by any dpifs.  After unregistration
212  * new datapaths of that type cannot be opened using dpif_open(). */
213 int
214 dp_unregister_provider(const char *type)
215 {
216     int error;
217
218     dp_initialize();
219
220     ovs_mutex_lock(&dpif_mutex);
221     error = dp_unregister_provider__(type);
222     ovs_mutex_unlock(&dpif_mutex);
223
224     return error;
225 }
226
227 /* Blacklists a provider.  Causes future calls of dp_register_provider() with
228  * a dpif_class which implements 'type' to fail. */
229 void
230 dp_blacklist_provider(const char *type)
231 {
232     ovs_mutex_lock(&dpif_mutex);
233     sset_add(&dpif_blacklist, type);
234     ovs_mutex_unlock(&dpif_mutex);
235 }
236
237 /* Adds the types of all currently registered datapath providers to 'types'.
238  * The caller must first initialize the sset. */
239 void
240 dp_enumerate_types(struct sset *types)
241 {
242     struct shash_node *node;
243
244     dp_initialize();
245
246     ovs_mutex_lock(&dpif_mutex);
247     SHASH_FOR_EACH(node, &dpif_classes) {
248         const struct registered_dpif_class *registered_class = node->data;
249         sset_add(types, registered_class->dpif_class->type);
250     }
251     ovs_mutex_unlock(&dpif_mutex);
252 }
253
254 static void
255 dp_class_unref(struct registered_dpif_class *rc)
256 {
257     ovs_mutex_lock(&dpif_mutex);
258     ovs_assert(rc->refcount);
259     rc->refcount--;
260     ovs_mutex_unlock(&dpif_mutex);
261 }
262
263 static struct registered_dpif_class *
264 dp_class_lookup(const char *type)
265 {
266     struct registered_dpif_class *rc;
267
268     ovs_mutex_lock(&dpif_mutex);
269     rc = shash_find_data(&dpif_classes, type);
270     if (rc) {
271         rc->refcount++;
272     }
273     ovs_mutex_unlock(&dpif_mutex);
274
275     return rc;
276 }
277
278 /* Clears 'names' and enumerates the names of all known created datapaths with
279  * the given 'type'.  The caller must first initialize the sset.  Returns 0 if
280  * successful, otherwise a positive errno value.
281  *
282  * Some kinds of datapaths might not be practically enumerable.  This is not
283  * considered an error. */
284 int
285 dp_enumerate_names(const char *type, struct sset *names)
286 {
287     struct registered_dpif_class *registered_class;
288     const struct dpif_class *dpif_class;
289     int error;
290
291     dp_initialize();
292     sset_clear(names);
293
294     registered_class = dp_class_lookup(type);
295     if (!registered_class) {
296         VLOG_WARN("could not enumerate unknown type: %s", type);
297         return EAFNOSUPPORT;
298     }
299
300     dpif_class = registered_class->dpif_class;
301     error = (dpif_class->enumerate
302              ? dpif_class->enumerate(names, dpif_class)
303              : 0);
304     if (error) {
305         VLOG_WARN("failed to enumerate %s datapaths: %s", dpif_class->type,
306                    ovs_strerror(error));
307     }
308     dp_class_unref(registered_class);
309
310     return error;
311 }
312
313 /* Parses 'datapath_name_', which is of the form [type@]name into its
314  * component pieces.  'name' and 'type' must be freed by the caller.
315  *
316  * The returned 'type' is normalized, as if by dpif_normalize_type(). */
317 void
318 dp_parse_name(const char *datapath_name_, char **name, char **type)
319 {
320     char *datapath_name = xstrdup(datapath_name_);
321     char *separator;
322
323     separator = strchr(datapath_name, '@');
324     if (separator) {
325         *separator = '\0';
326         *type = datapath_name;
327         *name = xstrdup(dpif_normalize_type(separator + 1));
328     } else {
329         *name = datapath_name;
330         *type = xstrdup(dpif_normalize_type(NULL));
331     }
332 }
333
334 static int
335 do_open(const char *name, const char *type, bool create, struct dpif **dpifp)
336 {
337     struct dpif *dpif = NULL;
338     int error;
339     struct registered_dpif_class *registered_class;
340
341     dp_initialize();
342
343     type = dpif_normalize_type(type);
344     registered_class = dp_class_lookup(type);
345     if (!registered_class) {
346         VLOG_WARN("could not create datapath %s of unknown type %s", name,
347                   type);
348         error = EAFNOSUPPORT;
349         goto exit;
350     }
351
352     error = registered_class->dpif_class->open(registered_class->dpif_class,
353                                                name, create, &dpif);
354     if (!error) {
355         ovs_assert(dpif->dpif_class == registered_class->dpif_class);
356     } else {
357         dp_class_unref(registered_class);
358     }
359
360 exit:
361     *dpifp = error ? NULL : dpif;
362     return error;
363 }
364
365 /* Tries to open an existing datapath named 'name' and type 'type'.  Will fail
366  * if no datapath with 'name' and 'type' exists.  'type' may be either NULL or
367  * the empty string to specify the default system type.  Returns 0 if
368  * successful, otherwise a positive errno value.  On success stores a pointer
369  * to the datapath in '*dpifp', otherwise a null pointer. */
370 int
371 dpif_open(const char *name, const char *type, struct dpif **dpifp)
372 {
373     return do_open(name, type, false, dpifp);
374 }
375
376 /* Tries to create and open a new datapath with the given 'name' and 'type'.
377  * 'type' may be either NULL or the empty string to specify the default system
378  * type.  Will fail if a datapath with 'name' and 'type' already exists.
379  * Returns 0 if successful, otherwise a positive errno value.  On success
380  * stores a pointer to the datapath in '*dpifp', otherwise a null pointer. */
381 int
382 dpif_create(const char *name, const char *type, struct dpif **dpifp)
383 {
384     return do_open(name, type, true, dpifp);
385 }
386
387 /* Tries to open a datapath with the given 'name' and 'type', creating it if it
388  * does not exist.  'type' may be either NULL or the empty string to specify
389  * the default system type.  Returns 0 if successful, otherwise a positive
390  * errno value. On success stores a pointer to the datapath in '*dpifp',
391  * otherwise a null pointer. */
392 int
393 dpif_create_and_open(const char *name, const char *type, struct dpif **dpifp)
394 {
395     int error;
396
397     error = dpif_create(name, type, dpifp);
398     if (error == EEXIST || error == EBUSY) {
399         error = dpif_open(name, type, dpifp);
400         if (error) {
401             VLOG_WARN("datapath %s already exists but cannot be opened: %s",
402                       name, ovs_strerror(error));
403         }
404     } else if (error) {
405         VLOG_WARN("failed to create datapath %s: %s",
406                   name, ovs_strerror(error));
407     }
408     return error;
409 }
410
411 /* Closes and frees the connection to 'dpif'.  Does not destroy the datapath
412  * itself; call dpif_delete() first, instead, if that is desirable. */
413 void
414 dpif_close(struct dpif *dpif)
415 {
416     if (dpif) {
417         struct registered_dpif_class *rc;
418
419         rc = shash_find_data(&dpif_classes, dpif->dpif_class->type);
420         dpif_uninit(dpif, true);
421         dp_class_unref(rc);
422     }
423 }
424
425 /* Performs periodic work needed by 'dpif'. */
426 bool
427 dpif_run(struct dpif *dpif)
428 {
429     if (dpif->dpif_class->run) {
430         return dpif->dpif_class->run(dpif);
431     }
432     return false;
433 }
434
435 /* Arranges for poll_block() to wake up when dp_run() needs to be called for
436  * 'dpif'. */
437 void
438 dpif_wait(struct dpif *dpif)
439 {
440     if (dpif->dpif_class->wait) {
441         dpif->dpif_class->wait(dpif);
442     }
443 }
444
445 /* Returns the name of datapath 'dpif' prefixed with the type
446  * (for use in log messages). */
447 const char *
448 dpif_name(const struct dpif *dpif)
449 {
450     return dpif->full_name;
451 }
452
453 /* Returns the name of datapath 'dpif' without the type
454  * (for use in device names). */
455 const char *
456 dpif_base_name(const struct dpif *dpif)
457 {
458     return dpif->base_name;
459 }
460
461 /* Returns the type of datapath 'dpif'. */
462 const char *
463 dpif_type(const struct dpif *dpif)
464 {
465     return dpif->dpif_class->type;
466 }
467
468 /* Returns the fully spelled out name for the given datapath 'type'.
469  *
470  * Normalized type string can be compared with strcmp().  Unnormalized type
471  * string might be the same even if they have different spellings. */
472 const char *
473 dpif_normalize_type(const char *type)
474 {
475     return type && type[0] ? type : "system";
476 }
477
478 /* Destroys the datapath that 'dpif' is connected to, first removing all of its
479  * ports.  After calling this function, it does not make sense to pass 'dpif'
480  * to any functions other than dpif_name() or dpif_close(). */
481 int
482 dpif_delete(struct dpif *dpif)
483 {
484     int error;
485
486     COVERAGE_INC(dpif_destroy);
487
488     error = dpif->dpif_class->destroy(dpif);
489     log_operation(dpif, "delete", error);
490     return error;
491 }
492
493 /* Retrieves statistics for 'dpif' into 'stats'.  Returns 0 if successful,
494  * otherwise a positive errno value. */
495 int
496 dpif_get_dp_stats(const struct dpif *dpif, struct dpif_dp_stats *stats)
497 {
498     int error = dpif->dpif_class->get_stats(dpif, stats);
499     if (error) {
500         memset(stats, 0, sizeof *stats);
501     }
502     log_operation(dpif, "get_stats", error);
503     return error;
504 }
505
506 const char *
507 dpif_port_open_type(const char *datapath_type, const char *port_type)
508 {
509     struct registered_dpif_class *rc;
510
511     datapath_type = dpif_normalize_type(datapath_type);
512
513     ovs_mutex_lock(&dpif_mutex);
514     rc = shash_find_data(&dpif_classes, datapath_type);
515     if (rc && rc->dpif_class->port_open_type) {
516         port_type = rc->dpif_class->port_open_type(rc->dpif_class, port_type);
517     }
518     ovs_mutex_unlock(&dpif_mutex);
519
520     return port_type;
521 }
522
523 /* Attempts to add 'netdev' as a port on 'dpif'.  If 'port_nop' is
524  * non-null and its value is not ODPP_NONE, then attempts to use the
525  * value as the port number.
526  *
527  * If successful, returns 0 and sets '*port_nop' to the new port's port
528  * number (if 'port_nop' is non-null).  On failure, returns a positive
529  * errno value and sets '*port_nop' to ODPP_NONE (if 'port_nop' is
530  * non-null). */
531 int
532 dpif_port_add(struct dpif *dpif, struct netdev *netdev, odp_port_t *port_nop)
533 {
534     const char *netdev_name = netdev_get_name(netdev);
535     odp_port_t port_no = ODPP_NONE;
536     int error;
537
538     COVERAGE_INC(dpif_port_add);
539
540     if (port_nop) {
541         port_no = *port_nop;
542     }
543
544     error = dpif->dpif_class->port_add(dpif, netdev, &port_no);
545     if (!error) {
546         VLOG_DBG_RL(&dpmsg_rl, "%s: added %s as port %"PRIu32,
547                     dpif_name(dpif), netdev_name, port_no);
548     } else {
549         VLOG_WARN_RL(&error_rl, "%s: failed to add %s as port: %s",
550                      dpif_name(dpif), netdev_name, ovs_strerror(error));
551         port_no = ODPP_NONE;
552     }
553     if (port_nop) {
554         *port_nop = port_no;
555     }
556     return error;
557 }
558
559 /* Attempts to remove 'dpif''s port number 'port_no'.  Returns 0 if successful,
560  * otherwise a positive errno value. */
561 int
562 dpif_port_del(struct dpif *dpif, odp_port_t port_no)
563 {
564     int error;
565
566     COVERAGE_INC(dpif_port_del);
567
568     error = dpif->dpif_class->port_del(dpif, port_no);
569     if (!error) {
570         VLOG_DBG_RL(&dpmsg_rl, "%s: port_del(%"PRIu32")",
571                     dpif_name(dpif), port_no);
572     } else {
573         log_operation(dpif, "port_del", error);
574     }
575     return error;
576 }
577
578 /* Makes a deep copy of 'src' into 'dst'. */
579 void
580 dpif_port_clone(struct dpif_port *dst, const struct dpif_port *src)
581 {
582     dst->name = xstrdup(src->name);
583     dst->type = xstrdup(src->type);
584     dst->port_no = src->port_no;
585 }
586
587 /* Frees memory allocated to members of 'dpif_port'.
588  *
589  * Do not call this function on a dpif_port obtained from
590  * dpif_port_dump_next(): that function retains ownership of the data in the
591  * dpif_port. */
592 void
593 dpif_port_destroy(struct dpif_port *dpif_port)
594 {
595     free(dpif_port->name);
596     free(dpif_port->type);
597 }
598
599 /* Checks if port named 'devname' exists in 'dpif'.  If so, returns
600  * true; otherwise, returns false. */
601 bool
602 dpif_port_exists(const struct dpif *dpif, const char *devname)
603 {
604     int error = dpif->dpif_class->port_query_by_name(dpif, devname, NULL);
605     if (error != 0 && error != ENOENT && error != ENODEV) {
606         VLOG_WARN_RL(&error_rl, "%s: failed to query port %s: %s",
607                      dpif_name(dpif), devname, ovs_strerror(error));
608     }
609
610     return !error;
611 }
612
613 /* Looks up port number 'port_no' in 'dpif'.  On success, returns 0 and
614  * initializes '*port' appropriately; on failure, returns a positive errno
615  * value.
616  *
617  * The caller owns the data in 'port' and must free it with
618  * dpif_port_destroy() when it is no longer needed. */
619 int
620 dpif_port_query_by_number(const struct dpif *dpif, odp_port_t port_no,
621                           struct dpif_port *port)
622 {
623     int error = dpif->dpif_class->port_query_by_number(dpif, port_no, port);
624     if (!error) {
625         VLOG_DBG_RL(&dpmsg_rl, "%s: port %"PRIu32" is device %s",
626                     dpif_name(dpif), port_no, port->name);
627     } else {
628         memset(port, 0, sizeof *port);
629         VLOG_WARN_RL(&error_rl, "%s: failed to query port %"PRIu32": %s",
630                      dpif_name(dpif), port_no, ovs_strerror(error));
631     }
632     return error;
633 }
634
635 /* Looks up port named 'devname' in 'dpif'.  On success, returns 0 and
636  * initializes '*port' appropriately; on failure, returns a positive errno
637  * value.
638  *
639  * The caller owns the data in 'port' and must free it with
640  * dpif_port_destroy() when it is no longer needed. */
641 int
642 dpif_port_query_by_name(const struct dpif *dpif, const char *devname,
643                         struct dpif_port *port)
644 {
645     int error = dpif->dpif_class->port_query_by_name(dpif, devname, port);
646     if (!error) {
647         VLOG_DBG_RL(&dpmsg_rl, "%s: device %s is on port %"PRIu32,
648                     dpif_name(dpif), devname, port->port_no);
649     } else {
650         memset(port, 0, sizeof *port);
651
652         /* For ENOENT or ENODEV we use DBG level because the caller is probably
653          * interested in whether 'dpif' actually has a port 'devname', so that
654          * it's not an issue worth logging if it doesn't.  Other errors are
655          * uncommon and more likely to indicate a real problem. */
656         VLOG_RL(&error_rl,
657                 error == ENOENT || error == ENODEV ? VLL_DBG : VLL_WARN,
658                 "%s: failed to query port %s: %s",
659                 dpif_name(dpif), devname, ovs_strerror(error));
660     }
661     return error;
662 }
663
664 /* Returns the Netlink PID value to supply in OVS_ACTION_ATTR_USERSPACE
665  * actions as the OVS_USERSPACE_ATTR_PID attribute's value, for use in
666  * flows whose packets arrived on port 'port_no'.  In the case where the
667  * provider allocates multiple Netlink PIDs to a single port, it may use
668  * 'hash' to spread load among them.  The caller need not use a particular
669  * hash function; a 5-tuple hash is suitable.
670  *
671  * (The datapath implementation might use some different hash function for
672  * distributing packets received via flow misses among PIDs.  This means
673  * that packets received via flow misses might be reordered relative to
674  * packets received via userspace actions.  This is not ordinarily a
675  * problem.)
676  *
677  * A 'port_no' of ODPP_NONE is a special case: it returns a reserved PID, not
678  * allocated to any port, that the client may use for special purposes.
679  *
680  * The return value is only meaningful when DPIF_UC_ACTION has been enabled in
681  * the 'dpif''s listen mask.  It is allowed to change when DPIF_UC_ACTION is
682  * disabled and then re-enabled, so a client that does that must be prepared to
683  * update all of the flows that it installed that contain
684  * OVS_ACTION_ATTR_USERSPACE actions. */
685 uint32_t
686 dpif_port_get_pid(const struct dpif *dpif, odp_port_t port_no, uint32_t hash)
687 {
688     return (dpif->dpif_class->port_get_pid
689             ? (dpif->dpif_class->port_get_pid)(dpif, port_no, hash)
690             : 0);
691 }
692
693 /* Looks up port number 'port_no' in 'dpif'.  On success, returns 0 and copies
694  * the port's name into the 'name_size' bytes in 'name', ensuring that the
695  * result is null-terminated.  On failure, returns a positive errno value and
696  * makes 'name' the empty string. */
697 int
698 dpif_port_get_name(struct dpif *dpif, odp_port_t port_no,
699                    char *name, size_t name_size)
700 {
701     struct dpif_port port;
702     int error;
703
704     ovs_assert(name_size > 0);
705
706     error = dpif_port_query_by_number(dpif, port_no, &port);
707     if (!error) {
708         ovs_strlcpy(name, port.name, name_size);
709         dpif_port_destroy(&port);
710     } else {
711         *name = '\0';
712     }
713     return error;
714 }
715
716 /* Initializes 'dump' to begin dumping the ports in a dpif.
717  *
718  * This function provides no status indication.  An error status for the entire
719  * dump operation is provided when it is completed by calling
720  * dpif_port_dump_done().
721  */
722 void
723 dpif_port_dump_start(struct dpif_port_dump *dump, const struct dpif *dpif)
724 {
725     dump->dpif = dpif;
726     dump->error = dpif->dpif_class->port_dump_start(dpif, &dump->state);
727     log_operation(dpif, "port_dump_start", dump->error);
728 }
729
730 /* Attempts to retrieve another port from 'dump', which must have been
731  * initialized with dpif_port_dump_start().  On success, stores a new dpif_port
732  * into 'port' and returns true.  On failure, returns false.
733  *
734  * Failure might indicate an actual error or merely that the last port has been
735  * dumped.  An error status for the entire dump operation is provided when it
736  * is completed by calling dpif_port_dump_done().
737  *
738  * The dpif owns the data stored in 'port'.  It will remain valid until at
739  * least the next time 'dump' is passed to dpif_port_dump_next() or
740  * dpif_port_dump_done(). */
741 bool
742 dpif_port_dump_next(struct dpif_port_dump *dump, struct dpif_port *port)
743 {
744     const struct dpif *dpif = dump->dpif;
745
746     if (dump->error) {
747         return false;
748     }
749
750     dump->error = dpif->dpif_class->port_dump_next(dpif, dump->state, port);
751     if (dump->error == EOF) {
752         VLOG_DBG_RL(&dpmsg_rl, "%s: dumped all ports", dpif_name(dpif));
753     } else {
754         log_operation(dpif, "port_dump_next", dump->error);
755     }
756
757     if (dump->error) {
758         dpif->dpif_class->port_dump_done(dpif, dump->state);
759         return false;
760     }
761     return true;
762 }
763
764 /* Completes port table dump operation 'dump', which must have been initialized
765  * with dpif_port_dump_start().  Returns 0 if the dump operation was
766  * error-free, otherwise a positive errno value describing the problem. */
767 int
768 dpif_port_dump_done(struct dpif_port_dump *dump)
769 {
770     const struct dpif *dpif = dump->dpif;
771     if (!dump->error) {
772         dump->error = dpif->dpif_class->port_dump_done(dpif, dump->state);
773         log_operation(dpif, "port_dump_done", dump->error);
774     }
775     return dump->error == EOF ? 0 : dump->error;
776 }
777
778 /* Polls for changes in the set of ports in 'dpif'.  If the set of ports in
779  * 'dpif' has changed, this function does one of the following:
780  *
781  * - Stores the name of the device that was added to or deleted from 'dpif' in
782  *   '*devnamep' and returns 0.  The caller is responsible for freeing
783  *   '*devnamep' (with free()) when it no longer needs it.
784  *
785  * - Returns ENOBUFS and sets '*devnamep' to NULL.
786  *
787  * This function may also return 'false positives', where it returns 0 and
788  * '*devnamep' names a device that was not actually added or deleted or it
789  * returns ENOBUFS without any change.
790  *
791  * Returns EAGAIN if the set of ports in 'dpif' has not changed.  May also
792  * return other positive errno values to indicate that something has gone
793  * wrong. */
794 int
795 dpif_port_poll(const struct dpif *dpif, char **devnamep)
796 {
797     int error = dpif->dpif_class->port_poll(dpif, devnamep);
798     if (error) {
799         *devnamep = NULL;
800     }
801     return error;
802 }
803
804 /* Arranges for the poll loop to wake up when port_poll(dpif) will return a
805  * value other than EAGAIN. */
806 void
807 dpif_port_poll_wait(const struct dpif *dpif)
808 {
809     dpif->dpif_class->port_poll_wait(dpif);
810 }
811
812 /* Extracts the flow stats for a packet.  The 'flow' and 'packet'
813  * arguments must have been initialized through a call to flow_extract().
814  * 'used' is stored into stats->used. */
815 void
816 dpif_flow_stats_extract(const struct flow *flow, const struct dp_packet *packet,
817                         long long int used, struct dpif_flow_stats *stats)
818 {
819     stats->tcp_flags = ntohs(flow->tcp_flags);
820     stats->n_bytes = dp_packet_size(packet);
821     stats->n_packets = 1;
822     stats->used = used;
823 }
824
825 /* Appends a human-readable representation of 'stats' to 's'. */
826 void
827 dpif_flow_stats_format(const struct dpif_flow_stats *stats, struct ds *s)
828 {
829     ds_put_format(s, "packets:%"PRIu64", bytes:%"PRIu64", used:",
830                   stats->n_packets, stats->n_bytes);
831     if (stats->used) {
832         ds_put_format(s, "%.3fs", (time_msec() - stats->used) / 1000.0);
833     } else {
834         ds_put_format(s, "never");
835     }
836     if (stats->tcp_flags) {
837         ds_put_cstr(s, ", flags:");
838         packet_format_tcp_flags(s, stats->tcp_flags);
839     }
840 }
841
842 /* Places the hash of the 'key_len' bytes starting at 'key' into '*hash'. */
843 void
844 dpif_flow_hash(const struct dpif *dpif OVS_UNUSED,
845                const void *key, size_t key_len, ovs_u128 *hash)
846 {
847     static struct ovsthread_once once = OVSTHREAD_ONCE_INITIALIZER;
848     static uint32_t secret;
849
850     if (ovsthread_once_start(&once)) {
851         secret = random_uint32();
852         ovsthread_once_done(&once);
853     }
854     hash_bytes128(key, key_len, secret, hash);
855 }
856
857 /* Deletes all flows from 'dpif'.  Returns 0 if successful, otherwise a
858  * positive errno value.  */
859 int
860 dpif_flow_flush(struct dpif *dpif)
861 {
862     int error;
863
864     COVERAGE_INC(dpif_flow_flush);
865
866     error = dpif->dpif_class->flow_flush(dpif);
867     log_operation(dpif, "flow_flush", error);
868     return error;
869 }
870
871 /* Attempts to install 'key' into the datapath, fetches it, then deletes it.
872  * Returns true if the datapath supported installing 'flow', false otherwise.
873  */
874 bool
875 dpif_probe_feature(struct dpif *dpif, const char *name,
876                    const struct ofpbuf *key, const ovs_u128 *ufid)
877 {
878     struct dpif_flow flow;
879     struct ofpbuf reply;
880     uint64_t stub[DPIF_FLOW_BUFSIZE / 8];
881     bool enable_feature = false;
882     int error;
883
884     /* Use DPIF_FP_MODIFY to cover the case where ovs-vswitchd is killed (and
885      * restarted) at just the right time such that feature probes from the
886      * previous run are still present in the datapath. */
887     error = dpif_flow_put(dpif, DPIF_FP_CREATE | DPIF_FP_MODIFY | DPIF_FP_PROBE,
888                           key->data, key->size, NULL, 0, NULL, 0,
889                           ufid, PMD_ID_NULL, NULL);
890     if (error) {
891         if (error != EINVAL) {
892             VLOG_WARN("%s: %s flow probe failed (%s)",
893                       dpif_name(dpif), name, ovs_strerror(error));
894         }
895         return false;
896     }
897
898     ofpbuf_use_stack(&reply, &stub, sizeof stub);
899     error = dpif_flow_get(dpif, key->data, key->size, ufid,
900                           PMD_ID_NULL, &reply, &flow);
901     if (!error
902         && (!ufid || (flow.ufid_present && ovs_u128_equal(ufid, &flow.ufid)))) {
903         enable_feature = true;
904     }
905
906     error = dpif_flow_del(dpif, key->data, key->size, ufid,
907                           PMD_ID_NULL, NULL);
908     if (error) {
909         VLOG_WARN("%s: failed to delete %s feature probe flow",
910                   dpif_name(dpif), name);
911     }
912
913     return enable_feature;
914 }
915
916 /* A dpif_operate() wrapper for performing a single DPIF_OP_FLOW_GET. */
917 int
918 dpif_flow_get(struct dpif *dpif,
919               const struct nlattr *key, size_t key_len, const ovs_u128 *ufid,
920               const unsigned pmd_id, struct ofpbuf *buf, struct dpif_flow *flow)
921 {
922     struct dpif_op *opp;
923     struct dpif_op op;
924
925     op.type = DPIF_OP_FLOW_GET;
926     op.u.flow_get.key = key;
927     op.u.flow_get.key_len = key_len;
928     op.u.flow_get.ufid = ufid;
929     op.u.flow_get.pmd_id = pmd_id;
930     op.u.flow_get.buffer = buf;
931
932     memset(flow, 0, sizeof *flow);
933     op.u.flow_get.flow = flow;
934     op.u.flow_get.flow->key = key;
935     op.u.flow_get.flow->key_len = key_len;
936
937     opp = &op;
938     dpif_operate(dpif, &opp, 1);
939
940     return op.error;
941 }
942
943 /* A dpif_operate() wrapper for performing a single DPIF_OP_FLOW_PUT. */
944 int
945 dpif_flow_put(struct dpif *dpif, enum dpif_flow_put_flags flags,
946               const struct nlattr *key, size_t key_len,
947               const struct nlattr *mask, size_t mask_len,
948               const struct nlattr *actions, size_t actions_len,
949               const ovs_u128 *ufid, const unsigned pmd_id,
950               struct dpif_flow_stats *stats)
951 {
952     struct dpif_op *opp;
953     struct dpif_op op;
954
955     op.type = DPIF_OP_FLOW_PUT;
956     op.u.flow_put.flags = flags;
957     op.u.flow_put.key = key;
958     op.u.flow_put.key_len = key_len;
959     op.u.flow_put.mask = mask;
960     op.u.flow_put.mask_len = mask_len;
961     op.u.flow_put.actions = actions;
962     op.u.flow_put.actions_len = actions_len;
963     op.u.flow_put.ufid = ufid;
964     op.u.flow_put.pmd_id = pmd_id;
965     op.u.flow_put.stats = stats;
966
967     opp = &op;
968     dpif_operate(dpif, &opp, 1);
969
970     return op.error;
971 }
972
973 /* A dpif_operate() wrapper for performing a single DPIF_OP_FLOW_DEL. */
974 int
975 dpif_flow_del(struct dpif *dpif,
976               const struct nlattr *key, size_t key_len, const ovs_u128 *ufid,
977               const unsigned pmd_id, struct dpif_flow_stats *stats)
978 {
979     struct dpif_op *opp;
980     struct dpif_op op;
981
982     op.type = DPIF_OP_FLOW_DEL;
983     op.u.flow_del.key = key;
984     op.u.flow_del.key_len = key_len;
985     op.u.flow_del.ufid = ufid;
986     op.u.flow_del.pmd_id = pmd_id;
987     op.u.flow_del.stats = stats;
988     op.u.flow_del.terse = false;
989
990     opp = &op;
991     dpif_operate(dpif, &opp, 1);
992
993     return op.error;
994 }
995
996 /* Creates and returns a new 'struct dpif_flow_dump' for iterating through the
997  * flows in 'dpif'. If 'terse' is true, then only UFID and statistics will
998  * be returned in the dump. Otherwise, all fields will be returned.
999  *
1000  * This function always successfully returns a dpif_flow_dump.  Error
1001  * reporting is deferred to dpif_flow_dump_destroy(). */
1002 struct dpif_flow_dump *
1003 dpif_flow_dump_create(const struct dpif *dpif, bool terse)
1004 {
1005     return dpif->dpif_class->flow_dump_create(dpif, terse);
1006 }
1007
1008 /* Destroys 'dump', which must have been created with dpif_flow_dump_create().
1009  * All dpif_flow_dump_thread structures previously created for 'dump' must
1010  * previously have been destroyed.
1011  *
1012  * Returns 0 if the dump operation was error-free, otherwise a positive errno
1013  * value describing the problem. */
1014 int
1015 dpif_flow_dump_destroy(struct dpif_flow_dump *dump)
1016 {
1017     const struct dpif *dpif = dump->dpif;
1018     int error = dpif->dpif_class->flow_dump_destroy(dump);
1019     log_operation(dpif, "flow_dump_destroy", error);
1020     return error == EOF ? 0 : error;
1021 }
1022
1023 /* Returns new thread-local state for use with dpif_flow_dump_next(). */
1024 struct dpif_flow_dump_thread *
1025 dpif_flow_dump_thread_create(struct dpif_flow_dump *dump)
1026 {
1027     return dump->dpif->dpif_class->flow_dump_thread_create(dump);
1028 }
1029
1030 /* Releases 'thread'. */
1031 void
1032 dpif_flow_dump_thread_destroy(struct dpif_flow_dump_thread *thread)
1033 {
1034     thread->dpif->dpif_class->flow_dump_thread_destroy(thread);
1035 }
1036
1037 /* Attempts to retrieve up to 'max_flows' more flows from 'thread'.  Returns 0
1038  * if and only if no flows remained to be retrieved, otherwise a positive
1039  * number reflecting the number of elements in 'flows[]' that were updated.
1040  * The number of flows returned might be less than 'max_flows' because
1041  * fewer than 'max_flows' remained, because this particular datapath does not
1042  * benefit from batching, or because an error occurred partway through
1043  * retrieval.  Thus, the caller should continue calling until a 0 return value,
1044  * even if intermediate return values are less than 'max_flows'.
1045  *
1046  * No error status is immediately provided.  An error status for the entire
1047  * dump operation is provided when it is completed by calling
1048  * dpif_flow_dump_destroy().
1049  *
1050  * All of the data stored into 'flows' is owned by the datapath, not by the
1051  * caller, and the caller must not modify or free it.  The datapath guarantees
1052  * that it remains accessible and unchanged until the first of:
1053  *  - The next call to dpif_flow_dump_next() for 'thread', or
1054  *  - The next rcu quiescent period. */
1055 int
1056 dpif_flow_dump_next(struct dpif_flow_dump_thread *thread,
1057                     struct dpif_flow *flows, int max_flows)
1058 {
1059     struct dpif *dpif = thread->dpif;
1060     int n;
1061
1062     ovs_assert(max_flows > 0);
1063     n = dpif->dpif_class->flow_dump_next(thread, flows, max_flows);
1064     if (n > 0) {
1065         struct dpif_flow *f;
1066
1067         for (f = flows; f < &flows[n] && should_log_flow_message(0); f++) {
1068             log_flow_message(dpif, 0, "flow_dump",
1069                              f->key, f->key_len, f->mask, f->mask_len,
1070                              &f->ufid, &f->stats, f->actions, f->actions_len);
1071         }
1072     } else {
1073         VLOG_DBG_RL(&dpmsg_rl, "%s: dumped all flows", dpif_name(dpif));
1074     }
1075     return n;
1076 }
1077
1078 struct dpif_execute_helper_aux {
1079     struct dpif *dpif;
1080     int error;
1081 };
1082
1083 /* This is called for actions that need the context of the datapath to be
1084  * meaningful. */
1085 static void
1086 dpif_execute_helper_cb(void *aux_, struct dp_packet **packets, int cnt,
1087                        const struct nlattr *action, bool may_steal OVS_UNUSED)
1088 {
1089     struct dpif_execute_helper_aux *aux = aux_;
1090     int type = nl_attr_type(action);
1091     struct dp_packet *packet = *packets;
1092
1093     ovs_assert(cnt == 1);
1094
1095     switch ((enum ovs_action_attr)type) {
1096     case OVS_ACTION_ATTR_OUTPUT:
1097     case OVS_ACTION_ATTR_TUNNEL_PUSH:
1098     case OVS_ACTION_ATTR_TUNNEL_POP:
1099     case OVS_ACTION_ATTR_USERSPACE:
1100     case OVS_ACTION_ATTR_RECIRC: {
1101         struct dpif_execute execute;
1102         struct ofpbuf execute_actions;
1103         uint64_t stub[256 / 8];
1104         struct pkt_metadata *md = &packet->md;
1105
1106         if (md->tunnel.ip_dst) {
1107             /* The Linux kernel datapath throws away the tunnel information
1108              * that we supply as metadata.  We have to use a "set" action to
1109              * supply it. */
1110             ofpbuf_use_stub(&execute_actions, stub, sizeof stub);
1111             odp_put_tunnel_action(&md->tunnel, &execute_actions);
1112             ofpbuf_put(&execute_actions, action, NLA_ALIGN(action->nla_len));
1113
1114             execute.actions = execute_actions.data;
1115             execute.actions_len = execute_actions.size;
1116         } else {
1117             execute.actions = action;
1118             execute.actions_len = NLA_ALIGN(action->nla_len);
1119         }
1120
1121         execute.packet = packet;
1122         execute.needs_help = false;
1123         execute.probe = false;
1124         aux->error = dpif_execute(aux->dpif, &execute);
1125         log_execute_message(aux->dpif, &execute, true, aux->error);
1126
1127         if (md->tunnel.ip_dst) {
1128             ofpbuf_uninit(&execute_actions);
1129         }
1130         break;
1131     }
1132
1133     case OVS_ACTION_ATTR_HASH:
1134     case OVS_ACTION_ATTR_PUSH_VLAN:
1135     case OVS_ACTION_ATTR_POP_VLAN:
1136     case OVS_ACTION_ATTR_PUSH_MPLS:
1137     case OVS_ACTION_ATTR_POP_MPLS:
1138     case OVS_ACTION_ATTR_SET:
1139     case OVS_ACTION_ATTR_SET_MASKED:
1140     case OVS_ACTION_ATTR_SAMPLE:
1141     case OVS_ACTION_ATTR_UNSPEC:
1142     case __OVS_ACTION_ATTR_MAX:
1143         OVS_NOT_REACHED();
1144     }
1145 }
1146
1147 /* Executes 'execute' by performing most of the actions in userspace and
1148  * passing the fully constructed packets to 'dpif' for output and userspace
1149  * actions.
1150  *
1151  * This helps with actions that a given 'dpif' doesn't implement directly. */
1152 static int
1153 dpif_execute_with_help(struct dpif *dpif, struct dpif_execute *execute)
1154 {
1155     struct dpif_execute_helper_aux aux = {dpif, 0};
1156     struct dp_packet *pp;
1157
1158     COVERAGE_INC(dpif_execute_with_help);
1159
1160     pp = execute->packet;
1161     odp_execute_actions(&aux, &pp, 1, false, execute->actions,
1162                         execute->actions_len, dpif_execute_helper_cb);
1163     return aux.error;
1164 }
1165
1166 /* Returns true if the datapath needs help executing 'execute'. */
1167 static bool
1168 dpif_execute_needs_help(const struct dpif_execute *execute)
1169 {
1170     return execute->needs_help || nl_attr_oversized(execute->actions_len);
1171 }
1172
1173 /* A dpif_operate() wrapper for performing a single DPIF_OP_EXECUTE. */
1174 int
1175 dpif_execute(struct dpif *dpif, struct dpif_execute *execute)
1176 {
1177     if (execute->actions_len) {
1178         struct dpif_op *opp;
1179         struct dpif_op op;
1180
1181         op.type = DPIF_OP_EXECUTE;
1182         op.u.execute = *execute;
1183
1184         opp = &op;
1185         dpif_operate(dpif, &opp, 1);
1186
1187         return op.error;
1188     } else {
1189         return 0;
1190     }
1191 }
1192
1193 /* Executes each of the 'n_ops' operations in 'ops' on 'dpif', in the order in
1194  * which they are specified.  Places each operation's results in the "output"
1195  * members documented in comments, and 0 in the 'error' member on success or a
1196  * positive errno on failure. */
1197 void
1198 dpif_operate(struct dpif *dpif, struct dpif_op **ops, size_t n_ops)
1199 {
1200     while (n_ops > 0) {
1201         size_t chunk;
1202
1203         /* Count 'chunk', the number of ops that can be executed without
1204          * needing any help.  Ops that need help should be rare, so we
1205          * expect this to ordinarily be 'n_ops', that is, all the ops. */
1206         for (chunk = 0; chunk < n_ops; chunk++) {
1207             struct dpif_op *op = ops[chunk];
1208
1209             if (op->type == DPIF_OP_EXECUTE
1210                 && dpif_execute_needs_help(&op->u.execute)) {
1211                 break;
1212             }
1213         }
1214
1215         if (chunk) {
1216             /* Execute a chunk full of ops that the dpif provider can
1217              * handle itself, without help. */
1218             size_t i;
1219
1220             dpif->dpif_class->operate(dpif, ops, chunk);
1221
1222             for (i = 0; i < chunk; i++) {
1223                 struct dpif_op *op = ops[i];
1224                 int error = op->error;
1225
1226                 switch (op->type) {
1227                 case DPIF_OP_FLOW_PUT: {
1228                     struct dpif_flow_put *put = &op->u.flow_put;
1229
1230                     COVERAGE_INC(dpif_flow_put);
1231                     log_flow_put_message(dpif, put, error);
1232                     if (error && put->stats) {
1233                         memset(put->stats, 0, sizeof *put->stats);
1234                     }
1235                     break;
1236                 }
1237
1238                 case DPIF_OP_FLOW_GET: {
1239                     struct dpif_flow_get *get = &op->u.flow_get;
1240
1241                     COVERAGE_INC(dpif_flow_get);
1242                     if (error) {
1243                         memset(get->flow, 0, sizeof *get->flow);
1244                     }
1245                     log_flow_get_message(dpif, get, error);
1246
1247                     break;
1248                 }
1249
1250                 case DPIF_OP_FLOW_DEL: {
1251                     struct dpif_flow_del *del = &op->u.flow_del;
1252
1253                     COVERAGE_INC(dpif_flow_del);
1254                     log_flow_del_message(dpif, del, error);
1255                     if (error && del->stats) {
1256                         memset(del->stats, 0, sizeof *del->stats);
1257                     }
1258                     break;
1259                 }
1260
1261                 case DPIF_OP_EXECUTE:
1262                     COVERAGE_INC(dpif_execute);
1263                     log_execute_message(dpif, &op->u.execute, false, error);
1264                     break;
1265                 }
1266             }
1267
1268             ops += chunk;
1269             n_ops -= chunk;
1270         } else {
1271             /* Help the dpif provider to execute one op. */
1272             struct dpif_op *op = ops[0];
1273
1274             COVERAGE_INC(dpif_execute);
1275             op->error = dpif_execute_with_help(dpif, &op->u.execute);
1276             ops++;
1277             n_ops--;
1278         }
1279     }
1280 }
1281
1282 /* Returns a string that represents 'type', for use in log messages. */
1283 const char *
1284 dpif_upcall_type_to_string(enum dpif_upcall_type type)
1285 {
1286     switch (type) {
1287     case DPIF_UC_MISS: return "miss";
1288     case DPIF_UC_ACTION: return "action";
1289     case DPIF_N_UC_TYPES: default: return "<unknown>";
1290     }
1291 }
1292
1293 /* Enables or disables receiving packets with dpif_recv() on 'dpif'.  Returns 0
1294  * if successful, otherwise a positive errno value.
1295  *
1296  * Turning packet receive off and then back on may change the Netlink PID
1297  * assignments returned by dpif_port_get_pid().  If the client does this, it
1298  * must update all of the flows that have OVS_ACTION_ATTR_USERSPACE actions
1299  * using the new PID assignment. */
1300 int
1301 dpif_recv_set(struct dpif *dpif, bool enable)
1302 {
1303     int error = 0;
1304
1305     if (dpif->dpif_class->recv_set) {
1306         error = dpif->dpif_class->recv_set(dpif, enable);
1307         log_operation(dpif, "recv_set", error);
1308     }
1309     return error;
1310 }
1311
1312 /* Refreshes the poll loops and Netlink sockets associated to each port,
1313  * when the number of upcall handlers (upcall receiving thread) is changed
1314  * to 'n_handlers' and receiving packets for 'dpif' is enabled by
1315  * recv_set().
1316  *
1317  * Since multiple upcall handlers can read upcalls simultaneously from
1318  * 'dpif', each port can have multiple Netlink sockets, one per upcall
1319  * handler.  So, handlers_set() is responsible for the following tasks:
1320  *
1321  *    When receiving upcall is enabled, extends or creates the
1322  *    configuration to support:
1323  *
1324  *        - 'n_handlers' Netlink sockets for each port.
1325  *
1326  *        - 'n_handlers' poll loops, one for each upcall handler.
1327  *
1328  *        - registering the Netlink sockets for the same upcall handler to
1329  *          the corresponding poll loop.
1330  *
1331  * Returns 0 if successful, otherwise a positive errno value. */
1332 int
1333 dpif_handlers_set(struct dpif *dpif, uint32_t n_handlers)
1334 {
1335     int error = 0;
1336
1337     if (dpif->dpif_class->handlers_set) {
1338         error = dpif->dpif_class->handlers_set(dpif, n_handlers);
1339         log_operation(dpif, "handlers_set", error);
1340     }
1341     return error;
1342 }
1343
1344 void
1345 dpif_register_upcall_cb(struct dpif *dpif, upcall_callback *cb, void *aux)
1346 {
1347     if (dpif->dpif_class->register_upcall_cb) {
1348         dpif->dpif_class->register_upcall_cb(dpif, cb, aux);
1349     }
1350 }
1351
1352 void
1353 dpif_enable_upcall(struct dpif *dpif)
1354 {
1355     if (dpif->dpif_class->enable_upcall) {
1356         dpif->dpif_class->enable_upcall(dpif);
1357     }
1358 }
1359
1360 void
1361 dpif_disable_upcall(struct dpif *dpif)
1362 {
1363     if (dpif->dpif_class->disable_upcall) {
1364         dpif->dpif_class->disable_upcall(dpif);
1365     }
1366 }
1367
1368 void
1369 dpif_print_packet(struct dpif *dpif, struct dpif_upcall *upcall)
1370 {
1371     if (!VLOG_DROP_DBG(&dpmsg_rl)) {
1372         struct ds flow;
1373         char *packet;
1374
1375         packet = ofp_packet_to_string(dp_packet_data(&upcall->packet),
1376                                       dp_packet_size(&upcall->packet));
1377
1378         ds_init(&flow);
1379         odp_flow_key_format(upcall->key, upcall->key_len, &flow);
1380
1381         VLOG_DBG("%s: %s upcall:\n%s\n%s",
1382                  dpif_name(dpif), dpif_upcall_type_to_string(upcall->type),
1383                  ds_cstr(&flow), packet);
1384
1385         ds_destroy(&flow);
1386         free(packet);
1387     }
1388 }
1389
1390 /* If 'dpif' creates its own I/O polling threads, refreshes poll threads
1391  * configuration. */
1392 int
1393 dpif_poll_threads_set(struct dpif *dpif, unsigned int n_rxqs,
1394                       const char *cmask)
1395 {
1396     int error = 0;
1397
1398     if (dpif->dpif_class->poll_threads_set) {
1399         error = dpif->dpif_class->poll_threads_set(dpif, n_rxqs, cmask);
1400         if (error) {
1401             log_operation(dpif, "poll_threads_set", error);
1402         }
1403     }
1404
1405     return error;
1406 }
1407
1408 /* Polls for an upcall from 'dpif' for an upcall handler.  Since there
1409  * there can be multiple poll loops, 'handler_id' is needed as index to
1410  * identify the corresponding poll loop.  If successful, stores the upcall
1411  * into '*upcall', using 'buf' for storage.  Should only be called if
1412  * 'recv_set' has been used to enable receiving packets from 'dpif'.
1413  *
1414  * 'upcall->key' and 'upcall->userdata' point into data in the caller-provided
1415  * 'buf', so their memory cannot be freed separately from 'buf'.
1416  *
1417  * The caller owns the data of 'upcall->packet' and may modify it.  If
1418  * packet's headroom is exhausted as it is manipulated, 'upcall->packet'
1419  * will be reallocated.  This requires the data of 'upcall->packet' to be
1420  * released with ofpbuf_uninit() before 'upcall' is destroyed.  However,
1421  * when an error is returned, the 'upcall->packet' may be uninitialized
1422  * and should not be released.
1423  *
1424  * Returns 0 if successful, otherwise a positive errno value.  Returns EAGAIN
1425  * if no upcall is immediately available. */
1426 int
1427 dpif_recv(struct dpif *dpif, uint32_t handler_id, struct dpif_upcall *upcall,
1428           struct ofpbuf *buf)
1429 {
1430     int error = EAGAIN;
1431
1432     if (dpif->dpif_class->recv) {
1433         error = dpif->dpif_class->recv(dpif, handler_id, upcall, buf);
1434         if (!error) {
1435             dpif_print_packet(dpif, upcall);
1436         } else if (error != EAGAIN) {
1437             log_operation(dpif, "recv", error);
1438         }
1439     }
1440     return error;
1441 }
1442
1443 /* Discards all messages that would otherwise be received by dpif_recv() on
1444  * 'dpif'. */
1445 void
1446 dpif_recv_purge(struct dpif *dpif)
1447 {
1448     COVERAGE_INC(dpif_purge);
1449     if (dpif->dpif_class->recv_purge) {
1450         dpif->dpif_class->recv_purge(dpif);
1451     }
1452 }
1453
1454 /* Arranges for the poll loop for an upcall handler to wake up when 'dpif'
1455  * 'dpif' has a message queued to be received with the recv member
1456  * function.  Since there can be multiple poll loops, 'handler_id' is
1457  * needed as index to identify the corresponding poll loop. */
1458 void
1459 dpif_recv_wait(struct dpif *dpif, uint32_t handler_id)
1460 {
1461     if (dpif->dpif_class->recv_wait) {
1462         dpif->dpif_class->recv_wait(dpif, handler_id);
1463     }
1464 }
1465
1466 /*
1467  * Return the datapath version. Caller is responsible for freeing
1468  * the string.
1469  */
1470 char *
1471 dpif_get_dp_version(const struct dpif *dpif)
1472 {
1473     char *version = NULL;
1474
1475     if (dpif->dpif_class->get_datapath_version) {
1476         version = dpif->dpif_class->get_datapath_version();
1477     }
1478
1479     return version;
1480 }
1481
1482 /* Obtains the NetFlow engine type and engine ID for 'dpif' into '*engine_type'
1483  * and '*engine_id', respectively. */
1484 void
1485 dpif_get_netflow_ids(const struct dpif *dpif,
1486                      uint8_t *engine_type, uint8_t *engine_id)
1487 {
1488     *engine_type = dpif->netflow_engine_type;
1489     *engine_id = dpif->netflow_engine_id;
1490 }
1491
1492 /* Translates OpenFlow queue ID 'queue_id' (in host byte order) into a priority
1493  * value used for setting packet priority.
1494  * On success, returns 0 and stores the priority into '*priority'.
1495  * On failure, returns a positive errno value and stores 0 into '*priority'. */
1496 int
1497 dpif_queue_to_priority(const struct dpif *dpif, uint32_t queue_id,
1498                        uint32_t *priority)
1499 {
1500     int error = (dpif->dpif_class->queue_to_priority
1501                  ? dpif->dpif_class->queue_to_priority(dpif, queue_id,
1502                                                        priority)
1503                  : EOPNOTSUPP);
1504     if (error) {
1505         *priority = 0;
1506     }
1507     log_operation(dpif, "queue_to_priority", error);
1508     return error;
1509 }
1510 \f
1511 void
1512 dpif_init(struct dpif *dpif, const struct dpif_class *dpif_class,
1513           const char *name,
1514           uint8_t netflow_engine_type, uint8_t netflow_engine_id)
1515 {
1516     dpif->dpif_class = dpif_class;
1517     dpif->base_name = xstrdup(name);
1518     dpif->full_name = xasprintf("%s@%s", dpif_class->type, name);
1519     dpif->netflow_engine_type = netflow_engine_type;
1520     dpif->netflow_engine_id = netflow_engine_id;
1521 }
1522
1523 /* Undoes the results of initialization.
1524  *
1525  * Normally this function only needs to be called from dpif_close().
1526  * However, it may be called by providers due to an error on opening
1527  * that occurs after initialization.  It this case dpif_close() would
1528  * never be called. */
1529 void
1530 dpif_uninit(struct dpif *dpif, bool close)
1531 {
1532     char *base_name = dpif->base_name;
1533     char *full_name = dpif->full_name;
1534
1535     if (close) {
1536         dpif->dpif_class->close(dpif);
1537     }
1538
1539     free(base_name);
1540     free(full_name);
1541 }
1542 \f
1543 static void
1544 log_operation(const struct dpif *dpif, const char *operation, int error)
1545 {
1546     if (!error) {
1547         VLOG_DBG_RL(&dpmsg_rl, "%s: %s success", dpif_name(dpif), operation);
1548     } else if (ofperr_is_valid(error)) {
1549         VLOG_WARN_RL(&error_rl, "%s: %s failed (%s)",
1550                      dpif_name(dpif), operation, ofperr_get_name(error));
1551     } else {
1552         VLOG_WARN_RL(&error_rl, "%s: %s failed (%s)",
1553                      dpif_name(dpif), operation, ovs_strerror(error));
1554     }
1555 }
1556
1557 static enum vlog_level
1558 flow_message_log_level(int error)
1559 {
1560     /* If flows arrive in a batch, userspace may push down multiple
1561      * unique flow definitions that overlap when wildcards are applied.
1562      * Kernels that support flow wildcarding will reject these flows as
1563      * duplicates (EEXIST), so lower the log level to debug for these
1564      * types of messages. */
1565     return (error && error != EEXIST) ? VLL_WARN : VLL_DBG;
1566 }
1567
1568 static bool
1569 should_log_flow_message(int error)
1570 {
1571     return !vlog_should_drop(THIS_MODULE, flow_message_log_level(error),
1572                              error ? &error_rl : &dpmsg_rl);
1573 }
1574
1575 static void
1576 log_flow_message(const struct dpif *dpif, int error, const char *operation,
1577                  const struct nlattr *key, size_t key_len,
1578                  const struct nlattr *mask, size_t mask_len,
1579                  const ovs_u128 *ufid, const struct dpif_flow_stats *stats,
1580                  const struct nlattr *actions, size_t actions_len)
1581 {
1582     struct ds ds = DS_EMPTY_INITIALIZER;
1583     ds_put_format(&ds, "%s: ", dpif_name(dpif));
1584     if (error) {
1585         ds_put_cstr(&ds, "failed to ");
1586     }
1587     ds_put_format(&ds, "%s ", operation);
1588     if (error) {
1589         ds_put_format(&ds, "(%s) ", ovs_strerror(error));
1590     }
1591     if (ufid) {
1592         odp_format_ufid(ufid, &ds);
1593         ds_put_cstr(&ds, " ");
1594     }
1595     odp_flow_format(key, key_len, mask, mask_len, NULL, &ds, true);
1596     if (stats) {
1597         ds_put_cstr(&ds, ", ");
1598         dpif_flow_stats_format(stats, &ds);
1599     }
1600     if (actions || actions_len) {
1601         ds_put_cstr(&ds, ", actions:");
1602         format_odp_actions(&ds, actions, actions_len);
1603     }
1604     vlog(THIS_MODULE, flow_message_log_level(error), "%s", ds_cstr(&ds));
1605     ds_destroy(&ds);
1606 }
1607
1608 static void
1609 log_flow_put_message(struct dpif *dpif, const struct dpif_flow_put *put,
1610                      int error)
1611 {
1612     if (should_log_flow_message(error) && !(put->flags & DPIF_FP_PROBE)) {
1613         struct ds s;
1614
1615         ds_init(&s);
1616         ds_put_cstr(&s, "put");
1617         if (put->flags & DPIF_FP_CREATE) {
1618             ds_put_cstr(&s, "[create]");
1619         }
1620         if (put->flags & DPIF_FP_MODIFY) {
1621             ds_put_cstr(&s, "[modify]");
1622         }
1623         if (put->flags & DPIF_FP_ZERO_STATS) {
1624             ds_put_cstr(&s, "[zero]");
1625         }
1626         log_flow_message(dpif, error, ds_cstr(&s),
1627                          put->key, put->key_len, put->mask, put->mask_len,
1628                          put->ufid, put->stats, put->actions,
1629                          put->actions_len);
1630         ds_destroy(&s);
1631     }
1632 }
1633
1634 static void
1635 log_flow_del_message(struct dpif *dpif, const struct dpif_flow_del *del,
1636                      int error)
1637 {
1638     if (should_log_flow_message(error)) {
1639         log_flow_message(dpif, error, "flow_del", del->key, del->key_len,
1640                          NULL, 0, del->ufid, !error ? del->stats : NULL,
1641                          NULL, 0);
1642     }
1643 }
1644
1645 /* Logs that 'execute' was executed on 'dpif' and completed with errno 'error'
1646  * (0 for success).  'subexecute' should be true if the execution is a result
1647  * of breaking down a larger execution that needed help, false otherwise.
1648  *
1649  *
1650  * XXX In theory, the log message could be deceptive because this function is
1651  * called after the dpif_provider's '->execute' function, which is allowed to
1652  * modify execute->packet and execute->md.  In practice, though:
1653  *
1654  *     - dpif-netlink doesn't modify execute->packet or execute->md.
1655  *
1656  *     - dpif-netdev does modify them but it is less likely to have problems
1657  *       because it is built into ovs-vswitchd and cannot have version skew,
1658  *       etc.
1659  *
1660  * It would still be better to avoid the potential problem.  I don't know of a
1661  * good way to do that, though, that isn't expensive. */
1662 static void
1663 log_execute_message(struct dpif *dpif, const struct dpif_execute *execute,
1664                     bool subexecute, int error)
1665 {
1666     if (!(error ? VLOG_DROP_WARN(&error_rl) : VLOG_DROP_DBG(&dpmsg_rl))
1667         && !execute->probe) {
1668         struct ds ds = DS_EMPTY_INITIALIZER;
1669         char *packet;
1670
1671         packet = ofp_packet_to_string(dp_packet_data(execute->packet),
1672                                       dp_packet_size(execute->packet));
1673         ds_put_format(&ds, "%s: %sexecute ",
1674                       dpif_name(dpif),
1675                       (subexecute ? "sub-"
1676                        : dpif_execute_needs_help(execute) ? "super-"
1677                        : ""));
1678         format_odp_actions(&ds, execute->actions, execute->actions_len);
1679         if (error) {
1680             ds_put_format(&ds, " failed (%s)", ovs_strerror(error));
1681         }
1682         ds_put_format(&ds, " on packet %s", packet);
1683         vlog(THIS_MODULE, error ? VLL_WARN : VLL_DBG, "%s", ds_cstr(&ds));
1684         ds_destroy(&ds);
1685         free(packet);
1686     }
1687 }
1688
1689 static void
1690 log_flow_get_message(const struct dpif *dpif, const struct dpif_flow_get *get,
1691                      int error)
1692 {
1693     if (should_log_flow_message(error)) {
1694         log_flow_message(dpif, error, "flow_get",
1695                          get->key, get->key_len,
1696                          get->flow->mask, get->flow->mask_len,
1697                          get->ufid, &get->flow->stats,
1698                          get->flow->actions, get->flow->actions_len);
1699     }
1700 }
1701
1702 bool
1703 dpif_supports_tnl_push_pop(const struct dpif *dpif)
1704 {
1705    return !strcmp(dpif->dpif_class->type, "netdev") ||
1706           !strcmp(dpif->dpif_class->type, "dummy");
1707 }