netdev-dpdk: fix mbuf leaks
[cascardo/ovs.git] / lib / ovs-rcu.h
1 /*
2  * Copyright (c) 2014, 2015, 2016 Nicira, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef OVS_RCU_H
18 #define OVS_RCU_H 1
19
20 /* Read-Copy-Update (RCU)
21  * ======================
22  *
23  * Introduction
24  * ------------
25  *
26  * Atomic pointer access makes it pretty easy to implement lock-free
27  * algorithms.  There is one big problem, though: when a writer updates a
28  * pointer to point to a new data structure, some thread might be reading the
29  * old version, and there's no convenient way to free the old version when all
30  * threads are done with the old version.
31  *
32  * The function ovsrcu_postpone() solves that problem.  The function pointer
33  * passed in as its argument is called only after all threads are done with old
34  * versions of data structures.  The function callback frees an old version of
35  * data no longer in use.  This technique is called "read-copy-update", or RCU
36  * for short.
37  *
38  *
39  * Details
40  * -------
41  *
42  * A "quiescent state" is a time at which a thread holds no pointers to memory
43  * that is managed by RCU; that is, when the thread is known not to reference
44  * memory that might be an old version of some object freed via RCU.  For
45  * example, poll_block() includes a quiescent state, as does
46  * ovs_mutex_cond_wait().
47  *
48  * The following functions manage the recognition of quiescent states:
49  *
50  *     void ovsrcu_quiesce(void)
51  *
52  *         Recognizes a momentary quiescent state in the current thread.
53  *
54  *     void ovsrcu_quiesce_start(void)
55  *     void ovsrcu_quiesce_end(void)
56  *
57  *         Brackets a time period during which the current thread is quiescent.
58  *
59  * A newly created thread is initially active, not quiescent.
60  *
61  * When a quiescient state has occurred in every thread, we say that a "grace
62  * period" has occurred.  Following a grace period, all of the callbacks
63  * postponed before the start of the grace period MAY be invoked.  OVS takes
64  * care of this automatically through the RCU mechanism: while a process still
65  * has only a single thread, it invokes the postponed callbacks directly from
66  * ovsrcu_quiesce() and ovsrcu_quiesce_start(); after additional threads have
67  * been created, it creates an extra helper thread to invoke callbacks.
68  *
69  * Please note that while a postponed function call is guaranteed to happen
70  * after the next time all participating threads have quiesced at least once,
71  * there is no quarantee that all postponed functions are called as early as
72  * possible, or that the functions postponed by different threads would be
73  * called in the order the registrations took place.  In particular, even if
74  * two threads provably postpone a function each in a specific order, the
75  * postponed functions may still be called in the opposite order, depending on
76  * the timing of when the threads call ovsrcu_quiesce(), how many functions
77  * they postpone, and when the ovs-rcu thread happens to grab the functions to
78  * be called.
79  *
80  * All functions postponed by a single thread are guaranteed to execute in the
81  * order they were postponed, however.
82  *
83  * Usage
84  * -----
85  *
86  * Use OVSRCU_TYPE(TYPE) to declare a pointer to RCU-protected data, e.g. the
87  * following declares an RCU-protected "struct flow *" named flowp:
88  *
89  *     OVSRCU_TYPE(struct flow *) flowp;
90  *
91  * Use ovsrcu_get(TYPE, VAR) to read an RCU-protected pointer, e.g. to read the
92  * pointer variable declared above:
93  *
94  *     struct flow *flow = ovsrcu_get(struct flow *, &flowp);
95  *
96  * If the pointer variable is currently protected against change (because
97  * the current thread holds a mutex that protects it), ovsrcu_get_protected()
98  * may be used instead.  Only on the Alpha architecture is this likely to
99  * generate different code, but it may be useful documentation.
100  *
101  * (With GNU C or Clang, you get a compiler error if TYPE is wrong; other
102  * compilers will merrily carry along accepting the wrong type.)
103  *
104  * Use ovsrcu_set() to write an RCU-protected pointer and ovsrcu_postpone() to
105  * free the previous data.  ovsrcu_set_hidden() can be used on RCU protected
106  * data not visible to any readers yet, but will be made visible by a later
107  * ovsrcu_set().   ovsrcu_init() can be used to initialize RCU pointers when
108  * no readers are yet executing.  If more than one thread can write the
109  * pointer, then some form of external synchronization, e.g. a mutex, is
110  * needed to prevent writers from interfering with one another.  For example,
111  * to write the pointer variable declared above while safely freeing the old
112  * value:
113  *
114  *     static struct ovs_mutex mutex = OVS_MUTEX_INITIALIZER;
115  *
116  *     OVSRCU_TYPE(struct flow *) flowp;
117  *
118  *     void
119  *     change_flow(struct flow *new_flow)
120  *     {
121  *         ovs_mutex_lock(&mutex);
122  *         ovsrcu_postpone(free,
123  *                         ovsrcu_get_protected(struct flow *, &flowp));
124  *         ovsrcu_set(&flowp, new_flow);
125  *         ovs_mutex_unlock(&mutex);
126  *     }
127  *
128  */
129
130 #include "compiler.h"
131 #include "ovs-atomic.h"
132
133 #if __GNUC__
134 #define OVSRCU_TYPE(TYPE) struct { ATOMIC(TYPE) p; }
135 #define OVSRCU_INITIALIZER(VALUE) { ATOMIC_VAR_INIT(VALUE) }
136 #define ovsrcu_get__(TYPE, VAR, ORDER)                                  \
137     ({                                                                  \
138         TYPE value__;                                                   \
139         typeof(VAR) ovsrcu_var = (VAR);                                 \
140                                                                         \
141         atomic_read_explicit(CONST_CAST(ATOMIC(TYPE) *, &ovsrcu_var->p), \
142                              &value__, ORDER);                          \
143                                                                         \
144         value__;                                                        \
145     })
146 #define ovsrcu_get(TYPE, VAR) \
147     ovsrcu_get__(TYPE, VAR, memory_order_consume)
148 #define ovsrcu_get_protected(TYPE, VAR) \
149     ovsrcu_get__(TYPE, VAR, memory_order_relaxed)
150
151 /* 'VALUE' may be an atomic operation, which must be evaluated before
152  * any of the body of the atomic_store_explicit.  Since the type of
153  * 'VAR' is not fixed, we cannot use an inline function to get
154  * function semantics for this. */
155 #define ovsrcu_set__(VAR, VALUE, ORDER)                                 \
156     ({                                                                  \
157         typeof(VAR) ovsrcu_var = (VAR);                                 \
158         typeof(VALUE) ovsrcu_value = (VALUE);                           \
159         memory_order ovsrcu_order = (ORDER);                            \
160                                                                         \
161         atomic_store_explicit(&ovsrcu_var->p, ovsrcu_value, ovsrcu_order); \
162         (void *) 0;                                                     \
163     })
164 #else  /* not GNU C */
165 struct ovsrcu_pointer { ATOMIC(void *) p; };
166 #define OVSRCU_TYPE(TYPE) struct ovsrcu_pointer
167 #define OVSRCU_INITIALIZER(VALUE) { ATOMIC_VAR_INIT(VALUE) }
168 static inline void *
169 ovsrcu_get__(const struct ovsrcu_pointer *pointer, memory_order order)
170 {
171     void *value;
172     atomic_read_explicit(&CONST_CAST(struct ovsrcu_pointer *, pointer)->p,
173                          &value, order);
174     return value;
175 }
176 #define ovsrcu_get(TYPE, VAR) \
177     CONST_CAST(TYPE, ovsrcu_get__(VAR, memory_order_consume))
178 #define ovsrcu_get_protected(TYPE, VAR) \
179     CONST_CAST(TYPE, ovsrcu_get__(VAR, memory_order_relaxed))
180
181 static inline void ovsrcu_set__(struct ovsrcu_pointer *pointer,
182                                 const void *value,
183                                 memory_order order)
184 {
185     atomic_store_explicit(&pointer->p, CONST_CAST(void *, value), order);
186 }
187 #endif
188
189 /* Writes VALUE to the RCU-protected pointer whose address is VAR.
190  *
191  * Users require external synchronization (e.g. a mutex).  See "Usage" above
192  * for an example. */
193 #define ovsrcu_set(VAR, VALUE) \
194     ovsrcu_set__(VAR, VALUE, memory_order_release)
195
196 /* This can be used for initializing RCU pointers before any readers can
197  * see them.  A later ovsrcu_set() needs to make the bigger structure this
198  * is part of visible to the readers. */
199 #define ovsrcu_set_hidden(VAR, VALUE) \
200     ovsrcu_set__(VAR, VALUE, memory_order_relaxed)
201
202 /* This can be used for initializing RCU pointers before any readers are
203  * executing. */
204 #define ovsrcu_init(VAR, VALUE) atomic_init(&(VAR)->p, VALUE)
205
206 /* Calls FUNCTION passing ARG as its pointer-type argument following the next
207  * grace period.  See "Usage" above for an example. */
208 void ovsrcu_postpone__(void (*function)(void *aux), void *aux);
209 #define ovsrcu_postpone(FUNCTION, ARG)                          \
210     (/* Verify that ARG is appropriate for FUNCTION. */         \
211      (void) sizeof((FUNCTION)(ARG), 1),                         \
212      /* Verify that ARG is a pointer type. */                   \
213      (void) sizeof(*(ARG)),                                     \
214      ovsrcu_postpone__((void (*)(void *))(FUNCTION), ARG))
215
216 /* Quiescent states. */
217 void ovsrcu_quiesce_start(void);
218 void ovsrcu_quiesce_end(void);
219 void ovsrcu_quiesce(void);
220 bool ovsrcu_is_quiescent(void);
221
222 /* Synchronization.  Waits for all non-quiescent threads to quiesce at least
223  * once.  This can block for a relatively long time. */
224 void ovsrcu_synchronize(void);
225
226 #endif /* ovs-rcu.h */