dataoath: compat: Do not use upstream fill-meta-data function for compat tunnel
[cascardo/ovs.git] / datapath / linux / compat / include / linux / netdevice.h
index 8d24cd9..00eaa21 100644 (file)
 #define __LINUX_NETDEVICE_WRAPPER_H 1
 
 #include_next <linux/netdevice.h>
+#include <linux/if_bridge.h>
 
 struct net;
 
 #include <linux/version.h>
-/* Before 2.6.21, struct net_device has a "struct class_device" member named
- * class_dev.  Beginning with 2.6.21, struct net_device instead has a "struct
- * device" member named dev.  Otherwise the usage of these members is pretty
- * much the same. */
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,21)
-#define NETDEV_DEV_MEMBER class_dev
+
+#ifndef IFF_TX_SKB_SHARING
+#define IFF_TX_SKB_SHARING 0
+#endif
+
+#ifndef IFF_OVS_DATAPATH
+#define IFF_OVS_DATAPATH 0
 #else
-#define NETDEV_DEV_MEMBER dev
+#define HAVE_OVS_DATAPATH
+#endif
+
+#ifndef IFF_LIVE_ADDR_CHANGE
+#define IFF_LIVE_ADDR_CHANGE 0
+#endif
+
+#ifndef IFF_NO_QUEUE
+#define IFF_NO_QUEUE   0
+#endif
+#ifndef IFF_OPENVSWITCH
+#define IFF_OPENVSWITCH 0
 #endif
 
 #ifndef to_net_dev
 #define to_net_dev(class) container_of(class, struct net_device, NETDEV_DEV_MEMBER)
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,26)
-static inline
-struct net *dev_net(const struct net_device *dev)
-{
-#ifdef CONFIG_NET_NS
-       return dev->nd_net;
-#elif LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,25)
-       return &init_net;
-#else
-       return NULL;
+#ifndef HAVE_NET_NAME_UNKNOWN
+#undef alloc_netdev
+#define NET_NAME_UNKNOWN 0
+#define alloc_netdev(sizeof_priv, name, name_assign_type, setup) \
+        alloc_netdev_mq(sizeof_priv, name, setup, 1)
 #endif
-}
 
-static inline
-void dev_net_set(struct net_device *dev, const struct net *net)
-{
-#ifdef CONFIG_NET_NS
-       dev->nd_dev = net;
+#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,33)
+#define unregister_netdevice_queue(dev, head)  unregister_netdevice(dev)
+#define unregister_netdevice_many(head)
 #endif
-}
-#endif /* linux kernel < 2.6.26 */
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,24)
-#define NETIF_F_NETNS_LOCAL 0
+#ifndef HAVE_DEV_DISABLE_LRO
+extern void dev_disable_lro(struct net_device *dev);
 #endif
 
-#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,24)
-#define proc_net init_net.proc_net
+#ifndef HAVE_DEV_GET_BY_INDEX_RCU
+static inline struct net_device *dev_get_by_index_rcu(struct net *net, int ifindex)
+{
+       struct net_device *dev;
+
+       read_lock(&dev_base_lock);
+       dev = __dev_get_by_index(net, ifindex);
+       read_unlock(&dev_base_lock);
+
+       return dev;
+}
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,32)
-typedef int netdev_tx_t;
+#ifndef NETIF_F_FSO
+#define NETIF_F_FSO 0
 #endif
 
-#ifndef for_each_netdev
-/* Linux before 2.6.22 didn't have for_each_netdev at all. */
-#define for_each_netdev(net, d) for (d = dev_base; d; d = d->next)
-#elif LINUX_VERSION_CODE < KERNEL_VERSION(2,6,24)
-/* Linux 2.6.24 added a network namespace pointer to the macro. */
-#undef for_each_netdev
-#define for_each_netdev(net,d) list_for_each_entry(d, &dev_base_head, dev_list)
+#ifndef HAVE_NETDEV_FEATURES_T
+typedef u32 netdev_features_t;
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,20)
-#define net_xmit_eval(e)       ((e) == NET_XMIT_CN? 0 : (e))
+#if LINUX_VERSION_CODE < KERNEL_VERSION(3,19,0)
+#define OVS_USE_COMPAT_GSO_SEGMENTATION
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,33)
-extern void unregister_netdevice_queue(struct net_device *dev,
-                                       struct list_head *head);
-extern void unregister_netdevice_many(struct list_head *head);
+#ifdef OVS_USE_COMPAT_GSO_SEGMENTATION
+/* define compat version to handle MPLS segmentation offload. */
+#define __skb_gso_segment rpl__skb_gso_segment
+struct sk_buff *rpl__skb_gso_segment(struct sk_buff *skb,
+                                   netdev_features_t features,
+                                   bool tx_path);
+
+#define skb_gso_segment rpl_skb_gso_segment
+static inline
+struct sk_buff *rpl_skb_gso_segment(struct sk_buff *skb, netdev_features_t features)
+{
+        return rpl__skb_gso_segment(skb, features, true);
+}
 #endif
 
-#ifndef HAVE_DEV_DISABLE_LRO
-extern void dev_disable_lro(struct net_device *dev);
+#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,38)
+#define netif_skb_features rpl_netif_skb_features
+netdev_features_t rpl_netif_skb_features(struct sk_buff *skb);
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,19)
-#define skb_checksum_help(skb) skb_checksum_help((skb), 0)
+#ifdef HAVE_NETIF_NEEDS_GSO_NETDEV
+#define netif_needs_gso rpl_netif_needs_gso
+static inline bool netif_needs_gso(struct sk_buff *skb,
+                                  netdev_features_t features)
+{
+       return skb_is_gso(skb) && (!skb_gso_ok(skb, features) ||
+               unlikely((skb->ip_summed != CHECKSUM_PARTIAL) &&
+                        (skb->ip_summed != CHECKSUM_UNNECESSARY)));
+}
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,36)
-static inline int netdev_rx_handler_register(struct net_device *dev,
-                                            void *rx_handler,
-                                            void *rx_handler_data)
+#if LINUX_VERSION_CODE < KERNEL_VERSION(3,9,0)
+
+/* XEN dom0 networking assumes dev->master is bond device
+ * and it tries to access bond private structure from dev->master
+ * ptr on receive path. This causes panic. Therefore it is better
+ * not to backport this API.
+ **/
+static inline int netdev_master_upper_dev_link(struct net_device *dev,
+                                              struct net_device *upper_dev)
 {
-       if (dev->br_port)
-               return -EBUSY;
-       rcu_assign_pointer(dev->br_port, rx_handler_data);
        return 0;
 }
-static inline void netdev_rx_handler_unregister(struct net_device *dev)
+
+static inline void netdev_upper_dev_unlink(struct net_device *dev,
+                                          struct net_device *upper_dev)
+{
+}
+
+static inline struct net_device *netdev_master_upper_dev_get(struct net_device *dev)
+{
+       return NULL;
+}
+#endif
+
+#if LINUX_VERSION_CODE < KERNEL_VERSION(3,16,0)
+#define dev_queue_xmit rpl_dev_queue_xmit
+int rpl_dev_queue_xmit(struct sk_buff *skb);
+#endif
+
+#if LINUX_VERSION_CODE < KERNEL_VERSION(3,11,0)
+static inline struct net_device *netdev_notifier_info_to_dev(void *info)
 {
-       rcu_assign_pointer(dev->br_port, NULL);
+       return info;
 }
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,19)
-#undef SET_ETHTOOL_OPS
-#define SET_ETHTOOL_OPS(netdev, ops) \
-       ( (netdev)->ethtool_ops = (struct ethtool_ops *)(ops) )
+#ifndef HAVE_PCPU_SW_NETSTATS
+#define pcpu_sw_netstats pcpu_tstats
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,24)
-#define dev_get_by_name(net, name) dev_get_by_name(name)
-#define dev_get_by_index(net, ifindex) dev_get_by_index(ifindex)
-#define __dev_get_by_name(net, name) __dev_get_by_name(name)
-#define __dev_get_by_index(net, ifindex) __dev_get_by_index(ifindex)
-#define dev_get_by_index_rcu(net, ifindex) dev_get_by_index_rcu(ifindex)
+#if RHEL_RELEASE_CODE < RHEL_RELEASE_VERSION(8,0)
+/* Use compat version for all redhas releases */
+#undef netdev_alloc_pcpu_stats
 #endif
 
-#ifndef HAVE_DEV_GET_BY_INDEX_RCU
-static inline struct net_device *dev_get_by_index_rcu(struct net *net, int ifindex)
+#ifndef netdev_alloc_pcpu_stats
+#define netdev_alloc_pcpu_stats(type)                          \
+({                                                             \
+       typeof(type) __percpu *pcpu_stats = alloc_percpu(type); \
+       if (pcpu_stats) {                                       \
+               int ____i;                                      \
+               for_each_possible_cpu(____i) {                  \
+                       typeof(type) *stat;                     \
+                       stat = per_cpu_ptr(pcpu_stats, ____i);  \
+                       u64_stats_init(&stat->syncp);           \
+               }                                               \
+       }                                                       \
+       pcpu_stats;                                             \
+})
+#endif
+
+#ifndef HAVE_DEV_RECURSION_LEVEL
+static inline bool dev_recursion_level(void) { return false; }
+#endif
+
+#ifndef NET_NAME_USER
+#define NET_NAME_USER 3
+#endif
+
+#ifndef HAVE_GRO_REMCSUM
+struct gro_remcsum {
+};
+
+#define skb_gro_remcsum_init(grc)
+#define skb_gro_remcsum_cleanup(a1, a2)
+#else
+#if LINUX_VERSION_CODE < KERNEL_VERSION(4,3,0)
+
+#define skb_gro_remcsum_process rpl_skb_gro_remcsum_process
+static inline void *skb_gro_remcsum_process(struct sk_buff *skb, void *ptr,
+                                           unsigned int off, size_t hdrlen,
+                                           int start, int offset,
+                                           struct gro_remcsum *grc,
+                                           bool nopartial)
 {
-       struct net_device *dev;
+       __wsum delta;
+       size_t plen = hdrlen + max_t(size_t, offset + sizeof(u16), start);
 
-       read_lock(&dev_base_lock);
-       dev = __dev_get_by_index(net, ifindex);
-       read_unlock(&dev_base_lock);
+       BUG_ON(!NAPI_GRO_CB(skb)->csum_valid);
 
-       return dev;
+       if (!nopartial) {
+               NAPI_GRO_CB(skb)->gro_remcsum_start = off + hdrlen + start;
+               return ptr;
+       }
+
+       ptr = skb_gro_header_fast(skb, off);
+       if (skb_gro_header_hard(skb, off + plen)) {
+               ptr = skb_gro_header_slow(skb, off + plen, off);
+               if (!ptr)
+                       return NULL;
+       }
+
+       delta = remcsum_adjust(ptr + hdrlen, NAPI_GRO_CB(skb)->csum,
+                              start, offset);
+
+       /* Adjust skb->csum since we changed the packet */
+       NAPI_GRO_CB(skb)->csum = csum_add(NAPI_GRO_CB(skb)->csum, delta);
+
+       grc->offset = off + hdrlen + offset;
+       grc->delta = delta;
+
+       return ptr;
 }
 #endif
+#endif
 
-#ifndef NETIF_F_FSO
-#define NETIF_F_FSO 0
+#ifndef HAVE_RTNL_LINK_STATS64
+#define dev_get_stats rpl_dev_get_stats
+struct rtnl_link_stats64 *rpl_dev_get_stats(struct net_device *dev,
+                                       struct rtnl_link_stats64 *storage);
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,30)
-#define NETIF_F_FCOE_CRC       (1 << 24) /* FCoE CRC32 */
+#if RHEL_RELEASE_CODE < RHEL_RELEASE_VERSION(7,0)
+/* Only required on RHEL 6. */
+#define dev_get_stats dev_get_stats64
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,23)
-#define NETIF_F_IPV6_CSUM      16      /* Can checksum TCP/UDP over IPV6 */
+#ifndef netdev_dbg
+#define netdev_dbg(__dev, format, args...)                     \
+do {                                                           \
+       printk(KERN_DEBUG "%s ", __dev->name);                  \
+       printk(KERN_DEBUG format, ##args);                      \
+} while (0)
+#endif
+
+#ifndef netdev_info
+#define netdev_info(__dev, format, args...)                    \
+do {                                                           \
+       printk(KERN_INFO "%s ", __dev->name);                   \
+       printk(KERN_INFO format, ##args);                       \
+} while (0)
 
-#define NETIF_F_V4_CSUM                (NETIF_F_GEN_CSUM | NETIF_F_IP_CSUM)
-#define NETIF_F_V6_CSUM                (NETIF_F_GEN_CSUM | NETIF_F_IPV6_CSUM)
 #endif
 
-#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,38)
-#define skb_gso_segment rpl_skb_gso_segment
-struct sk_buff *rpl_skb_gso_segment(struct sk_buff *skb, u32 features);
+#ifndef USE_UPSTREAM_TUNNEL
+#define dev_fill_metadata_dst ovs_dev_fill_metadata_dst
+int ovs_dev_fill_metadata_dst(struct net_device *dev, struct sk_buff *skb);
+#endif
 
-#define netif_skb_features rpl_netif_skb_features
-u32 rpl_netif_skb_features(struct sk_buff *skb);
+#ifndef NETDEV_OFFLOAD_PUSH_VXLAN
+#define NETDEV_OFFLOAD_PUSH_VXLAN       0x001C
+#endif
 
-#define netif_needs_gso rpl_netif_needs_gso
-static inline int rpl_netif_needs_gso(struct sk_buff *skb, int features)
+#ifndef NETDEV_OFFLOAD_PUSH_GENEVE
+#define NETDEV_OFFLOAD_PUSH_GENEVE      0x001D
+#endif
+
+#ifndef HAVE_IFF_PHONY_HEADROOM
+
+#define IFF_PHONY_HEADROOM 0
+static inline unsigned netdev_get_fwd_headroom(struct net_device *dev)
+{
+       return 0;
+}
+
+static inline void netdev_set_rx_headroom(struct net_device *dev, int new_hr)
 {
-        return skb_is_gso(skb) && (!skb_gso_ok(skb, features) ||
-                unlikely(skb->ip_summed != CHECKSUM_PARTIAL));
 }
+
+/* set the device rx headroom to the dev's default */
+static inline void netdev_reset_rx_headroom(struct net_device *dev)
+{
+}
+
 #endif
 
+#ifdef IFF_NO_QUEUE
+#define HAVE_IFF_NO_QUEUE
+#else
+#define IFF_NO_QUEUE 0
 #endif
+
+#endif /* __LINUX_NETDEVICE_WRAPPER_H */