ixgbe: deleting dfwd stations out of order can cause null ptr deref
authorJohn Fastabend <john.fastabend@gmail.com>
Fri, 8 Nov 2013 08:51:10 +0000 (00:51 -0800)
committerDavid S. Miller <davem@davemloft.net>
Fri, 8 Nov 2013 20:21:08 +0000 (15:21 -0500)
The number of stations in use is kept in the num_rx_pools counter
in the ixgbe_adapter structure. This is in turn used by the queue
allocation scheme to determine how many queues are needed to support
the number of pools in use with the current feature set.

This works as long as the pools are added and destroyed in order
because (num_rx_pools * queues_per_pool) is equal to the last
queue in use by a pool. But as soon as you delete a pool out of
order this is no longer the case. So the above multiplication
allocates to few queues and a pool may reference a ring that has
not been allocated/initialized.

To resolve use the bit mask of in use pools to determine the final
pool being used and allocate enough queues so that we don't
inadvertently remove its queues.

# ip link add link eth2 \
numtxqueues 4 numrxqueues 4 txqueuelen 50 type macvlan
# ip link set dev macvlan0 up
# ip link add link eth2 \
numtxqueues 4 numrxqueues 4 txqueuelen 50 type macvlan
# ip link set dev macvlan1 up
# for i in {0..100}; do
  ip link set dev macvlan0 down; ip link set dev macvlan0 up;
  done;

Signed-off-by: John Fastabend <john.r.fastabend@intel.com>
Acked-by: Neil Horman <nhorman@tuxdriver.com>
Acked-by: Jeff Kirsher <jeffrey.t.kirsher@intel.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/intel/ixgbe/ixgbe_main.c

index 2e17c307c6df80fdff12548cec3a5f6199f5a2b7..ec1bf3edb063588373867fd040bc0286c6a4df33 100644 (file)
@@ -7536,6 +7536,7 @@ static void *ixgbe_fwd_add(struct net_device *pdev, struct net_device *vdev)
 {
        struct ixgbe_fwd_adapter *fwd_adapter = NULL;
        struct ixgbe_adapter *adapter = netdev_priv(pdev);
+       unsigned int limit;
        int pool, err;
 
 #ifdef CONFIG_RPS
@@ -7566,10 +7567,11 @@ static void *ixgbe_fwd_add(struct net_device *pdev, struct net_device *vdev)
        pool = find_first_zero_bit(&adapter->fwd_bitmask, 32);
        adapter->num_rx_pools++;
        set_bit(pool, &adapter->fwd_bitmask);
+       limit = find_last_bit(&adapter->fwd_bitmask, 32);
 
        /* Enable VMDq flag so device will be set in VM mode */
        adapter->flags |= IXGBE_FLAG_VMDQ_ENABLED | IXGBE_FLAG_SRIOV_ENABLED;
-       adapter->ring_feature[RING_F_VMDQ].limit = adapter->num_rx_pools;
+       adapter->ring_feature[RING_F_VMDQ].limit = limit + 1;
        adapter->ring_feature[RING_F_RSS].limit = vdev->num_tx_queues;
 
        /* Force reinit of ring allocation with VMDQ enabled */
@@ -7597,11 +7599,13 @@ static void ixgbe_fwd_del(struct net_device *pdev, void *priv)
 {
        struct ixgbe_fwd_adapter *fwd_adapter = priv;
        struct ixgbe_adapter *adapter = fwd_adapter->real_adapter;
+       unsigned int limit;
 
        clear_bit(fwd_adapter->pool, &adapter->fwd_bitmask);
        adapter->num_rx_pools--;
 
-       adapter->ring_feature[RING_F_VMDQ].limit = adapter->num_rx_pools;
+       limit = find_last_bit(&adapter->fwd_bitmask, 32);
+       adapter->ring_feature[RING_F_VMDQ].limit = limit + 1;
        ixgbe_fwd_ring_down(fwd_adapter->netdev, fwd_adapter);
        ixgbe_setup_tc(pdev, netdev_get_num_tc(pdev));
        netdev_dbg(pdev, "pool %i:%i queues %i:%i VSI bitmask %lx\n",