net/mlx4_en: Do not allocate redundant TX queues when TC is disabled
authorInbar Karmy <inbark@mellanox.com>
Thu, 29 Jun 2017 11:07:57 +0000 (14:07 +0300)
committerDavid S. Miller <davem@davemloft.net>
Thu, 29 Jun 2017 19:56:15 +0000 (15:56 -0400)
Currently the number of TX queues that are allocated doesn't depend
on the number of TCs, the module always loads with max num of UP
per channel.
In order to prevent the allocation of unnecessary memory, the
module will load with minimum number of UPs per channel, and the
user will be able to control the number of TX queues per channel
by changing the number of TC to 8 using the tc command.
The variable num_up will hold the information about the current
number of UPs.
Due to the change, needed to remove the lines that set the value of
UP to be different than zero in the func "mlx4_en_select_queue",
since now the num of TX queues that are allocated is only one per channel
in default.
In order not to force the UP to be zero in case of only one TC, added
a condition before forcing it in the func "mlx4_en_fill_qp_context".

Tested:
After the module is loaded with minimum number of UP per channel, to
increase num of TCs to 8, use:
tc qdisc add dev ens8 root mqprio num_tc 8
In order to decrease the number of TCs to minimum number of UP per channel,
use:
tc qdisc del dev ens8 root

Signed-off-by: Inbar Karmy <inbark@mellanox.com>
Signed-off-by: Tariq Toukan <tariqt@mellanox.com>
Cc: Tarick Bedeir <tarick@google.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/mellanox/mlx4/en_dcb_nl.c
drivers/net/ethernet/mellanox/mlx4/en_ethtool.c
drivers/net/ethernet/mellanox/mlx4/en_main.c
drivers/net/ethernet/mellanox/mlx4/en_netdev.c
drivers/net/ethernet/mellanox/mlx4/en_resources.c
drivers/net/ethernet/mellanox/mlx4/en_tx.c
drivers/net/ethernet/mellanox/mlx4/mlx4_en.h

index 91481f117daab271c13a75111fb30da1f550e12b..5f41dc92aa6848aafd3e3a4b7a735ad33da984dd 100644 (file)
@@ -238,7 +238,7 @@ static u8 mlx4_en_dcbnl_set_state(struct net_device *dev, u8 state)
                priv->flags &= ~MLX4_EN_FLAG_DCB_ENABLED;
        }
 
-       if (mlx4_en_setup_tc(dev, num_tcs))
+       if (mlx4_en_alloc_tx_queue_per_tc(dev, num_tcs))
                return 1;
 
        return 0;
@@ -303,7 +303,7 @@ static int mlx4_en_ets_validate(struct mlx4_en_priv *priv, struct ieee_ets *ets)
        int has_ets_tc = 0;
 
        for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
-               if (ets->prio_tc[i] >= priv->prof->num_up) {
+               if (ets->prio_tc[i] >= MLX4_EN_NUM_UP_HIGH) {
                        en_err(priv, "Bad priority in UP <=> TC mapping. TC: %d, UP: %d\n",
                                        i, ets->prio_tc[i]);
                        return -EINVAL;
@@ -472,7 +472,7 @@ static u8 mlx4_en_dcbnl_setdcbx(struct net_device *dev, u8 mode)
                        goto err;
                if (mlx4_en_dcbnl_ieee_setpfc(dev, &pfc))
                        goto err;
-               if (mlx4_en_setup_tc(dev, 0))
+               if (mlx4_en_alloc_tx_queue_per_tc(dev, 0))
                        goto err;
        }
 
index 2b80a4a9945c923cfa8e539cec7da5b220b9977b..c751a1d434ad7167e6b65a62f46b7295044860f8 100644 (file)
@@ -1764,6 +1764,7 @@ static int mlx4_en_set_channels(struct net_device *dev,
        int port_up = 0;
        int xdp_count;
        int err = 0;
+       u8 up;
 
        if (!channel->tx_count || !channel->rx_count)
                return -EINVAL;
@@ -1801,11 +1802,11 @@ static int mlx4_en_set_channels(struct net_device *dev,
 
        mlx4_en_safe_replace_resources(priv, tmp);
 
-       netif_set_real_num_tx_queues(dev, priv->tx_ring_num[TX]);
        netif_set_real_num_rx_queues(dev, priv->rx_ring_num);
 
-       if (netdev_get_num_tc(dev))
-               mlx4_en_setup_tc(dev, priv->prof->num_up);
+       up = (priv->prof->num_up == MLX4_EN_NUM_UP_LOW) ?
+                                   0 : priv->prof->num_up;
+       mlx4_en_setup_tc(dev, up);
 
        en_warn(priv, "Using %d TX rings\n", priv->tx_ring_num[TX]);
        en_warn(priv, "Using %d RX rings\n", priv->rx_ring_num);
index a8eb856b015882ccd02b6c24788ab9ba228a9803..2b0cbca4beb5f6bf97804b593ce1a493365adba6 100644 (file)
@@ -169,7 +169,8 @@ static int mlx4_en_get_profile(struct mlx4_en_dev *mdev)
                params->prof[i].tx_ppp = pfctx;
                params->prof[i].tx_ring_size = MLX4_EN_DEF_TX_RING_SIZE;
                params->prof[i].rx_ring_size = MLX4_EN_DEF_RX_RING_SIZE;
-               params->prof[i].num_up = MLX4_EN_NUM_UP_HIGH;
+               params->prof[i].num_up = MLX4_EN_NUM_UP_LOW;
+               params->prof[i].num_tx_rings_p_up = params->num_tx_rings_p_up;
                params->prof[i].tx_ring_num[TX] = params->num_tx_rings_p_up *
                        params->prof[i].num_up;
                params->prof[i].rss_rings = 0;
index e7f654623eab6c7ce242a488a72c85a7986d8b0e..3a291fc1780ab9193d7202be106f36ca8854b258 100644 (file)
@@ -64,7 +64,7 @@ int mlx4_en_setup_tc(struct net_device *dev, u8 up)
                return -EINVAL;
 
        netdev_set_num_tc(dev, up);
-
+       netif_set_real_num_tx_queues(dev, priv->tx_ring_num[TX]);
        /* Partition Tx queues evenly amongst UP's */
        for (i = 0; i < up; i++) {
                netdev_set_tc_queue(dev, i, priv->num_tx_rings_p_up, offset);
@@ -86,6 +86,50 @@ int mlx4_en_setup_tc(struct net_device *dev, u8 up)
        return 0;
 }
 
+int mlx4_en_alloc_tx_queue_per_tc(struct net_device *dev, u8 tc)
+{
+       struct mlx4_en_priv *priv = netdev_priv(dev);
+       struct mlx4_en_dev *mdev = priv->mdev;
+       struct mlx4_en_port_profile new_prof;
+       struct mlx4_en_priv *tmp;
+       int port_up = 0;
+       int err = 0;
+
+       tmp = kzalloc(sizeof(*tmp), GFP_KERNEL);
+       if (!tmp)
+               return -ENOMEM;
+
+       mutex_lock(&mdev->state_lock);
+       memcpy(&new_prof, priv->prof, sizeof(struct mlx4_en_port_profile));
+       new_prof.num_up = (tc == 0) ? MLX4_EN_NUM_UP_LOW :
+                                     MLX4_EN_NUM_UP_HIGH;
+       new_prof.tx_ring_num[TX] = new_prof.num_tx_rings_p_up *
+                                  new_prof.num_up;
+       err = mlx4_en_try_alloc_resources(priv, tmp, &new_prof, true);
+       if (err)
+               goto out;
+
+       if (priv->port_up) {
+               port_up = 1;
+               mlx4_en_stop_port(dev, 1);
+       }
+
+       mlx4_en_safe_replace_resources(priv, tmp);
+       if (port_up) {
+               err = mlx4_en_start_port(dev);
+               if (err) {
+                       en_err(priv, "Failed starting port for setup TC\n");
+                       goto out;
+               }
+       }
+
+       err = mlx4_en_setup_tc(dev, tc);
+out:
+       mutex_unlock(&mdev->state_lock);
+       kfree(tmp);
+       return err;
+}
+
 static int __mlx4_en_setup_tc(struct net_device *dev, u32 handle,
                              u32 chain_index, __be16 proto,
                              struct tc_to_netdev *tc)
@@ -93,9 +137,12 @@ static int __mlx4_en_setup_tc(struct net_device *dev, u32 handle,
        if (tc->type != TC_SETUP_MQPRIO)
                return -EINVAL;
 
+       if (tc->mqprio->num_tc && tc->mqprio->num_tc != MLX4_EN_NUM_UP_HIGH)
+               return -EINVAL;
+
        tc->mqprio->hw = TC_MQPRIO_HW_OFFLOAD_TCS;
 
-       return mlx4_en_setup_tc(dev, tc->mqprio->num_tc);
+       return mlx4_en_alloc_tx_queue_per_tc(dev, tc->mqprio->num_tc);
 }
 
 #ifdef CONFIG_RFS_ACCEL
@@ -2144,7 +2191,7 @@ static int mlx4_en_copy_priv(struct mlx4_en_priv *dst,
 
        memcpy(&dst->hwtstamp_config, &prof->hwtstamp_config,
               sizeof(dst->hwtstamp_config));
-       dst->num_tx_rings_p_up = src->mdev->profile.num_tx_rings_p_up;
+       dst->num_tx_rings_p_up = prof->num_tx_rings_p_up;
        dst->rx_ring_num = prof->rx_ring_num;
        dst->flags = prof->flags;
        dst->mdev = src->mdev;
@@ -2197,6 +2244,7 @@ static void mlx4_en_update_priv(struct mlx4_en_priv *dst,
                dst->tx_ring[t] = src->tx_ring[t];
                dst->tx_cq[t] = src->tx_cq[t];
        }
+       dst->num_tx_rings_p_up = src->num_tx_rings_p_up;
        dst->rx_ring_num = src->rx_ring_num;
        memcpy(dst->prof, src->prof, sizeof(struct mlx4_en_port_profile));
 }
index a6b0db0e038373348fcbe05d6490fcb35bb3c7fb..86d2d42d658de422b241c617adb8d107c51a1b0b 100644 (file)
@@ -63,7 +63,8 @@ void mlx4_en_fill_qp_context(struct mlx4_en_priv *priv, int size, int stride,
        context->local_qpn = cpu_to_be32(qpn);
        context->pri_path.ackto = 1 & 0x07;
        context->pri_path.sched_queue = 0x83 | (priv->port - 1) << 6;
-       if (user_prio >= 0) {
+       /* force user priority per tx ring */
+       if (user_prio >= 0 && priv->prof->num_up == MLX4_EN_NUM_UP_HIGH) {
                context->pri_path.sched_queue |= user_prio << 3;
                context->pri_path.feup = MLX4_FEUP_FORCE_ETH_UP;
        }
index 7d69d939ee2dceb09ce3b9b06c5db11875f3c525..4f3a9b27ce4ad647a8a932001f5b2e16e3525b92 100644 (file)
@@ -691,15 +691,11 @@ u16 mlx4_en_select_queue(struct net_device *dev, struct sk_buff *skb,
 {
        struct mlx4_en_priv *priv = netdev_priv(dev);
        u16 rings_p_up = priv->num_tx_rings_p_up;
-       u8 up = 0;
 
        if (netdev_get_num_tc(dev))
                return skb_tx_hash(dev, skb);
 
-       if (skb_vlan_tag_present(skb))
-               up = skb_vlan_tag_get(skb) >> VLAN_PRIO_SHIFT;
-
-       return fallback(dev, skb) % rings_p_up + up * rings_p_up;
+       return fallback(dev, skb) % rings_p_up;
 }
 
 static void mlx4_bf_copy(void __iomem *dst, const void *src,
index 89885281d489050a3746e1db9f96391418bdd9b2..d350b2158104e933921a986c7ca84c2e634e1498 100644 (file)
 #define MLX4_EN_SMALL_PKT_SIZE         64
 #define MLX4_EN_MIN_TX_RING_P_UP       1
 #define MLX4_EN_MAX_TX_RING_P_UP       32
+#define MLX4_EN_NUM_UP_LOW             1
 #define MLX4_EN_NUM_UP_HIGH            8
 #define MLX4_EN_DEF_RX_RING_SIZE       1024
 #define MLX4_EN_DEF_TX_RING_SIZE       MLX4_EN_DEF_RX_RING_SIZE
@@ -762,6 +763,7 @@ extern const struct dcbnl_rtnl_ops mlx4_en_dcbnl_pfc_ops;
 #endif
 
 int mlx4_en_setup_tc(struct net_device *dev, u8 up);
+int mlx4_en_alloc_tx_queue_per_tc(struct net_device *dev, u8 tc);
 
 #ifdef CONFIG_RFS_ACCEL
 void mlx4_en_cleanup_filters(struct mlx4_en_priv *priv);