]> asedeno.scripts.mit.edu Git - linux.git/commitdiff
net: stmmac: Use correct values in TQS/RQS fields
authorJose Abreu <Jose.Abreu@synopsys.com>
Fri, 13 Oct 2017 09:58:36 +0000 (10:58 +0100)
committerDavid S. Miller <davem@davemloft.net>
Sat, 14 Oct 2017 18:12:07 +0000 (11:12 -0700)
Currently we are using all the available fifo size in RQS and
TQS fields. This will not work correctly in multi-queues IP's
because total fifo size must be splitted to the enabled queues.

Correct this by computing the available fifo size per queue and
setting the right value in TQS and RQS fields.

Signed-off-by: Jose Abreu <joabreu@synopsys.com>
Cc: David S. Miller <davem@davemloft.net>
Cc: Joao Pinto <jpinto@synopsys.com>
Cc: Giuseppe Cavallaro <peppe.cavallaro@st.com>
Cc: Alexandre Torgue <alexandre.torgue@st.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/stmicro/stmmac/common.h
drivers/net/ethernet/stmicro/stmmac/dwmac4_dma.c
drivers/net/ethernet/stmicro/stmmac/stmmac_main.c

index e82b4b70b7be3a4154c688daef01d4ea3918458c..c26c8a7f957f50e5c14cef9dd4a7d4a745b09f88 100644 (file)
@@ -443,7 +443,8 @@ struct stmmac_dma_ops {
                         int rxfifosz);
        void (*dma_rx_mode)(void __iomem *ioaddr, int mode, u32 channel,
                            int fifosz);
-       void (*dma_tx_mode)(void __iomem *ioaddr, int mode, u32 channel);
+       void (*dma_tx_mode)(void __iomem *ioaddr, int mode, u32 channel,
+                           int fifosz);
        /* To track extra statistic (if supported) */
        void (*dma_diagnostic_fr) (void *data, struct stmmac_extra_stats *x,
                                   void __iomem *ioaddr);
index e84831e1b63b3bda07b3f2a4e29262f1e38da303..898849bbc7d4420765a1cbe36d3abddae92285cf 100644 (file)
@@ -271,9 +271,10 @@ static void dwmac4_dma_rx_chan_op_mode(void __iomem *ioaddr, int mode,
 }
 
 static void dwmac4_dma_tx_chan_op_mode(void __iomem *ioaddr, int mode,
-                                      u32 channel)
+                                      u32 channel, int fifosz)
 {
        u32 mtl_tx_op = readl(ioaddr + MTL_CHAN_TX_OP_MODE(channel));
+       unsigned int tqs = fifosz / 256 - 1;
 
        if (mode == SF_DMA_MODE) {
                pr_debug("GMAC: enable TX store and forward mode\n");
@@ -306,12 +307,14 @@ static void dwmac4_dma_tx_chan_op_mode(void __iomem *ioaddr, int mode,
         * For an IP with DWC_EQOS_NUM_TXQ > 1, the fields TXQEN and TQS are R/W
         * with reset values: TXQEN off, TQS 256 bytes.
         *
-        * Write the bits in both cases, since it will have no effect when RO.
-        * For DWC_EQOS_NUM_TXQ > 1, the top bits in MTL_OP_MODE_TQS_MASK might
-        * be RO, however, writing the whole TQS field will result in a value
-        * equal to DWC_EQOS_TXFIFO_SIZE, just like for DWC_EQOS_NUM_TXQ == 1.
+        * TXQEN must be written for multi-channel operation and TQS must
+        * reflect the available fifo size per queue (total fifo size / number
+        * of enabled queues).
         */
-       mtl_tx_op |= MTL_OP_MODE_TXQEN | MTL_OP_MODE_TQS_MASK;
+       mtl_tx_op |= MTL_OP_MODE_TXQEN;
+       mtl_tx_op &= ~MTL_OP_MODE_TQS_MASK;
+       mtl_tx_op |= tqs << MTL_OP_MODE_TQS_SHIFT;
+
        writel(mtl_tx_op, ioaddr +  MTL_CHAN_TX_OP_MODE(channel));
 }
 
index f41661a04f23765b509aa777b320cd31c557aa67..edf245b8bce32ba5a0f747b4b049991d10ee6b56 100644 (file)
@@ -1750,12 +1750,19 @@ static void stmmac_dma_operation_mode(struct stmmac_priv *priv)
        u32 rx_channels_count = priv->plat->rx_queues_to_use;
        u32 tx_channels_count = priv->plat->tx_queues_to_use;
        int rxfifosz = priv->plat->rx_fifo_size;
+       int txfifosz = priv->plat->tx_fifo_size;
        u32 txmode = 0;
        u32 rxmode = 0;
        u32 chan = 0;
 
        if (rxfifosz == 0)
                rxfifosz = priv->dma_cap.rx_fifo_size;
+       if (txfifosz == 0)
+               txfifosz = priv->dma_cap.tx_fifo_size;
+
+       /* Adjust for real per queue fifo size */
+       rxfifosz /= rx_channels_count;
+       txfifosz /= tx_channels_count;
 
        if (priv->plat->force_thresh_dma_mode) {
                txmode = tc;
@@ -1783,7 +1790,8 @@ static void stmmac_dma_operation_mode(struct stmmac_priv *priv)
                                                   rxfifosz);
 
                for (chan = 0; chan < tx_channels_count; chan++)
-                       priv->hw->dma->dma_tx_mode(priv->ioaddr, txmode, chan);
+                       priv->hw->dma->dma_tx_mode(priv->ioaddr, txmode, chan,
+                                                  txfifosz);
        } else {
                priv->hw->dma->dma_mode(priv->ioaddr, txmode, rxmode,
                                        rxfifosz);
@@ -1946,15 +1954,25 @@ static void stmmac_tx_err(struct stmmac_priv *priv, u32 chan)
 static void stmmac_set_dma_operation_mode(struct stmmac_priv *priv, u32 txmode,
                                          u32 rxmode, u32 chan)
 {
+       u32 rx_channels_count = priv->plat->rx_queues_to_use;
+       u32 tx_channels_count = priv->plat->tx_queues_to_use;
        int rxfifosz = priv->plat->rx_fifo_size;
+       int txfifosz = priv->plat->tx_fifo_size;
 
        if (rxfifosz == 0)
                rxfifosz = priv->dma_cap.rx_fifo_size;
+       if (txfifosz == 0)
+               txfifosz = priv->dma_cap.tx_fifo_size;
+
+       /* Adjust for real per queue fifo size */
+       rxfifosz /= rx_channels_count;
+       txfifosz /= tx_channels_count;
 
        if (priv->synopsys_id >= DWMAC_CORE_4_00) {
                priv->hw->dma->dma_rx_mode(priv->ioaddr, rxmode, chan,
                                           rxfifosz);
-               priv->hw->dma->dma_tx_mode(priv->ioaddr, txmode, chan);
+               priv->hw->dma->dma_tx_mode(priv->ioaddr, txmode, chan,
+                                          txfifosz);
        } else {
                priv->hw->dma->dma_mode(priv->ioaddr, txmode, rxmode,
                                        rxfifosz);