]> asedeno.scripts.mit.edu Git - linux.git/commitdiff
octeontx2-af: Add mbox API to validate all responses
authorSunil Goutham <sgoutham@marvell.com>
Thu, 14 Nov 2019 05:26:23 +0000 (10:56 +0530)
committerDavid S. Miller <davem@davemloft.net>
Fri, 15 Nov 2019 02:09:15 +0000 (18:09 -0800)
Added a new mailbox API which goes through all responses
to check their IDs and response codes.

Also added logic to prevent queuing multiple works to
process the same mailbox message. This scenario happens
when AF is processing a PF's request and menawhile PF
sends ACK to AF sent UP message, then mbox_hdr->num_msgs
in the PF->AF DOWN mbox region will be nonzero and AF
will end up processing PF's request again. This is fixed
by taking a backup of num_msgs counter and clearing the
same in the mbox region before scheduling work.

Signed-off-by: Subbaraya Sundeep <sbhatta@marvell.com>
Signed-off-by: Sunil Goutham <sgoutham@marvell.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/marvell/octeontx2/af/mbox.c
drivers/net/ethernet/marvell/octeontx2/af/mbox.h
drivers/net/ethernet/marvell/octeontx2/af/rvu.c
drivers/net/ethernet/marvell/octeontx2/af/rvu.h

index d6f9ed8ea966ce7fb035c47c8c0d4007830d878a..81c83d27a4248012bd6d9e75d35e390576948915 100644 (file)
@@ -236,8 +236,10 @@ struct mbox_msghdr *otx2_mbox_get_rsp(struct otx2_mbox *mbox, int devid,
        struct otx2_mbox_dev *mdev = &mbox->dev[devid];
        u16 msgs;
 
+       spin_lock(&mdev->mbox_lock);
+
        if (mdev->num_msgs != mdev->msgs_acked)
-               return ERR_PTR(-ENODEV);
+               goto error;
 
        for (msgs = 0; msgs < mdev->msgs_acked; msgs++) {
                struct mbox_msghdr *pmsg = mdev->mbase + imsg;
@@ -245,18 +247,55 @@ struct mbox_msghdr *otx2_mbox_get_rsp(struct otx2_mbox *mbox, int devid,
 
                if (msg == pmsg) {
                        if (pmsg->id != prsp->id)
-                               return ERR_PTR(-ENODEV);
+                               goto error;
+                       spin_unlock(&mdev->mbox_lock);
                        return prsp;
                }
 
-               imsg = pmsg->next_msgoff;
-               irsp = prsp->next_msgoff;
+               imsg = mbox->tx_start + pmsg->next_msgoff;
+               irsp = mbox->rx_start + prsp->next_msgoff;
        }
 
+error:
+       spin_unlock(&mdev->mbox_lock);
        return ERR_PTR(-ENODEV);
 }
 EXPORT_SYMBOL(otx2_mbox_get_rsp);
 
+int otx2_mbox_check_rsp_msgs(struct otx2_mbox *mbox, int devid)
+{
+       unsigned long ireq = mbox->tx_start + msgs_offset;
+       unsigned long irsp = mbox->rx_start + msgs_offset;
+       struct otx2_mbox_dev *mdev = &mbox->dev[devid];
+       int rc = -ENODEV;
+       u16 msgs;
+
+       spin_lock(&mdev->mbox_lock);
+
+       if (mdev->num_msgs != mdev->msgs_acked)
+               goto exit;
+
+       for (msgs = 0; msgs < mdev->msgs_acked; msgs++) {
+               struct mbox_msghdr *preq = mdev->mbase + ireq;
+               struct mbox_msghdr *prsp = mdev->mbase + irsp;
+
+               if (preq->id != prsp->id)
+                       goto exit;
+               if (prsp->rc) {
+                       rc = prsp->rc;
+                       goto exit;
+               }
+
+               ireq = mbox->tx_start + preq->next_msgoff;
+               irsp = mbox->rx_start + prsp->next_msgoff;
+       }
+       rc = 0;
+exit:
+       spin_unlock(&mdev->mbox_lock);
+       return rc;
+}
+EXPORT_SYMBOL(otx2_mbox_check_rsp_msgs);
+
 int
 otx2_reply_invalid_msg(struct otx2_mbox *mbox, int devid, u16 pcifunc, u16 id)
 {
index 76a4575d18ff28779a7d998b5b7d35566fede9ea..25f0e6f7fb39feb08e01e9832535b05ac8dec476 100644 (file)
@@ -103,6 +103,7 @@ struct mbox_msghdr *otx2_mbox_alloc_msg_rsp(struct otx2_mbox *mbox, int devid,
                                            int size, int size_rsp);
 struct mbox_msghdr *otx2_mbox_get_rsp(struct otx2_mbox *mbox, int devid,
                                      struct mbox_msghdr *msg);
+int otx2_mbox_check_rsp_msgs(struct otx2_mbox *mbox, int devid);
 int otx2_reply_invalid_msg(struct otx2_mbox *mbox, int devid,
                           u16 pcifunc, u16 id);
 bool otx2_mbox_nonempty(struct otx2_mbox *mbox, int devid);
index cf8741db15497bd1b53791bbefdf0ceb5ce48598..f5e6acaa865e4e1dab68b1f7ba80baea66e2a755 100644 (file)
@@ -1440,12 +1440,12 @@ static void __rvu_mbox_handler(struct rvu_work *mwork, int type)
 
        /* Process received mbox messages */
        req_hdr = mdev->mbase + mbox->rx_start;
-       if (req_hdr->num_msgs == 0)
+       if (mw->mbox_wrk[devid].num_msgs == 0)
                return;
 
        offset = mbox->rx_start + ALIGN(sizeof(*req_hdr), MBOX_MSG_ALIGN);
 
-       for (id = 0; id < req_hdr->num_msgs; id++) {
+       for (id = 0; id < mw->mbox_wrk[devid].num_msgs; id++) {
                msg = mdev->mbase + offset;
 
                /* Set which PF/VF sent this message based on mbox IRQ */
@@ -1471,13 +1471,14 @@ static void __rvu_mbox_handler(struct rvu_work *mwork, int type)
                if (msg->pcifunc & RVU_PFVF_FUNC_MASK)
                        dev_warn(rvu->dev, "Error %d when processing message %s (0x%x) from PF%d:VF%d\n",
                                 err, otx2_mbox_id2name(msg->id),
-                                msg->id, devid,
+                                msg->id, rvu_get_pf(msg->pcifunc),
                                 (msg->pcifunc & RVU_PFVF_FUNC_MASK) - 1);
                else
                        dev_warn(rvu->dev, "Error %d when processing message %s (0x%x) from PF%d\n",
                                 err, otx2_mbox_id2name(msg->id),
                                 msg->id, devid);
        }
+       mw->mbox_wrk[devid].num_msgs = 0;
 
        /* Send mbox responses to VF/PF */
        otx2_mbox_msg_send(mbox, devid);
@@ -1523,14 +1524,14 @@ static void __rvu_mbox_up_handler(struct rvu_work *mwork, int type)
        mdev = &mbox->dev[devid];
 
        rsp_hdr = mdev->mbase + mbox->rx_start;
-       if (rsp_hdr->num_msgs == 0) {
+       if (mw->mbox_wrk_up[devid].up_num_msgs == 0) {
                dev_warn(rvu->dev, "mbox up handler: num_msgs = 0\n");
                return;
        }
 
        offset = mbox->rx_start + ALIGN(sizeof(*rsp_hdr), MBOX_MSG_ALIGN);
 
-       for (id = 0; id < rsp_hdr->num_msgs; id++) {
+       for (id = 0; id < mw->mbox_wrk_up[devid].up_num_msgs; id++) {
                msg = mdev->mbase + offset;
 
                if (msg->id >= MBOX_MSG_MAX) {
@@ -1560,6 +1561,7 @@ static void __rvu_mbox_up_handler(struct rvu_work *mwork, int type)
                offset = mbox->rx_start + msg->next_msgoff;
                mdev->msgs_acked++;
        }
+       mw->mbox_wrk_up[devid].up_num_msgs = 0;
 
        otx2_mbox_reset(mbox, devid);
 }
@@ -1697,14 +1699,28 @@ static void rvu_queue_work(struct mbox_wq_info *mw, int first,
                mbox = &mw->mbox;
                mdev = &mbox->dev[i];
                hdr = mdev->mbase + mbox->rx_start;
-               if (hdr->num_msgs)
-                       queue_work(mw->mbox_wq, &mw->mbox_wrk[i].work);
 
+               /*The hdr->num_msgs is set to zero immediately in the interrupt
+                * handler to  ensure that it holds a correct value next time
+                * when the interrupt handler is called.
+                * pf->mbox.num_msgs holds the data for use in pfaf_mbox_handler
+                * pf>mbox.up_num_msgs holds the data for use in
+                * pfaf_mbox_up_handler.
+                */
+
+               if (hdr->num_msgs) {
+                       mw->mbox_wrk[i].num_msgs = hdr->num_msgs;
+                       hdr->num_msgs = 0;
+                       queue_work(mw->mbox_wq, &mw->mbox_wrk[i].work);
+               }
                mbox = &mw->mbox_up;
                mdev = &mbox->dev[i];
                hdr = mdev->mbase + mbox->rx_start;
-               if (hdr->num_msgs)
+               if (hdr->num_msgs) {
+                       mw->mbox_wrk_up[i].up_num_msgs = hdr->num_msgs;
+                       hdr->num_msgs = 0;
                        queue_work(mw->mbox_wq, &mw->mbox_wrk_up[i].work);
+               }
        }
 }
 
index 63b6bbc60f8f76b6ec88feb17d5a92ab791274fc..e81b0ed5a7c28b5439a5fe81517c5154ed03e385 100644 (file)
@@ -63,6 +63,8 @@ struct rvu_debugfs {
 struct rvu_work {
        struct  work_struct work;
        struct  rvu *rvu;
+       int num_msgs;
+       int up_num_msgs;
 };
 
 struct rsrc_bmap {