nvme-rdma: stop and free io queues on connect failure
authorSteve Wise <swise@opengridcomputing.com>
Tue, 8 Nov 2016 17:16:02 +0000 (09:16 -0800)
committerSagi Grimberg <sagi@grimberg.me>
Mon, 14 Nov 2016 00:08:53 +0000 (02:08 +0200)
commitc8dbc37cd81d4705fce51123f5d81ea3267a5b88
tree930d2f3e3778b18d28f8cde75bf256111de120cb
parent766dbb179d41d6337fed2b3ca00caa5845d298ce
nvme-rdma: stop and free io queues on connect failure

While testing nvme-rdma with the spdk nvmf target over iw_cxgb4, I
configured the target (mistakenly) to generate an error creating the
NVMF IO queues.  This resulted a "Invalid SQE Parameter" error sent back
to the host on the first IO queue connect:

[ 9610.928182] nvme nvme1: queue_size 128 > ctrl maxcmd 120, clamping down
[ 9610.938745] nvme nvme1: creating 32 I/O queues.

So nvmf_connect_io_queue() returns an error to
nvmf_connect_io_queue() / nvmf_connect_io_queues(), and that
is returned to nvme_rdma_create_io_queues().  In the error path,
nvmf_rdma_create_io_queues() frees the queue tagset memory _before_
stopping and freeing the IB queues, which causes yet another
touch-after-free crash due to SQ CQEs being flushed after the ib_cqe
structs pointed-to by the flushed WRs have been freed (since they are
part of the nvme_rdma_request struct).

The fix is to stop and free the queues in nvmf_connect_io_queues()
if there is an error connecting any of the queues.

Signed-off-by: Steve Wise <swise@opengridcomputing.com>
Signed-off-by: Sagi Grimberg <sagi@grimberg.me>
drivers/nvme/host/rdma.c