Merge branch 'tcp-tsq-perf'
authorDavid S. Miller <davem@davemloft.net>
Mon, 5 Dec 2016 18:32:25 +0000 (13:32 -0500)
committerDavid S. Miller <davem@davemloft.net>
Mon, 5 Dec 2016 18:32:25 +0000 (13:32 -0500)
commit3f4888adae7c1619b990d98a9b967536f71822b8
treeacd4d2976939d6de5f4495bbebc4a9420e40d38e
parentf83e83037c7ae3fffaa20e597c3b87752b87b305
parent7aa5470c2c09265902b5e4289afa82e4e7c2987e
Merge branch 'tcp-tsq-perf'

Eric Dumazet says:

====================
tcp: tsq: performance series

Under very high TX stress, CPU handling NIC TX completions can spend
considerable amount of cycles handling TSQ (TCP Small Queues) logic.

This patch series avoids some atomic operations, but most notable
patch is the 3rd one, allowing other cpus processing ACK packets and
calling tcp_write_xmit() to grab TCP_TSQ_DEFERRED so that
tcp_tasklet_func() can skip already processed sockets.

This avoid lots of lock acquisitions and cache lines accesses,
particularly under load.

In v2, I added :

- tcp_small_queue_check() change to allow 1st and 2nd packets
  in write queue to be sent, even in the case TX completion of
    already acknowledged packets did not happen yet.
      This helps when TX completion coalescing parameters are set
        even to insane values, and/or busy polling is used.

- A reorganization of struct sock fields to
  lower false sharing and increase data locality.

- Then I moved tsq_flags from tcp_sock to struct sock also
  to reduce cache line misses during TX completions.

I measured an overall throughput gain of 22 % for heavy TCP use
over a single TX queue.
====================

Signed-off-by: David S. Miller <davem@davemloft.net>