vdev_netvsc is not what you are looking for.<br><br>This is what you need.<br><br><a href="http://doc.dpdk.org/guides-22.11/nics/netvsc.html">http://doc.dpdk.org/guides-22.11/nics/netvsc.html</a><br><br><br>On Friday, December 23, 2022, piyush gupta <<a href="mailto:pgupta9393@gmail.com">pgupta9393@gmail.com</a>> wrote:<br>> Hi,<br>><br>> I am running a D8sV3 type instance on azure with RHEL7.9 & accelerated networking enabled on one of the interface.<br>><br>> On this am running my DPDK app which is binding to the VF exposed & its corresponding netvsc interface via vdev_netvsc driver as suggested in <a href="https://learn.microsoft.com/en-us/azure/virtual-network/setup-dpdk">https://learn.microsoft.com/en-us/azure/virtual-network/setup-dpdk</a><br>><br>> DPDK doc : vdev_netvsc.html<br>><br>> The expected behaviour is that all traffic should flow through the physical interface (VF) and not from synthetic device (eth2 in my case).<br>> But I can see all traffic coming to eth2 & dtap0 devices. This is causing my dpdk cpus to handle RX interrupts for these packets causing major performance issues & jitters. I am not understanding why all these packets are being mirrored to slow path.<br>><br>> Note: All my traffic is UDP.<br>><br>>  <br>><br>> </mail/u/0/s/?view=att&th=1854395b0da9d888&attid=0.1&disp=emb&realattid=ii_lc04zfx20&zw&atsh=1><br>> </mail/u/0/s/?view=att&th=1854395b0da9d888&attid=0.2&disp=emb&realattid=ii_lc04zfxt1&zw&atsh=1><br>><br>> I would like to know if there is any setting I am missing here. This is causing a lot of problems for me to qualify on Azure cloud with expected throughput.<br>><br>> Thanks.<br>><br>> Best regards,<br>><br>> Piyush Gupta<br>><br>>