<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Exchange Server">
<!-- converted from text --><style><!-- .EmailQuote { margin-left: 1pt; padding-left: 4pt; border-left: #800000 2px solid; } --></style>
</head>
<body>
<meta content="text/html; charset=UTF-8">
<style type="text/css" style="">
<!--
p
        {margin-top:0;
        margin-bottom:0}
-->
</style>
<div dir="ltr">
<div id="x_divtagdefaultwrapper" dir="ltr" style="font-size:12pt; color:#000000; font-family:Calibri,Helvetica,sans-serif">
<p>Hi,</p>
<p><br>
</p>
<p>Thank you for the response.<br>
</p>
<p>I tried what you suggested, but with the same result.</p>
<p><br>
</p>
<p>##################</p>
<p></p>
<div>root@debian-10:~/dpdk-18.11/myinstall# ./bin/testpmd -l 10-12  -w 82:00.0  -- --total-num-mbufs 1025<br>
./bin/testpmd: error while loading shared libraries: librte_pmd_bond.so.2.1: cannot open shared object file: No such file or directory<br>
root@debian-10:~/dpdk-18.11/myinstall# export LD_LIBRARY_PATH=/root/dpdk-18.11/myinstall/share/dpdk/x86_64-native-linuxapp-gcc/lib<br>
root@debian-10:~/dpdk-18.11/myinstall# ./bin/testpmd -l 10-12  -w 82:00.0  -- --total-num-mbufs 1025<br>
EAL: Detected 24 lcore(s)<br>
EAL: Detected 2 NUMA nodes<br>
EAL: Multi-process socket /var/run/dpdk/rte/mp_socket<br>
EAL: No free hugepages reported in hugepages-1048576kB<br>
EAL: Probing VFIO support...<br>
testpmd: No probed ethernet devices<br>
testpmd: create a new mbuf pool <mbuf_pool_socket_0>: n=1025, size=2176, socket=0<br>
testpmd: preferred mempool ops selected: ring_mp_mc<br>
testpmd: create a new mbuf pool <mbuf_pool_socket_1>: n=1025, size=2176, socket=1<br>
testpmd: preferred mempool ops selected: ring_mp_mc<br>
Done<br>
No commandline core given, start packet forwarding<br>
io packet forwarding - ports=0 - cores=0 - streams=0 - NUMA support enabled, MP allocation mode: native<br>
<br>
  io packet forwarding packets/burst=32<br>
  nb forwarding cores=1 - nb forwarding ports=0<br>
Press enter to exit<br>
####################</div>
<div><br>
</div>
<div>-Sindhu<br>
</div>
<p></p>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="x_divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" color="#000000" style="font-size:11pt"><b>From:</b> PATRICK KEROULAS <patrick.keroulas@radio-canada.ca><br>
<b>Sent:</b> Monday, January 17, 2022 11:26:18 AM<br>
<b>To:</b> Sindhura Bandi<br>
<b>Cc:</b> users@dpdk.org; Venugopal Thacahappilly<br>
<b>Subject:</b> Re: Trouble bringing up dpdk testpmd with Mellanox ports</font>
<div> </div>
</div>
</div>
<font size="2"><span style="font-size:10pt;">
<div class="PlainText">Hello,<br>
Try without `--no-pci` in your testpmd command.<br>
<br>
On Sun, Jan 16, 2022 at 6:08 AM Sindhura Bandi<br>
<sindhura.bandi@certesnetworks.com> wrote:<br>
><br>
> Hi,<br>
><br>
><br>
> I'm trying to bring up dpdk-testpmd application using Mellanox connectX-5 ports. With a custom built dpdk, testpmd is not able to detect the ports.<br>
><br>
><br>
> OS & Kernel:<br>
><br>
> Linux debian-10 4.19.0-17-amd64 #1 SMP Debian 4.19.194-2 (2021-06-21) x86_64 GNU/Linux<br>
><br>
> The steps followed:<br>
><br>
> Installed MLNX_OFED_LINUX-4.9-4.0.8.0-debian10.0-x86_64 (./mlnxofedinstall --skip-distro-check --upstream-libs --dpdk)<br>
> Downloaded dpdk-18.11 source, and built it after making following changes in config<br>
><br>
>            CONFIG_RTE_LIBRTE_MLX5_PMD=y<br>
>            CONFIG_RTE_TEST_PMD_RECORD_CORE_CYCLES=y<br>
>            CONFIG_RTE_BUILD_SHARED_LIB=y<br>
><br>
> When I run testpmd, it is not recognizing any Mellanox ports<br>
><br>
><br>
> #########<br>
> root@debian-10:~/dpdk-18.11/myinstall# ./bin/testpmd -l 1-3  -w 82:00.0 --no-pci -- --total-num-mbufs 1025<br>
> EAL: Detected 24 lcore(s)<br>
> EAL: Detected 2 NUMA nodes<br>
> EAL: Multi-process socket /var/run/dpdk/rte/mp_socket<br>
> EAL: No free hugepages reported in hugepages-1048576kB<br>
> EAL: Probing VFIO support...<br>
> testpmd: No probed ethernet devices<br>
> testpmd: create a new mbuf pool <mbuf_pool_socket_0>: n=1025, size=2176, socket=0<br>
> testpmd: preferred mempool ops selected: ring_mp_mc<br>
> testpmd: create a new mbuf pool <mbuf_pool_socket_1>: n=1025, size=2176, socket=1<br>
> testpmd: preferred mempool ops selected: ring_mp_mc<br>
> Done<br>
> No commandline core given, start packet forwarding<br>
> io packet forwarding - ports=0 - cores=0 - streams=0 - NUMA support enabled, MP allocation mode: native<br>
><br>
>   io packet forwarding packets/burst=32<br>
>   nb forwarding cores=1 - nb forwarding ports=0<br>
> Press enter to exit<br>
> ##########<br>
><br>
> root@debian-10:~# lspci | grep Mellanox<br>
> 82:00.0 Ethernet controller: Mellanox Technologies MT28800 Family [ConnectX-5 Ex]<br>
> 82:00.1 Ethernet controller: Mellanox Technologies MT28800 Family [ConnectX-5 Ex]<br>
> root@debian-10:~# ibv_devinfo<br>
> hca_id:    mlx5_0<br>
>     transport:            InfiniBand (0)<br>
>     fw_ver:                16.28.4512<br>
>     node_guid:            b8ce:f603:00f2:7952<br>
>     sys_image_guid:            b8ce:f603:00f2:7952<br>
>     vendor_id:            0x02c9<br>
>     vendor_part_id:            4121<br>
>     hw_ver:                0x0<br>
>     board_id:            DEL0000000004<br>
>     phys_port_cnt:            1<br>
>         port:    1<br>
>             state:            PORT_ACTIVE (4)<br>
>             max_mtu:        4096 (5)<br>
>             active_mtu:        1024 (3)<br>
>             sm_lid:            0<br>
>             port_lid:        0<br>
>             port_lmc:        0x00<br>
>             link_layer:        Ethernet<br>
><br>
> hca_id:    mlx5_1<br>
>     transport:            InfiniBand (0)<br>
>     fw_ver:                16.28.4512<br>
>     node_guid:            b8ce:f603:00f2:7953<br>
>     sys_image_guid:            b8ce:f603:00f2:7952<br>
>     vendor_id:            0x02c9<br>
>     vendor_part_id:            4121<br>
>     hw_ver:                0x0<br>
>     board_id:            DEL0000000004<br>
>     phys_port_cnt:            1<br>
>         port:    1<br>
>             state:            PORT_ACTIVE (4)<br>
>             max_mtu:        4096 (5)<br>
>             active_mtu:        1024 (3)<br>
>             sm_lid:            0<br>
>             port_lid:        0<br>
>             port_lmc:        0x00<br>
>             link_layer:        Ethernet<br>
><br>
><br>
> I'm not sure where I'm going wrong. Any hints will be much appreciated.<br>
><br>
> Thanks,<br>
> Sindhu<br>
<br>
</div>
</span></font>
</body>
</html>