<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
span.EmailStyle19
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word">
<div class="WordSection1">
<p class="MsoNormal">Hi,<o:p></o:p></p>
<p class="MsoNormal">When I return to 2K mbuf size the /proc/meminfo hugepage info looks exactly the same.<o:p></o:p></p>
<p class="MsoNormal">HugePages_Total:    1024<o:p></o:p></p>
<p class="MsoNormal">HugePages_Free:        0<o:p></o:p></p>
<p class="MsoNormal">HugePages_Rsvd:        0<o:p></o:p></p>
<p class="MsoNormal">HugePages_Surp:        0<o:p></o:p></p>
<p class="MsoNormal">Hugepagesize:       2048 kB<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">I did not make any changes to the arguments to rte_eal_init() when I tried 16K mbuf configuration.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<div style="border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal"><b>From:</b> Cliff Burdick <shaklee3@gmail.com> <br>
<b>Sent:</b> Tuesday, March 1, 2022 10:57 PM<br>
<b>To:</b> Lombardo, Ed <Ed.Lombardo@netscout.com><br>
<b>Cc:</b> Stephen Hemminger <stephen@networkplumber.org>; users@dpdk.org<br>
<b>Subject:</b> Re: How to increase mbuf size in dpdk version 17.11<o:p></o:p></p>
</div>
<p class="MsoNormal"><o:p> </o:p></p>
<div>
<table class="MsoNormalTable" border="0" cellspacing="0" cellpadding="0" width="100%" style="width:100.0%;background:#006068">
<tbody>
<tr>
<td style="padding:3.75pt 3.75pt 3.75pt 3.75pt">
<p class="MsoNormal" align="center" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto;text-align:center">
<strong><span style="font-size:12.0pt;font-family:"Arial",sans-serif;color:white">External Email:</span></strong><span style="font-size:12.0pt;font-family:"Arial",sans-serif;color:white"> This message originated outside of NETSCOUT. Do not click links or open
 attachments unless you recognize the sender and know the content is safe.</span><span style="font-size:12.0pt;color:white"><o:p></o:p></span></p>
</td>
</tr>
</tbody>
</table>
</div>
<div>
<p class="MsoNormal">That's showing you have 0 hugepages free. Maybe they weren't passed through to the VM properly?<o:p></o:p></p>
</div>
<p class="MsoNormal"><o:p> </o:p></p>
<div>
<div>
<p class="MsoNormal">On Tue, Mar 1, 2022 at 7:50 PM Lombardo, Ed <<a href="mailto:Ed.Lombardo@netscout.com">Ed.Lombardo@netscout.com</a>> wrote:<o:p></o:p></p>
</div>
<blockquote style="border:none;border-left:solid #CCCCCC 1.0pt;padding:0in 0in 0in 6.0pt;margin-left:4.8pt;margin-right:0in">
<div>
<div>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">[root@vSTREAM_632 ~]# cat /proc/meminfo<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">MemTotal:       32778372 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">MemFree:        15724124 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">MemAvailable:   15897392 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Buffers:           18384 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Cached:           526768 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">SwapCached:            0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Active:           355140 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Inactive:         173360 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Active(anon):      62472 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Inactive(anon):    12484 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Active(file):     292668 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Inactive(file):   160876 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Unevictable:    13998696 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Mlocked:        13998696 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">SwapTotal:       3906556 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">SwapFree:        3906556 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Dirty:                76 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Writeback:             0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">AnonPages:      13986156 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Mapped:            95500 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Shmem:             16864 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Slab:             121952 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">SReclaimable:      71128 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">SUnreclaim:        50824 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">KernelStack:        4608 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">PageTables:        31524 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">NFS_Unstable:          0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Bounce:                0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">WritebackTmp:          0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">CommitLimit:    19247164 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Committed_AS:   14170424 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">VmallocTotal:   34359738367 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">VmallocUsed:      212012 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">VmallocChunk:   34342301692 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Percpu:             2816 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">HardwareCorrupted:     0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">AnonHugePages:  13228032 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">CmaTotal:              0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">CmaFree:               0 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">HugePages_Total:    1024<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">HugePages_Free:        0<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">HugePages_Rsvd:        0<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">HugePages_Surp:        0<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">Hugepagesize:       2048 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">DirectMap4k:      104320 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">DirectMap2M:    33449984 kB<o:p></o:p></p>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"> <o:p></o:p></p>
<div style="border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><b>From:</b> Cliff Burdick <<a href="mailto:shaklee3@gmail.com" target="_blank">shaklee3@gmail.com</a>>
<br>
<b>Sent:</b> Tuesday, March 1, 2022 10:45 PM<br>
<b>To:</b> Lombardo, Ed <<a href="mailto:Ed.Lombardo@netscout.com" target="_blank">Ed.Lombardo@netscout.com</a>><br>
<b>Cc:</b> Stephen Hemminger <<a href="mailto:stephen@networkplumber.org" target="_blank">stephen@networkplumber.org</a>>;
<a href="mailto:users@dpdk.org" target="_blank">users@dpdk.org</a><br>
<b>Subject:</b> Re: How to increase mbuf size in dpdk version 17.11<o:p></o:p></p>
</div>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"> <o:p></o:p></p>
<div>
<table class="MsoNormalTable" border="0" cellspacing="0" cellpadding="0" width="100%" style="width:100.0%;background:#006068">
<tbody>
<tr>
<td style="padding:3.75pt 3.75pt 3.75pt 3.75pt">
<p class="MsoNormal" align="center" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto;text-align:center">
<strong><span style="font-size:12.0pt;font-family:"Arial",sans-serif;color:white">External Email:</span></strong><span style="font-size:12.0pt;font-family:"Arial",sans-serif;color:white"> This message originated outside of NETSCOUT. Do not click links or open
 attachments unless you recognize the sender and know the content is safe.</span><o:p></o:p></p>
</td>
</tr>
</tbody>
</table>
</div>
<div>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="color:black">Can you paste the output of "cat /proc/meminfo"?</span><o:p></o:p></p>
</div>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"> <o:p></o:p></p>
<div>
<div>
<p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto">On Tue, Mar 1, 2022 at 5:37 PM Lombardo, Ed <<a href="mailto:Ed.Lombardo@netscout.com" target="_blank">Ed.Lombardo@netscout.com</a>> wrote:<o:p></o:p></p>
</div>
<blockquote style="border:none;border-left:solid #CCCCCC 1.0pt;padding:0in 0in 0in 6.0pt;margin-left:4.8pt;margin-top:5.0pt;margin-right:0in;margin-bottom:5.0pt">
<p class="MsoNormal" style="mso-margin-top-alt:auto;margin-bottom:12.0pt">Here is the output from rte_mempool_dump() after creating the mbuf " mbuf_pool_create (mbuf_seg_size=16512, nb_mbuf=32768, socket_id=0)":<br>
 nb_mbuf_per_pool = 32768<br>
 mb_size = 16640<br>
 16512 * 32768 = 541,065,216<br>
<br>
mempool <mbuf_pool_socket_0>@0x17f811400<br>
  flags=10<br>
  pool=0x17f791180<br>
  iova=0x80fe11400<br>
  nb_mem_chunks=1<br>
  size=32768<br>
  populated_size=32768<br>
  header_size=64<br>
  elt_size=16640<br>
  trailer_size=0<br>
  total_obj_size=16704<br>
  private_data_size=64<br>
  avg bytes/object=16704.000000<br>
  internal cache infos:<br>
    cache_size=250<br>
    cache_count[0]=0<br>
...<br>
    cache_count[126]=0<br>
    cache_count[127]=0<br>
    total_cache_count=0<br>
  common_pool_count=32768<br>
  no statistics available<br>
<br>
-----Original Message-----<br>
From: Stephen Hemminger <<a href="mailto:stephen@networkplumber.org" target="_blank">stephen@networkplumber.org</a>>
<br>
Sent: Tuesday, March 1, 2022 5:46 PM<br>
To: Cliff Burdick <<a href="mailto:shaklee3@gmail.com" target="_blank">shaklee3@gmail.com</a>><br>
Cc: Lombardo, Ed <<a href="mailto:Ed.Lombardo@netscout.com" target="_blank">Ed.Lombardo@netscout.com</a>>;
<a href="mailto:users@dpdk.org" target="_blank">users@dpdk.org</a><br>
Subject: Re: How to increase mbuf size in dpdk version 17.11<br>
<br>
External Email: This message originated outside of NETSCOUT. Do not click links or open attachments unless you recognize the sender and know the content is safe.<br>
<br>
On Tue, 1 Mar 2022 13:37:07 -0800<br>
Cliff Burdick <<a href="mailto:shaklee3@gmail.com" target="_blank">shaklee3@gmail.com</a>> wrote:<br>
<br>
> Can you verify how many buffers you're allocating? I don't see how <br>
> many you're allocating in this thread.<br>
> <br>
> On Tue, Mar 1, 2022 at 1:30 PM Lombardo, Ed <<a href="mailto:Ed.Lombardo@netscout.com" target="_blank">Ed.Lombardo@netscout.com</a>><br>
> wrote:<br>
> <br>
> > Hi Stephen,<br>
> > The VM is configured to have 32 GB of memory.<br>
> > Will dpdk consume the 2GB of hugepage memory for the mbufs?<br>
> > I don't mind having less mbufs with mbuf size of 16K vs original <br>
> > mbuf size of 2K.<br>
> ><br>
> > Thanks,<br>
> > Ed<br>
> ><br>
> > -----Original Message-----<br>
> > From: Stephen Hemminger <<a href="mailto:stephen@networkplumber.org" target="_blank">stephen@networkplumber.org</a>><br>
> > Sent: Tuesday, March 1, 2022 2:57 PM<br>
> > To: Lombardo, Ed <<a href="mailto:Ed.Lombardo@netscout.com" target="_blank">Ed.Lombardo@netscout.com</a>><br>
> > Cc: <a href="mailto:users@dpdk.org" target="_blank">users@dpdk.org</a><br>
> > Subject: Re: How to increase mbuf size in dpdk version 17.11<br>
> ><br>
> > External Email: This message originated outside of NETSCOUT. Do not <br>
> > click links or open attachments unless you recognize the sender and <br>
> > know the content is safe.<br>
> ><br>
> > On Tue, 1 Mar 2022 18:34:22 +0000<br>
> > "Lombardo, Ed" <<a href="mailto:Ed.Lombardo@netscout.com" target="_blank">Ed.Lombardo@netscout.com</a>> wrote:<br>
> >  <br>
> > > Hi,<br>
> > > I have an application built with dpdk 17.11.<br>
> > > During initialization I want to change the mbuf size from 2K to 16K.<br>
> > > I want to receive packet sizes of 8K or more in one mbuf.<br>
> > ><br>
> > > The VM running the application is configured to have 2G hugepages.<br>
> > ><br>
> > > I tried many things and I get an error when a packet arrives.<br>
> > ><br>
> > > I read online that there is #define DEFAULT_MBUF_DATA_SIZE that I<br>
> > changed from 2176 to ((2048*8)+128), where 128 is for headroom.  <br>
> > > The call to rte_pktmbuf_pool_create() returns success with my changes.<br>
> > > From the rte_mempool_dump() - "rx_nombuf" - Total number of Rx <br>
> > > mbuf<br>
> > allocation failures.  This value increments each time a packet arrives.  <br>
> > ><br>
> > > Is there any reference document explaining what causes this error?<br>
> > > Is there a user guide I should follow to make the mbuf size <br>
> > > change,<br>
> > starting with the hugepage value?  <br>
> > ><br>
> > > Thanks,<br>
> > > Ed<br>
> ><br>
> > Did you check that you have enough memory in the system for the <br>
> > larger footprint?<br>
> > Using 16K per mbuf is going to cause lots of memory to be consumed.<br>
<br>
A little maths you can fill in your own values.<br>
<br>
Assuming you want 16K of data.<br>
<br>
You need at a minimum [1]<br>
    num_rxq := total number of receive queues<br>
    num_rxd := number of receive descriptors per receive queue<br>
    num_txq := total number of transmit queues (assume all can be full)<br>
    num_txd := number of transmit descriptors<br>
    num_mbufs = num_rxq * num_rxd + num_txq * num_txd + num_cores * burst_size<br>
<br>
Assuming you are using code copy/pasted from some example like l3fwd.<br>
With 4 Rxq<br>
<br>
    num_mbufs = 4 * 1024 + 4 * 1024 + 4 * 32 = 8320<br>
<br>
Each mbuf element requires [2]<br>
    elt_size = sizeof(struct rte_mbuf) + HEADROOM + mbuf_size<br>
             = 128 + 128 + 16K = 16640<br>
<br>
    obj_size = rte_mempool_calc_obj_size(elt_size, 0, NULL)<br>
             = 16832<br>
<br>
So total pool is<br>
    num_mbufs * obj_size = 8320 * 16832 = 140,042,240 ~ 139M<br>
<br>
<br>
[1] Some devices line bnxt need multiple buffers per packet.<br>
[2] Often applications want additional space per mbuf for meta-data.<br>
<br>
<o:p></o:p></p>
</blockquote>
</div>
</div>
</div>
</blockquote>
</div>
</div>
</body>
</html>