<div dir="ltr"><div dir="ltr">Hello,<br><br>I am Andrew, a software test developer at UNH-IOL working on the DPDK Test Suite (DTS) component in DPDK. We're adding crypto device tests (both functional and performance) to DTS using the dpdk-test-crypto-perf application. These are tests which can be run on real hardware, I.e. We have an Intel 8970 crypto card at the lab we are using for testing. I'm currently developing a performance test suite using option "--ptest throughput" that will fail tests when metrics deviate by n% from a baseline. I would like to get your feedback regarding how I can correctly check for performance regressions in the test cases by using dpdk-crypto-perf.<br><br>1. Which metrics in the attached table below are relevant for checking for performance regressions in throughput testing? MOps? Gbps?<br>2. What would be an acceptable throughput deviation between runs, and what percentage deviation should be considered a failure? For instance, right now I am thinking that if the test returns a Gbps reduction of 2% or greater from the given baseline, that will trigger a failure.<br><br><img src="cid:ii_mkbgrn4a1" alt="Screenshot From 2026-01-12 11-49-16.png" width="562" height="179"><br>Any guidance you can provide would be greatly appreciated.<br>Best regards,<br>Andrew</div></div>