<div dir="ltr"><div>So I've done some tests and research .</div><div> Wrote a 1GB file, and the data units went up by about 2700.   Although I do not know how the units are calculated , the writes are not under reported.<br></div><div><br></div><div>The incredibly high write count  is not unusual for use cases like advanced scientific testing [ nuclear testing simulations , cloud service providers etc].</div><div><br></div><div>Even though 15.3 PB  have been written ,  the drives have a lot more life left [ 175+ years at our rate of use] :</div><div><div id="gmail-magicdomid1120" class="gmail-ace-line"><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z"> </span><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z gmail-url"><a href="https://ark.intel.com/content/www/us/en/ark/products/79620/intel-ssd-dc-p3700-series-2-0tb-1-2-height-pcie-3-0-20nm-mlc.html">https://ark.intel.com/content/www/us/en/ark/products/79620/intel-ssd-dc-p3700-series-2-0tb-1-2-height-pcie-3-0-20nm-mlc.html</a></span><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z"> </span></div><div id="gmail-magicdomid1202" class="gmail-ace-line"><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z">                    Endurance Rating  Lifetime Writes      62 PBW (JEDEC Workload), 17 DWPD</span></div><div class="gmail-ace-line"><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z"><br></span></div><div class="gmail-ace-line"><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z">So we'll keep this drive.</span></div><div class="gmail-ace-line"><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z"><br></span></div><div class="gmail-ace-line"><span class="gmail-author-a-z85zyz77zdkcpz84zna1z83zz79zbaz67z"><br></span></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jun 29, 2019 at 3:00 PM Robert Fantini <<a href="mailto:robertfantini@gmail.com">robertfantini@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">attached.<br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jun 29, 2019 at 12:37 PM Christian Franke <<a href="mailto:Christian.Franke@t-online.de" target="_blank">Christian.Franke@t-online.de</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Robert Fantini wrote:<br>
> Hello<br>
><br>
> We just received a used INTEL 2TB Nvme .    Below is smartctl output.<br>
><br>
> These are very high,   could the math be incorrect?<br>
> Data Units Read:                    30,035,247,693 [15.3 PB]<br>
> Data Units Written:                 11,932,680,343 [6.10 PB]<br>
<br>
 From NVMe specs (same in 1.0 to 1.4):<br>
"Data Units Read: Contains the number of 512 byte data units the host <br>
has read from the controller... This value is reported in thousands <br>
(i.e., a value of 1 corresponds to 1,000 units of 512 bytes read) ..."<br>
<br>
Math looks good:<br>
<br>
$ echo 'scale=1; 30035247693 * 512 * 1000 / (1000^5)' | bc<br>
15.3<br>
<br>
To check whether smartctl interprets raw data correctly, please provide <br>
output of<br>
   smartctl -r ioctl,2 -i -A /dev/nvme0<br>
as an attachment.<br>
<br>
Thanks,<br>
Christian<br>
<br>
> PS: thank you for the great tool.<br>
PS: You're welcome.<br>
<br>
</blockquote></div>
</blockquote></div>