<div dir="auto"><div style="font-family:sans-serif;font-size:13.696px" dir="auto"><div style="margin:16px 0px"><div>Hi to all<br>I've seen, on multiple servers, with multiple disks (all SAS, all<br>Seagate 15k) that running a smart long test is resulting in very high<br>I/O and will slow down any other disk access.<br><br>Based on what I've read on Net, smart long test should be made<br>automatically with low priority by disk itself, but is not our case.<br><br>Every time we run a long test on a disk (member of an hardware RAID),<br>any VM reading/writing to that disk will show load arout 80-90 and<br>after a while, some crashes.<br><br>"iostat -x" show 100% util for that disk.<br><br>If I stop the long test (smartctl -X) load immediatly goes down to 1-2<br>(as it should be) and %util from "iostat" will decrease to about<br>30-40%<br><br>Re-running the long test will make the same.<br><br>Other than this, a long test is expected to finish in about 2 hours<br>(based on what smart is saying) but after 8 hours is still running.<br><br>Any idea?<br></div></div><div style="height:0px"></div></div><br></div>