Für das Abspeichern von Peaks gibts die Möglichkeit, die MAX Consolidation function (CF) im RRA zu benutzen, so wie ich das in create_rrd.sh auch gemacht habe. Wenn du hinschaust, findest du jeden RRA zweimal: einmal mit AVERAGE und einmal mit MAX. In der Grafik, die durch cableload_graph.sh generiert wird, siehst du diese Werte als rosa Flaum oben drüber. Das wird aber erst sichtbar, wenn die Daten konsolidiert werden.
Deine Messreihe ist ungenau, weil immer wenn du Pausen in der Auswertung einlegst, hast du eine entsprechende Ungenauigkeit, weil du mehr Kanäle abfragst als du Sensoren hast. Du glaubst zwar, du hättest zu 25% der Zeit eine Auslastung von 100% gehabt, aber dein Sensor hat nicht die ganze Zeit hingeschaut. Er hat bei 4 Tunern und 32 Kanälen bei einem Kanal nur 1/8 der Zeit hingeschaut und zu 7/8 weggeschaut, d.h. die 100% Auslastung könnte 8/8 der Zeit gewesen sein wie du es angibst, oder aber auch nur 1/8, wie ich es sage. Man kann nicht sagen, wer von uns beiden Recht hat. Bei 1/8 wären das dann nur wenige Sekunden, was im allgemeinen Grundrauschen und der allgemeinen Messungenauigkeit untergeht. Wobei 100% Auslastung als Peak mit einem einzelnen Datenwert auch generell unrealistisch sind. Wenn es wirklich eine Verstopfung der Leitung gibt, dann tritt das über einen längeren Zeitraum auf, also mehrere Sekunden, und dann wird genau das durch die Mittelwertbestimmung beim Primary Data Point dokumentiert.
Schaust du wirklich jedesmal nach, was cableload anzeigt, wenn bei dir ein download oder ein Netflix Stream abgebrochen ist? Man kann seine Zeit auch mit nützlichen Dingen verbringen, aber das halte ich für Zeitverschwendung. Die Wahrscheinlichkeit, dass irgendwo im Backbone zwischen dem Netflix Server und der eigenen Kiste was klemmt, ist bedeutend größer.