Hi,
Bij goede spannings referenties wordt regelmatig met standaard deviatie gewerkt.
Ik heb op het ogenblik nog wat moeite het kwartje te laten vallen...
Dit is een screenshot van een YT video, en daar heb ik geen moeite mee het te begrijpen, vrij simpel eigenlijk.
.
Maar laten we nu eens naar het volgende plaatje kijken, dat zijn bijna 16000 samples van een van mijn spanning referenties en het is de 10V uit de jBerg54 en de 10V wordt opgewekt door een LT1021.
Deze TEK DMM4050 heb ik ongeveer een halve dag laten meten en dan zegt het scherm dit:
Voor de gene die het niet direct bij de hand hebben, 1PPM is 10uV en de SD wordt hier aangegeven als ongeveer 2,5uV.
Dus de SD zou dan 1/4 PPM zijn.
Maar wat zegt mij dat nu, het verschil tussen max en min is 16uV wat 1,6PPM is.
Is bij een normale belcurve het altijd 68% voor 1-SD?
Ik heb nu een meting lopen met de histogram functie, net gestart en bij de 72 metingen heb ik nu een SD van 1,09uV.
Lang geleden, denk zo'n derdig jaar of zo heb ik eens aa neen vriendin gevraagt die ook statistiek deed om het mij eens uit te leggen, dat was niet gelukt.
Ik heb er nog steeds geen gevoel voor en dat komt b.v. ook als je de twee metingen vergelijkt, de eerste meting is wel uit veel meer punten
maar een verschil van 2,5 is wel wat veel, of zie ik dit verkeerd?
Wanneer kan wat ik meet nu vertrouwen?
Misschien kunnen jullie mij helpen hier meer inzicht in te verkrijgen.
Groet,
Bram