M
ME2
Gast
Hey,
ich habe Dijkstra programmiert und dann eine Laufzeitmessung mit System.currentTimeMillis() gemacht.
Dazu habe ich mein Programm anhand eines fest def. Beispiels 50-mal laufen lassen und den Wert gemittelt -> 120ms. Wenn ich eine nicht benötigte Variable in einer Klasse lösche (diese Variable wird nie benutzt), verbessert sich das ganze auf 110ms. OK macht Sinn.
Wenn ich allerdings nur die erste Ausführungszeit betrachte, d.h. nicht gemittelt über 50 Durchläufe, dann benötigt der Code mit Variable ca. 165ms und der ohne ca. 210ms. Dies habe ich jetzt vllt. schon 100-mal ausprobiert. Gemittelt ergibt sich ich immer dieser deutliche Unterschied.
Das verstehe ich nicht. Woran liegt das?
ich habe Dijkstra programmiert und dann eine Laufzeitmessung mit System.currentTimeMillis() gemacht.
Dazu habe ich mein Programm anhand eines fest def. Beispiels 50-mal laufen lassen und den Wert gemittelt -> 120ms. Wenn ich eine nicht benötigte Variable in einer Klasse lösche (diese Variable wird nie benutzt), verbessert sich das ganze auf 110ms. OK macht Sinn.
Wenn ich allerdings nur die erste Ausführungszeit betrachte, d.h. nicht gemittelt über 50 Durchläufe, dann benötigt der Code mit Variable ca. 165ms und der ohne ca. 210ms. Dies habe ich jetzt vllt. schon 100-mal ausprobiert. Gemittelt ergibt sich ich immer dieser deutliche Unterschied.
Das verstehe ich nicht. Woran liegt das?