Hallo!
Ich möchte gerne messen wie lange ein Sortieralgorithmus braucht, um eine Menge von Zahlen zu sortieren.
Dafür habe ich System.currentTimeMillis() verwendet.
Ich habe zwei Variablen t1 und t2 vom typ long und zeit vom vom typ int deklariert.
Hier der Code-Auschnitt:
Habe ihn jetzt mal 240000 Zahlen sortieren lassen. Dafür braucht er wohl 46 Sekunden.
Meine Frage ist erstens, ob die Zeitmessung richtig ist und zweitens, ob die Messgenauigkeit verbessert werden kann.
Also, dass er die Zeit in Sekunden und Millisekunden angibt. Kann mir da jemand auf die Schnelle weiterhelfen?
Ich möchte gerne messen wie lange ein Sortieralgorithmus braucht, um eine Menge von Zahlen zu sortieren.
Dafür habe ich System.currentTimeMillis() verwendet.
Ich habe zwei Variablen t1 und t2 vom typ long und zeit vom vom typ int deklariert.
Hier der Code-Auschnitt:
Code:
t1 = System.currentTimeMillis();
Sortierer1 sort1 = new Sortierer1(); // Algorthmus befindet sich in einer separaten Klasse
sort1.sortiere(z);
t2 = System.currentTimeMillis();
zeit = (int) (t2-t1);
Habe ihn jetzt mal 240000 Zahlen sortieren lassen. Dafür braucht er wohl 46 Sekunden.
Meine Frage ist erstens, ob die Zeitmessung richtig ist und zweitens, ob die Messgenauigkeit verbessert werden kann.
Also, dass er die Zeit in Sekunden und Millisekunden angibt. Kann mir da jemand auf die Schnelle weiterhelfen?