Hallo,
ich habe einmal zwei Fragen:
1. Angenommen es warten 20 Clients darauf, dass jeder insg. 1 Std. auf einem multiplexenden Server rechnen darf, wie lange muss jeder Client warten (mittlere Wartezeit) bis er dran kommt? (Grundsätzliches: Der multiplexende Server gewährt jedem Client immer einen kurzen Time-Slot um auf der CPU zu rechnen, er springt sozusagen von Client zu Client hin und her.)
2. Wie lange dauert der gesamte Prozess insg.?
Meine Theorie wäre wie folgt:
Zu 1.)
20 Clients wollen jeweils 1 Std. rechnen, dies geschieht jeweils nur mit Unterbrechung. So nehme ich dann, dass die faire Wartezeit sich nach der Rechenzeit (1Std.) richtet: 60 / 20 = 3 Min * Clients (20) = 60min mittlere Wartezeit bis man wieder dran ist.
Zu 2.)
- Insg. dauert es wie bei einem seriellen Server 20 Std. hinzu kommt aber die Verwaltungszeit für die Threads, sagen wir also 20 Std. + x Minuten. 20 Threads verzwanzigfachen ja nicht die die Geschwindigkeit, anders wäre es bei 20 CPU Kernen.
Stimmt ihr dem zu?
Vielen Dank
ich habe einmal zwei Fragen:
1. Angenommen es warten 20 Clients darauf, dass jeder insg. 1 Std. auf einem multiplexenden Server rechnen darf, wie lange muss jeder Client warten (mittlere Wartezeit) bis er dran kommt? (Grundsätzliches: Der multiplexende Server gewährt jedem Client immer einen kurzen Time-Slot um auf der CPU zu rechnen, er springt sozusagen von Client zu Client hin und her.)
2. Wie lange dauert der gesamte Prozess insg.?
Meine Theorie wäre wie folgt:
Zu 1.)
20 Clients wollen jeweils 1 Std. rechnen, dies geschieht jeweils nur mit Unterbrechung. So nehme ich dann, dass die faire Wartezeit sich nach der Rechenzeit (1Std.) richtet: 60 / 20 = 3 Min * Clients (20) = 60min mittlere Wartezeit bis man wieder dran ist.
Zu 2.)
- Insg. dauert es wie bei einem seriellen Server 20 Std. hinzu kommt aber die Verwaltungszeit für die Threads, sagen wir also 20 Std. + x Minuten. 20 Threads verzwanzigfachen ja nicht die die Geschwindigkeit, anders wäre es bei 20 CPU Kernen.
Stimmt ihr dem zu?
Vielen Dank