B
Boha
Gast
Hi,
ich bin gerade dabei einen Autonomen Rasenmäher zu Programieren und Simulieren.
Die Simulation läuft ausschließlich über Timer.
Je nachdem in welche Richtung sich ein Radmotor dreht wird die Position auf der karte über einen Timer aktualisiert.
Dadurch lässt sich auch die Geschwindigkeit der Simulation einstellen.
Mein Problem ist jetzt, dass die Simulation mit einem Intervall von zB 10ms mal schneller und mal langsamer läuft.
Mir kommt es so vor, je länger mein PC läuft umso schneller bzw. "normaler" laufen auch die Timer.. nach einem Neustart läuft die ganze Simulation im Schneckentempe..
Hat vll jemand eine Idee woran das liegt?
LG
ich bin gerade dabei einen Autonomen Rasenmäher zu Programieren und Simulieren.
Die Simulation läuft ausschließlich über Timer.
Je nachdem in welche Richtung sich ein Radmotor dreht wird die Position auf der karte über einen Timer aktualisiert.
Dadurch lässt sich auch die Geschwindigkeit der Simulation einstellen.
Mein Problem ist jetzt, dass die Simulation mit einem Intervall von zB 10ms mal schneller und mal langsamer läuft.
Mir kommt es so vor, je länger mein PC läuft umso schneller bzw. "normaler" laufen auch die Timer.. nach einem Neustart läuft die ganze Simulation im Schneckentempe..
Hat vll jemand eine Idee woran das liegt?
LG