Hallo,
ich habe ein phänomen: Eine J3D Anwendung welche unter Vista betrieben wird, schafft mit dem Default OpenGL Renderer nur eine Performance von ~30 frames/sec. Wird der Renderer auf D3D umgestellt, erreicht die Applikation Frameraten > 500. Auch unter Solaris und Linux ergeben sich letztere Frameraten.
Kennt jemand dieses verhalten - und wenn ja, kann es jemand erklären?
Danke und Grüsse,
Egon
ich habe ein phänomen: Eine J3D Anwendung welche unter Vista betrieben wird, schafft mit dem Default OpenGL Renderer nur eine Performance von ~30 frames/sec. Wird der Renderer auf D3D umgestellt, erreicht die Applikation Frameraten > 500. Auch unter Solaris und Linux ergeben sich letztere Frameraten.
Kennt jemand dieses verhalten - und wenn ja, kann es jemand erklären?
Danke und Grüsse,
Egon