Hallo bin neu hier und habe irgendwo einen denkfehler bei dieser rechnung.
long y = 10;
byte z = 8;
char c = 'd'; // 'd' = 100 dezimal
System.out.println (y*++z / (z-- -6.0) + 'd'*0.5);
Als Ausgabe sollte 80.0 rauskommen, ich verstehe aber nicht wieso.
Wäre nett wenn mir wer schrittweise erklären könnte was jz als erstes gerechnet wird...
Danke schonmal.
long y = 10;
byte z = 8;
char c = 'd'; // 'd' = 100 dezimal
System.out.println (y*++z / (z-- -6.0) + 'd'*0.5);
Als Ausgabe sollte 80.0 rauskommen, ich verstehe aber nicht wieso.
Wäre nett wenn mir wer schrittweise erklären könnte was jz als erstes gerechnet wird...
Danke schonmal.