Off topic Adobe

Sniper1000

Mitglied
Beitrag kann man verschieben wohin ? Oder auch später löschen.
Frage, da hier ja Programmierer sitzen:
Adobe Reader hat in den letzten Wochen ein Update nach dem anderen, noch nie so viele in kurzem Abstand.
Ursache ??
Schlechte Programmierung ??
Sicherheitslücken ??
Was ist da los ??
 

KonradN

Super-Moderator
Mitarbeiter
Adobe Reader hat in den letzten Wochen ein Update nach dem anderen, noch nie so viele in kurzem Abstand.
Also wenn ich mir die Seite von @mihe7 ansehe, dann sehe ich jeden Monat ein Update - und das seit mind. Juni 2020 (bis dahin zurück sind sie Updates gelistet). Daher sehe ich jetzt erst einmal keine wirkliche Veränderung in den letzten Wochen.

Daher wäre interessant, was Du beobachtet hast und was die Vorher / Nachher Beobachtungen genau sind. Evtl. wurden einfach viele Updates ignoriert (von Dir, dem Verantwortlichen für Updates bei deinem Rechner) in der Vergangenheit und nun werden Updates zeitnah eingespielt? Daher wäre die Frage erst einmal in Deine Richtung: Was ist bei Dir los?

Und unabhängig davon: Auch wenn wir Entwickler sind: Ohne Einblick in die Prozesse kann man das nicht bewerten. Erst Recht nicht "schlechte Programmierung"... Solche Urteile ohne wirklichen Einblick halte ich für extrem unangebracht. Man kann ? soll natürlich immer überlegen, ob Software seinen Ansprüchen entspricht oder ob man ggf. auf andere Anbieter umsteigen soll. Aber eine kontinuierliche Weiterentwicklung und Pflege ist in meinen Augen eher ein positiver Punkt bei so einer Bewertung. Und man kann immer überlegen, ob?welche Updates man einspielt (oder eben nicht). (Wobei ich Updates für Software, welche Dateien, die ich bekomme öffnet und ggf. auch aktiv Dinge ausführt, als sehr kritisch für die Sicherheit ansehen würde. (Ein Grund, den Acrobat Reader in der Regel nicht zu verwenden bzw. nur für Dateien aus vertrauenswürdigen Quellen so notwendig. Acrobat Reader bietet halt auch gewisse Funktionalitäten, die Firmen gerne nutzen wie aktive Prozesse mit Signierung von Dateien und automatischer Weiterleitung und so....)

Und die Konzerne verdienen sich dumm und dämlich !
Ja, Adobe verdient sich am freien Acrobat Reader dumm und dämlich ... Und natürlich ist es extrem verwerflich, dass Firmen Geld verdienen ... Daher arbeiten wir Software Entwickler auch kostenlos und auf dem Web vom Office nach Hause setzen wir uns dann am Bahnhof noch für 2 oder 3 Stunden hin um etwas Geld für Essen und so zu erbetteln ...
 

White_Fox

Top Contributor
Nehmen wir einfach mal an, es gab in einer Woche wirkilch besonders viele Updates. Irgendwas ist in der Entwicklung gehörig schief gelaufen, irgendwer hat so richtig Mist gebaut und dieser Mist wurde versehentlich ausgeliefert. Und nun hat man in einer Woche eiligst versucht, das Ding zu reparieren und das öfter wiederholen müssen, weil etwas nicht beim ersten Mal geklappt hat.

Dann ist das meiner Meinung nach immer noch besser, als würde die Firma sich ewig Zeit lassen oder gar nichts tun.

Ich persönlich mag Adobe und deren Produkte so gar nicht, das gilt insbesonderen deren PDF-Reader, aber zuviele Aktualisierungen auszurollen würde ich keiner Firma vorwerfen. Und mit seiner Arbeit Geld verdienen zu wollen würde ich auch niemandem vorwerfen. Adobe ist ja nicht der Rundfunk, du mußt deren Produkte nicht benutzen und dann auch nicht bezahlen.
 

Sniper1000

Mitglied
Die Liste bei Adobe ist nicht aktuell. Seit 693 gab es dann eine 7xx, dann noch eine 7xx, dann noch eine. Aktuell 756.
Alles im September.
Daher die Frage.
Fehler und Korrekturen ?? Warum nicht gleich besser ??
Eventuell habe ich auch ein Verständnisproblem. Windows hat ja auch immer Updates. Ich habe nie verstanden warum.
Warum kann man nicht gleich sicher programmieren ??
Oder vergisst man was, Hacker nutzen dann eine Lücke, und man muss sie wieder stopfen ?
Also die Sicherheitsupdates.
Der perfekte Programmierer aber hat gar keine Lücken ! Also nur Funktionsupdates !
Richtig oder falsch ??
Oder Denkfehler ??

Für mich ist ein PC nur zum Arbeiten da. Schnell muss es sein. Für pdf nutze ich daher Sumatra.
Der Reader ist dennoch installiert.
 

mihe7

Top Contributor
Ich glaube, Du hast hier irgendwie eine falsche Vorstellung.
  1. Software ist unfassbar komplex. Niemand schreibt heute Software zu 100 % selbst (das wäre unbezahlbar). Deine Software ist also von vielen, vielen Dingen abhängig. Das fängt schon beim Betriebssystem an, dazu zählen dann auch die Treiber für die Hardware, und Bibliotheken für zusätzliche Funktionalitäten usw. D. h. selbst, wenn Dein eigener Code perfekt wäre (was es praktisch nicht gibt), bedeutet das noch lange nicht, dass die Software fehlerfrei läuft.
  2. Security ist ebenfalls unglaublich schwierig. Ein kleiner "Fehler", an einer Stelle, die scheinbar überhaupt nichts mit Sicherheit zu tun hat, kann bereits ausreichen, um Angreifern Tür und Tor zu öffnen. Ich schreibe das Fehler in Anführungszeichen, weil das nicht unbedingt Dinge sein müssen, die man vorhersehen könnte.
  3. Software soll sich (im Gegensatz zu anderen Gütern) ändern. Man möchte, dass die Software weiterentwickelt wird. Dafür legen Firmen im B2B-Bereich meist viel Geld auf den Tisch.
Ein Update enthält Änderungen, neue Features und/oder Bugfixes, die auch sicherheitsrelevant sein können.

Mal ein kleines Beispiel: Webbrowser wurden früher mehr schlecht als recht aktualisiert. Da lagen auf unterschiedlichen Rechnern Welten zwischen den Teilen und man musste über Jahre hinweg, so tolle Produkte wie den Internet Explorer (ich meine, es ging runter bis auf Version 6, oder war es 8, keine Ahnung) unterstützen. Das hat sich Gott sei Dank geändert: die Browser werden heute aktuell gehalten - und wer das nicht macht, hat halt Pech gehabt.

Nachtrag: weil Du Windows-Updates angesprochen hast, das können z. B. auch einfach mal Dinge wie Änderungen an den Zeitzonen sein. Oder auch Wurzel-Zertifikate der Zertifizierungsstellen, die dafür sorgen, dass die Seiten, die Du besuchst, auch wirklich auf dem angegebenen Server liegen. Die haben nämlich ein Verfallsdatum - was wiederum daran liegt, dass die Rechner leistungsfähiger werden und man die Sache sicher halten möchte. Das wären dann Updates, die in erster Linie neue Daten ausliefern.
 
Zuletzt bearbeitet:

Sniper1000

Mitglied
Ich glaube, Du hast hier irgendwie eine falsche Vorstellung.
  1. Software ist unfassbar komplex. Niemand schreibt heute Software zu 100 % selbst (das wäre unbezahlbar). Deine Software ist also von vielen, vielen Dingen abhängig. Das fängt schon beim Betriebssystem an, dazu zählen dann auch die Treiber für die Hardware, und Bibliotheken für zusätzliche Funktionalitäten usw. D. h. selbst, wenn Dein eigener Code perfekt wäre (was es praktisch nicht gibt), bedeutet das noch lange nicht, dass die Software fehlerfrei läuft.
  2. Security ist ebenfalls unglaublich schwierig. Ein kleiner "Fehler", an einer Stelle, die scheinbar überhaupt nichts mit Sicherheit zu tun hat, kann bereits ausreichen, um Angreifern Tür und Tor zu öffnen. Ich schreibe das Fehler in Anführungszeichen, weil das nicht unbedingt Dinge sein müssen, die man vorhersehen könnte.
  3. Software soll sich (im Gegensatz zu anderen Gütern) ändern. Man möchte, dass die Software weiterentwickelt wird. Dafür legen Firmen im B2B-Bereich meist viel Geld auf den Tisch.
Ein Update enthält Änderungen, neue Features und/oder Bugfixes, die auch sicherheitsrelevant sein können.

Mal ein kleines Beispiel: Webbrowser wurden früher mehr schlecht als recht aktualisiert. Da lagen auf unterschiedlichen Rechnern Welten zwischen den Teilen und man musste über Jahre hinweg, so tolle Produkte wie den Internet Explorer (ich meine, es ging runter bis auf Version 6, oder war es 8, keine Ahnung) unterstützen. Das hat sich Gott sei Dank geändert: die Browser werden heute aktuell gehalten - und wer das nicht macht, hat halt Pech gehabt.

Nachtrag: weil Du Windows-Updates angesprochen hast, das können z. B. auch einfach mal Dinge wie Änderungen an den Zeitzonen sein. Oder auch Wurzel-Zertifikate der Zertifizierungsstellen, die dafür sorgen, dass die Seiten, die Du besuchst, auch wirklich auf dem angegebenen Server liegen. Die haben nämlich ein Verfallsdatum - was wiederum daran liegt, dass die Rechner leistungsfähiger werden und man die Sache sicher halten möchte. Das wären dann Updates, die in erster Linie neue Daten ausliefern.
Genau das oder Ähnliches wollt ich ja wissen als bisher Nicht-Programmierer.
Ich war davon ausgegangen, dass man mit genügend Mühe und Aufwand eine fast perfekte Software programmieren kann.
Wenn nicht auf Funktion, da kann man ja nachbessern, siehe oben im Beitrag Treiber, unterschiedliche PCs, Bibliotheken etc pp
dann wenigstens auf Sicherheit.
Theoretisch wäre das wohl möglich, aber nur mit massivem Aufwand.
Aber man muss ja irgendwann was liefern und hat Fristen, und kann nicht Monate dafür brauchen oder ähnlich.
So war ich beim Reader davon ausgegangen, dass Fehler drin waren und dann mehrere Updates nacheinander im September
ausgeliefert wurden,
während es vorher Updates alle paar Monate gab.
 

Marinek

Bekanntes Mitglied
Am besten ist es, es einfach mal selbst zu erleben.

Programmiere mal mit EINEM COMMIT ein Programm in beliebiger Sprache, das die n-te Fibonaccizahl ausgibt und stell es hier online.
 
Zuletzt bearbeitet:

White_Fox

Top Contributor
Warum kann man nicht gleich sicher programmieren ??
Oder vergisst man was, Hacker nutzen dann eine Lücke, und man muss sie wieder stopfen ?
Also die Sicherheitsupdates.
Der perfekte Programmierer aber hat gar keine Lücken ! Also nur Funktionsupdates !

Auch Programmierer (und auch alle anderen Entwickler oder sonstwie Beteiligte) sind nur Menschen, haben mal einen schlechten Tag, tippen mal die falsche Taste, sitzen einem Mißverständnis auf, halten eine eigentlich völlig dumme Idee anfangs für richtig gut, leiden unter Betriebsblindheit, sind unkonzentriert, haben Streß bei der Arbeit, können nicht in die Zukunft blicken und haben noch allerlei andere Fehler.

Wer arbeitet schon perfekt? Ich selber bin nur Hobbyprogrammierer, habe ein kleines Open-Source-Projekt. Ich habe keine wirtschaftlichen Zwänge oder Termine, zu denen ich abliefern muß, und muß dennoch entscheiden ob ich eine bestimmte Funktion implementiere oder es bleiben lasse. Einerseits wäre es ja nützlich, aber wenn ich alles nützliche gleich einbaue wird das Programm nie fertig - und ich warte ja selber sehnsüchtig auf diese Software, weil ich sie bei meiner Arbeit brauche. Also Kompromiss: die perfekte Software irgendwann, oder aber eine rudimentäre Version mit der ich aber erstmal arbeiten kann?

Und manchmal muß man auch schlechte Entscheidungen treffen, obwohl man weiß daß diese schlecht sind und schlimme Folgen haben. Weil alle anderen Möglichkeiten noch schlechter sind. Beispiel: der Firma geht es gerade wirtschaftlich schlecht. Als werden Leute entlassen. Mit jedem Mitarbeiter, der entlassen wird, geht aber auch Wissen und Erfahrung der Firma verloren. Vor allem, wenn ein entlassener Mitarbeiter sich in einer bestimmten Sache gut auskannte und daher für seine Kollegen immer die Anlaufstelle bei bestimmten Problemen war.
Und dieses Wissen später wieder aufzubauen ist teuer, und es ist ungewiss ob es überhaupt klappt.
Was aber wäre die Alternative? Die Firma geht im Ganzen pleite. Also trifft man Entscheidungen, wohlwissend daß diese für die Zukunft unangenehme und nachteilige Folgen haben. Aber immerhin gibt es eine Zukunft.

Und manchmal sind Probleme, die während der Entwicklung auftauchen, auch einfach nicht gut zu lösen: Man hat sich für irgendein Framework oder eine Bibliothek entschieden die sich am Anfang vielversprechend anhörte, aber erst sehr spät große Unzulängllichkeiten offenbart hat. Also muß man um diese Unzulänglichkeiten irgendwie herumnavigieren.

Und manchmal fallen einem heute Dinge ein die man in ein bestehendes Programm gerne einbauen würde, an die vor 30 Jahren, als die Software ursprünglich mal geschrieben wurde, niemand gedacht hat und die sich im Nachhinein nur sehr schlecht integrieren lassen.

Und letztendlich gehen viele Murksentscheidungen auch gar nicht auf die eigentlichen Programmierer zurück, sondern entstehen schon lange vorher. Z.B. im Produktmanagement, wo Leute sitzen die von der Benutzung der Software keinerlei Ahnung haben und die wiederum Leute vom Kauf der Software überzeugen müssen, die genauso wenig Ahnung haben. So ein schönes Beispiel sind CAD-Programme: mit denen müssen Ingenieure arbeiten aber dort, wo entschieden wird welche Software genutzt wird, arbeiten diese Ingenieure nicht. Stattdessen hast du da irgendeinen oder mehrere Dullis zu sitzen die auf LinkedIn gerade zusehen, wie eine KI-Sau nach der anderen durch die Foren getrieben wird. Und dann hast du sieben verschiedene Softwareanbieter, von denen zwei ganz groß schreiben was für tollen KI-Kram sie da eingebaut haben. Ob die wohl beurteilen können daß deren KI-Funktionen entweder überflüssig sind oder schlecht funktionieren? Und ob die Software abseits von KI völliger Schrott ist? Oder ob die das überhaupt groß interessiert, immerhin müssen die nicht den ganzen Tag damit arbeiten, müssen die Entscheidung welche Software verwendet wird, in zwei Wochen treffen?
Jetzt mal die andere Seite: Da sitzt du als Produktmanager an der Roadmap, welche Funktionen das CAD-Software haben muß um konkurrenzfähig zu bleiben. Die KI-Säue auf LinkedIn siehst du auch. Eventuell weißt hast du sogar etwas Programmierhintergrund, kennst dich mit den Produkten auch aus, und weißt selber daß da oft nur viel warme Luft bewegt wird. Und du kennst das Supportforum zu deinem Produkt, wo alle naselang jemand schreibt daß sich deine Firma lieber auf Bugfixes beschränken möge, Funktionen und Werkzeuge hat es bereits mehr als genug, und KI will eigentlich auch niemand so recht. (Das ist so ungefähr die Position der meisten Altiumbenutzer, meinem Lieblings-CAD, wird im Hardwarebau eingesetzt.)
Jetzt weißt du aber auch: Du mußt die paar ahnungslosen Dullis, die bei deinen Kunden die Entscheidungen treffen, überzeugen. Sonst wird dein Produkt nicht gekauft. Es ist zwar so, daß in vielen kleinere Firmen (die von der Masse her mehr Umsatz bringen) die Ingenieure mehr Mitspracherecht haben oder wenigstens mal nach deren Preferenzen gefragt werden, je größer aber die Firma ist desto weniger kommt das vor. Aber: es vergeben normalerweise eher größere Firmen Aufträge an kleinere Firmen, und die bestehen in der Regel auf Benutzung von deren CAD-Programmen. Was der eine große Fisch im Teich benutzt, benutzen dann tendenziell auch alle anderen.

Und jetzt triff mal eine Entscheidung...
 

mihe7

Top Contributor
Ich war davon ausgegangen, dass man mit genügend Mühe und Aufwand eine fast perfekte Software programmieren kann.
Definiere "fast perfekt".

Mal ein kleines Beispiel: HTTP, das Protokoll, über das Browser mit Webservern kommunizieren, ist zustandslos: Der Browser sendet eine Anfrage an den Webserver, der diese unabhängig von vorangegangenen Anfragen verarbeitet und eine Antwort an den Browser sendet.

Kleines Problem: manchmal möchte man etwas wie eine "Sitzung" haben, d. h. einen Kontext, in dem Dinge für einen Anwender für die Dauer einer Sitzung gemerkt werden können (z. B. mit welchem Benutzer rede ich eigentlich, wie sieht der Warenkorb des Benutzers gerade aus und ähnliches).

Gelöst wird so etwas oft mit Hilfe von Session-Cookies. Das sind einfach Daten, die der Server dem Browser mitteilt, der diese dann bei jeder neuen Anfrage automatisch mitschickt. Man hat dann beispielsweise eine Login-Seite, der Anwender gibt Benutzername und Passwort ein, die werden an den Server geschickt (natürlich über eine verschlüsselte Verbindung), der Server authentifiziert den Benutzer und richtet eine Sitzung ein, die sich über eine ID eindeutig identifizieren lässt. Die ID wird dann in Form eines Session-Cookies dem Browser mitgeteilt. Kommt am Server eine Anfrage rein, weiß dieser anhand der Session-ID, welche Sitzung die Anfrage betrifft.

Gehen wir also davon aus, dass das alles perfekt umgesetzt wurde. der Login ist bombensicher, Sitzungsverwaltung fehlerfrei. Alles hervorragend.

Nun kommen findige aber böse Geister auf die Idee und sagen sich: oh, das ist ja hervorragend... Ich muss auf meiner Website eigentlich nur eine Anfrage an den Server meines Opfers stellen und - sollte das gerade angemeldet sein - wird die Anfrage auch schon in seinem Namen verarbeitet, weil der Browser ja automatisch das Session-Cookie mitschickt.

Jetzt könnte man sagen: Moment mal, das hätte man aber nun wirklich voraussehen können. Tja, das kann man im Nachhinein leicht sagen. Auf die Idee muss man erst einmal kommen, wenn man nicht auf der dunklen Seite der Macht steht. Und dann muss man das auch im historischen Kontext sehen: es gab Zeiten, da hatte man andere Probleme und war schon froh, dass man überhaupt etwas wie eine Sitzung hinbekommen hat (ich kann mich noch erinnern, da wurde das Thema in einer Computerzeitschrift mit Hilfe von cgi-bin (eine uralte Erweiterung, um Anfragen außerhalb des Webservers zu verarbeiten), Shell-Skripten und des Dateisystems gelöst. Es wurde für jede Sitzung ein Ordner angelegt und darin Dateien, die die Sitzungsdaten enthielten. Beim Abmelden - oder wenn die Sitzung abgelaufen war - wurden dann die Ordner gelöscht).
 

Sniper1000

Mitglied
Na immerhin !
So langsam kommt hier Licht ins Dunkel.......
Dass aber auch Windows schlecht programmiert sei, haben mir schon andere Programmierer früher erzählt.
Und dass MS an guten Programmierern spart wegen der Kosten.
Damit auch das Beta Testen der User mit den ganzen Previews.
 

KonradN

Super-Moderator
Mitarbeiter
Sorry, aber Deine ganzen Vorstellungen scheinen immer noch flach zu sein …

Wer soll denn wie testen? Und wer soll das bezahlen?

Wenn man sich agile Methoden anschaut, dann ist da das Ziel, dass Teams sehr schnell Änderungen veröffentlichen…

Software lebt davon, dass User teilweise Nightly Builds testen. So dass dann Dinge auffallen können, die dann behoben werden. Wenn etwas bei so Tests gut aussieht, dann wird es veröffentlicht, d.h. Es wird mehr Usern zur Nutzung gegeben. Und das wird dann nach und nach weiter verfolgt.

Windows ist schlecht programmiert? Sorry, aber woher kommen so Aussagen und auf was bezieht sich das genau?

Windows ist ein riesiges Sammelsurium an Software und nicht nur ein Produkt. Und die Kompatibilität, die aufrecht erhalten wird, sorgt für eine extrem hohe Komplexität. Und das alles nur, damit irgendwelche Leute auch heute noch VB6 Anwendungen nutzen können?

Andere verzichten auf sowas - Apple schmeißt nach sehr kurzer Zeit Funktionalitäten weg … bei Open Source ist es komplett egal.

Und die Entwickler von Microsoft schlecht reden halte ich für schlecht. Sorry, aber Microsoft hat auf Microservices gesetzt, da gab es den Begriff noch nicht einmal. Da hat Java noch Application Server Giganten genutzt als einzige Herangehensweise ….
Und Microsoft hat teilweise Teams unabhängig Produkte entwickeln lassen um dann das aus Ihrer Sicht bessere zu nehmen und das andere einzustellen … das zeugt nicht wirklich von zu massiven Sparen …

Also so schlecht kann MS teilweise nicht sein. So ein pauschales Urteil kann ich also nicht akzeptieren (wobei ich kein Freund von MS bin … ich habe da zu viel Schrott erlebt in meiner .Net Zeit … weshalb ich mich beruflich unentschieden hatte).

Und was mir zu denken gibt: nach eigener Aussage hast du von Programmierung keine Ahnung - aber bringst dann so Meinungen auf den Tisch?

Das Thema ist dann auch weniger die Programmierung sondern mehr das Thema QA und Projekt Management. Da muss man also auch gut unterscheiden. Wie viel QA wird wie durchgeführt …

Und ansonsten sind die Kunden selbst schuld - Geiz ist geil … wenn man kein Geld ausgeben will, dann bekommt man Scheisse … das sieht man bei allen Produkten. Du kannst Lebensmittelchemie im Discounter kaufen oder eben Qualität… ebenso bei der Software: Man kann Software entwickeln, die extrem gut funktioniert mit minimalen Ausfällen und so. Nur bist du bereit, das zu bezahlen? Mit Geld und Zeit? Die Masse ist dazu schlicht nicht bereit.

Und die einfachste Regel im Projektmanagement ist halt das Dreieck aus Qualität, Preis und Zeit. Du kannst Max zwei davon beeinflussen und das verändert dann zwingend den dritten Punkt.

Ich wäre da also auf jeden Fall deutlich differenzierter… und ich würde nicht so Positionen vertreten, wenn ich keine Ahnung habe, wovon ich rede ….
 

White_Fox

Top Contributor
Also so schlecht kann MS teilweise nicht sein.
Unabhängig von der Pauschalaussage würde ich eher sagen, es ist relativ egal wie schlecht Microsoft ist. Und egal, was man unter "schlecht" versteht. Oft kommt man da einfach nicht drumherum. Manche Programme – das oben erwähnte Altium z.B. – ist da so ein Paradebeispiel. Genauso wie die Office Suite. wenn mehrere Leute ein Dokument mit Libre Writer und Word gemeinsam bearbeiten kommt da nur Murks bei raus, und mit Excel und Libre Calculator wird es schnell so richtig schlimm.

Andererseits: Wenn man sich die AGBs von MS mal durchlesen würde, zu denen sich MS seit einigen Jahren erdreistet, dürfte MS in verantwortungsvoll geführten Firmen und vor allem in Behörden gar nicht verwendet werden.

Deshalb mache ich mich momentan frei. Meine Altiumlizenz habe ist gerade abgelaufen, außerdem stellt Altium gerade sein Lizenzmodell in Richtung Kundenunfreundlichkeit um - eine gute Gelegenheit, KiCAD mal auszuprobieren.
Statt Word benutze ich schon seit einer Weile Latex, und für meine Zwecke reicht Libre Calculator als Excelersatz. Für Emails Thunderbird, was an Outlook so toll ist habe ich noch nie verstanden.
Windows werde ich auf meinem Laptop wahrscheinlich behalten müssen, Linux scheint da nicht sehr freudig drauf zu laufen, aber auch das werde ich bei meinem nächsten Gerät beachten.

Sorry für das Abweichen vom Thema, das hat mit Programmierung natürlich nur wenig zu tun. Ist aber am Ende auch etwas, daß die Benutzererfahrung prägt.
 

Sniper1000

Mitglied
Meinung:
MS bringt immer neue BS heraus. Neue Hardware braucht man auch. Es geht ums Geld.
Anstatt ein älteres BS erst mal weiterzuentwickeln und zu perfektionieren.
Ich sehe auf den neueren BS immer wieder dieselben Fehler, besonders, wenn sie länger laufen.
Für mich war Windows 2000 perfekt und schnell. Man hätte es weiter entwickeln können.
7 war auch sehr gut. Hätte man auch weiter entwickeln können. 8 war schlecht, dann 8.1.
Linux ist auch nicht fehlerfrei. Hatte besonders auch immer wieder Probleme mit dem Dateisystem,
Defekte.
Hätte noch ein anderes rein technisches Problem mit einem Windows System, halbe Wissenschaft.
Aber off topic gibt es hier ja eigentlich nicht.
Die Windows Foren taugen nicht mehr viel, Technet ist weg.
Gibt nur noch eine gute internationale Foren, wo man aber bezahlen muss.
MS Community hat wenig Niveau.
VG.
 

White_Fox

Top Contributor
Anstatt ein älteres BS erst mal weiterzuentwickeln und zu perfektionieren.
Aber genau das tut MS doch. Windows 10 und 11 sind auch nur Weiterentwicklungen der jeweils vorangegangenen Version, das wurde garantiert nicht von Grund auf neu geschrieben.
MS legt da nur jeweils eine neue Bedienoberfläche drüber, die – das stimmt leider – nicht immer unbedingt ein Fortschritt sind, die gesamte Benutzerführung aus Taskmenü, Kontextmenü, Explorer kann in Windows 11 viel weniger als in Windows 10 und sieht dabei auch noch schlecht aus. Diese mädchenhaft abgerundeten Ecken überall...schrecklich. Andererseits könnte ich mich an keine Windows-Version erinnern, bei der nicht jemand laut über das neue Design gejammert hätte.

Von dem was unter der Haube neu ist, bekommen die meisten Benutzer meistens gar nichts mit.
 

Sniper1000

Mitglied
Aber genau das tut MS doch. Windows 10 und 11 sind auch nur Weiterentwicklungen der jeweils vorangegangenen Version, das wurde garantiert nicht von Grund auf neu geschrieben.
MS legt da nur jeweils eine neue Bedienoberfläche drüber, die – das stimmt leider – nicht immer unbedingt ein Fortschritt sind, die gesamte Benutzerführung aus Taskmenü, Kontextmenü, Explorer kann in Windows 11 viel weniger als in Windows 10 und sieht dabei auch noch schlecht aus. Diese mädchenhaft abgerundeten Ecken überall...schrecklich. Andererseits könnte ich mich an keine Windows-Version erinnern, bei der nicht jemand laut über das neue Design gejammert hätte.

Von dem was unter der Haube neu ist, bekommen die meisten Benutzer meistens gar nichts mit.
Ich meine man hätte zum Beispiel 2000 oder 7 äußerlich so lassen können und weiterentwickeln. 2000 z.B. mit Wiederherstellungspunkten wie XP und folgende.
2000 war superschnell. 7 auch, relativ. 8.1 noch dann wurde es immer langsamer. Und überfrachtete Funktionen.
Sieht man auch bei den Browsern. Sie müssen alles können, nicht mehr schlank, nicht mehr schnell.
Und per MS immer mehr Überwachung und Daten sammeln.
Neue Hardware braucht man dafür auch.
Für mich war und ist ein PC und BS immer noch zum Arbeiten da, kein Selbstzweck. Keine Ablenkung und Verführung durch Effekte und Spielereien.
Sehen viele anders. Ist eben ihr Leben.
Ich game auch nicht. Keine Zeit dafür
Weiterentwicklung also intern, viele wissen es nicht oder merken es nicht, eben normale User.
Ich weiß nicht, ob es echte Weiterentwicklung ist. Andere wissen da vielleicht mehr.
Aber das gesamte Windows hat dennoch immer wieder Probleme, wer checkt das gesamte BS ??
Quellcode ??
Diese Konzerne haben so viel Geld, sie könnten perfektionieren sicher mit viel Aufwand.
Der kleine Privatentwickler ist da doch wohl was ganz anderes.
Wie oft will man ein BS nutzen, muss aber schon mal wieder was reparieren.
Wie viel Zeit geht für Wartung drauf von der Nutzungszeit ??
Wäre dann wie ein Auto, womit man zur Arbeit fahren muss, aber meist wird am Motor gebastelt.
Man kommt also gar nicht immer zur Arbeit !
Gut, die, die mit PC und Software Geld verdienen, die sehen das anders, das ist eben deren Job.
So ungefähr. Andere sehen es anders. Jedem das Seine !
 

mihe7

Top Contributor
MS bringt immer neue BS heraus. Neue Hardware braucht man auch. Es geht ums Geld.
Ja, Microsoft ist ein Unternehmen, da geht es natürlich ums Geld.

Bzgl. der Abhängigkeit von Hard- und Software ist es ein Art Teufelskreis. Unser erster PC Zuhause war ein 8086 mit standardmäßigen wahnwitzigen 640 KB RAM und 5,25" Floppy, ich glaube, er hatte sogar schon EGA-Grafik. Hinzu kam noch ein 3,5" Floppy-Laufwerk, weil man ansonsten nur noch am Disk-Wechseln gewesen wäre. Ach, so: Takzfrequenz 8 MHz. Was willst Du auf so einer Kiste machen? Textverarbeitung (Schreibmaschinenersatz), Buchhaltung, vielleicht noch Tabellenkalkulation oder einfache Datenbanken und natürlich ein paar Spiele...

Kurz: das Ende der Ressourcen ist auf so einem System natürlich ziemlich schnell erreicht, also gibt es einen Bedarf an besserer Hardware. Dann kamen 286er, VGA-Grafik und RAM im Megabyte-Bereich. Das eröffnet neue Möglichkeiten und es gibt entsprechende Software. Dort läuft dann z. B. ein Windows 3.x. Problem: die Ausnutzung der neuen Möglichkeiten geht mit einem verstärkten Ressourcenbedarf einher - und der Kreis beginnt von vorne.

Anstatt ein älteres BS erst mal weiterzuentwickeln und zu perfektionieren.
Auch das hängt mit der Hardware zusammen. Für ein stabiles Multitasking-Betriebssystem braucht man eine CPU mit bestimmten Features. Die gab es erst mit dem 386er. Damit einher ging auch der Wechsel von 16 auf 32 Bit. Das sind fundamentale Änderungen, die Neuentwicklungen der Software nach sich ziehen.

Für mich war Windows 2000 perfekt und schnell. Man hätte es weiter entwickeln können.
7 war auch sehr gut. Hätte man auch weiter entwickeln können. 8 war schlecht, dann 8.1.
Tatsächlich sind das alles Weiterentwicklungen von Windows NT 😉.

2000 war superschnell. 7 auch, relativ. 8.1 noch dann wurde es immer langsamer. Und überfrachtete Funktionen.
Siehe oben: neue Hardware, neue Möglichkeiten, mehr Ressourcenbedarf. Und dann kommt natürlich noch Marketing hinzu.

Ist bei Linux-Distributionen übrigens ähnlich. Ich hatte hier ein Notebook, auf dem lief Ubuntu. Dann kam Canonical mit ihrem Unity um die Ecke - danach war das Notebook praktisch unbedienbar, weil die Hardware den Grafikeffekten nicht gewachsen war.

Sieht man auch bei den Browsern. Sie müssen alles können, nicht mehr schlank, nicht mehr schnell.
Das ist so ähnlich wie bei der Hardware. Software läuft (aus guten Gründen) verstärkt im Browser und dementsprechend steigt der Bedarf an Funktionalität.

Wie oft will man ein BS nutzen, muss aber schon mal wieder was reparieren.
Seit Windows 7 muss ich sagen, dass ich kein Problem mehr mit dem BS hatte. Wenn, dann war es ein Hardwaredefekt (Festplatte oder RAM hinüber).

Gibt's was zu bemängeln? Klar. Zwei Dinge stoßen mir aktuell auf:
  1. Ungefragte Neustarts bei Updates. Ich weiß nicht, was man sich dabei denkt, Programme abzuwürgen - mit entsprechendem Datenverlust - um irgendwelche Updates einzuspielen. Erst vor ein paar Tagen, wieder das Popup: "Updates werden außerhalb der Nutzungszeit eingespielt". Da wird man ja freundlicherweise noch gefragt. Ich sage "nein, nicht jetzt, später". Ein paar Minuten später habe ich den Rechner für ein paar Minuten verlassen, komme zurück und was sehe ich? Updates eingespielt, Rechner neu gestartet. Sorry, aber so etwas geht gar nicht.
  2. Windows 11 Startmenü bzw. die Suche. Prinzipiell gefällt es mir gut, dass die Tastatur verstärkt in den Fokus rückt - und wenn die Suche funktioniert, dann ist das wirklich eine schöne Sache. Problem: es kommt relativ häufig vor, dass die Suche eben nicht funktioniert und man Minuten lang rumscheißen muss, bis das Fenster reagiert.

Aber off topic gibt es hier ja eigentlich nicht.

Meinst Du hier im Forum? -> Plauderecke.
 

KonradN

Super-Moderator
Mitarbeiter
Ungefragte Neustarts bei Updates.
Also Neustarts habe ich eigentlich bei System-Updates generell. Also mein Linux-Server starte ich einmal durch, nachdem ich das System aktualisiert habe. (Hier bitte unterscheiden: System und Anwendungen. Das wird bei Linux immer gerne massiv durcheinander geworfen!) Beim Mac ist das auch zwingend notwendig. Hängt vermutlich mit dem geschützten Bereich auf der Platte zusammen, in dem das OS selbst liegt.

So gross sind daher die Unterschiede nicht wirklich. Microsoft hat halt als ein Unterschied, dass Dateien in Benutzung gesperrt sind. Auf den Unix-artigen Systemen ist es egal. Eine Datei, die in Benutzung ist, kann man dennoch löschen und so und dann bleibt die Datei auf der Platte existent, bis der Zugriff beendet wurde und wird vorher halt aus dem Verzeichnis heraus genommen... Das vereinfacht das Update von Anwendungen etwas - man kann halt Binaries und Co überschreiben mit neuen Versionen...

Diese Anforderung ist aber in meinen Augen auch etwas befremdlich. Warum kann ich ein System nicht neu starten? Das Problem sind doch wenn überhaupt nur Services, die bereitgestellt bleiben sollen. Und dafür gibt es genug Lösungen. Schon vor zig Jahren war es möglich, ganze virtuelle Systeme während sie liefen von einem System auf ein anderes zu verschieben (Vmware vSphere / ESX mit vMotion, 2003 oder so eingeführt. Deutlich nach 2003 aber vor 2020 hatten wir schon mit Windows Servern ein Verbund aufgebaut, bei dem alle lokale Platten zu einem virtuellen Speicherplatz wurden und VMs auch einfach so verschoben werden konnten und so ... und das war mal eben so im Labor mit einem Enclosure und 8 Blades von und nebenbei aufgebaut für unsere Entwicklungsumgebung.... Also alles kein Hexenwerk! ... Mit Kubernetes und Co kenne ich mich nicht so sehr aus, aber auch da ist das doch mehr oder weniger direkt ähnlich möglich ...).

Aber das sind ja auch nur Anforderungen an Server ... macOS und Windows 10/11 sind ja nicht einmal für Server vorgesehen. Dann werden die halt neu gestartet. Das stört doch nicht, denn man hat doch genug Zeiten, in denen man diese nicht nutzt. Und wenn es sich um kritische Arbeitsplätze handelt: Dann gibt es doch entsprechende Ausweichsysteme. Sprich: Es gibt eine Redundanz.... (Alleine weil es ja ganz andere Ausfälle gibt als ein geplanter Reboot).
 

White_Fox

Top Contributor
Weiterentwicklung also intern, viele wissen es nicht oder merken es nicht, eben normale User.
Ich weiß nicht, ob es echte Weiterentwicklung ist. Andere wissen da vielleicht mehr.
Nur mal ein Beispiel: Speicherverwaltung.
Wenn man in einer hardwarenahen Sprache wie C oder C++ programmiert, muß man beim Betriebssystem speicher alloziieren, bzw. der korrekte Fachbegriff lautet "erbetteln". (Der Befehl dazu lautet übrigens malloc, wie memory allociate, und liefert bei Erfolg die Startadresse auf den beantragten Speicherblock.)
Und wenn man diesen Speicher nicht mehr braucht, dann gibt man ihn zurück, und das Betriebssystem kann den Speicherbereich erneut vergeben. So zumindest die Theorie.

In der Praxis war es dann ein beliebter Programmierfehler daß man vergessen hat den Speicher wieder freizugeben. Der Speicher wurde dann zwar vom Programm belegt, aber nicht mehr benutzt. Ganz besonders lustig wurde es dann, wenn das Programm für wiederkehrende Aufgaben immer wieder Speicher reserviert hat ohne ihn wieder freizugeben, das sogenannte Speicherleck. Dann war der Speicher irgendwann voll, der Rechner schmierte ab, der Benutzer mal wieder erfreut.

Heute gibt es das nicht mehr: Windows bekommt es mittlerweile mit daß ein Programm geschlossen wird und räumt auch den von ihm belegten Speicher selber wieder frei. Und kümmert sich mittlerweile auch darum, daß Programme nicht in Speicherbereiche schreiben oder lesen können, die sie nix angehen, auch das war mal möglich. Oder lagert Speicherbereiche, auf denen länger nichts mehr geschrieben oder gelesen wurde, auf die langsamere Festplatte/SSD aus, damit der schnellere RAM für Programme da ist die ihn dringender brauchen.

Davon bekommt der normale Benutzer natürlich nichts mit und die meisten könnten damit auch nichts anfangen selbst wenn man es ihnen erklärt, und trotzdem bist du froh daß du es hast. Auch wenn du das nicht weißt. Oder was würdest du sagen, wenn jedes x-beliebige Programm den RAM durchcrawlen könnte und den Speicherbereich für deinen Internetbrowser, an dem du gerade dein Onlinebanking durchführst, gemütlich durchstöbern könnte? Oder, noch besser, die Daten ändern könnte? Z.B. die Empfängerdaten der Überweisung überarbeitet, nachdem du auf Absenden gedrückt, aber bevor die Daten wirklich rausgegangen sind?

Oder, auch so etwas was kaum einem auffällt: Wann hast du zum letzten Mal eine Treiber-CD in deinen Rechner geschoben? Es gab mal Zeiten, da hat man für jeden Scheiß - sogar für Kleinkram wie USB-Sticks, Mäuse, Tastaturen - noch eine Treiber-CD bekommen. Und die oft auch tatsächlich noch gebraucht. Und wenn man die Treiber-CD nicht mehr hatte - und auch die auch im Internet nicht suchen konnte weil der Rechner gerade Windows neu aufsetzt - wurde es spaßig. Manches war früher wirklich besser, aber das gehört sicher nicht dazu.

Wie gesagt, man kann MS wirklich viel vorwerfen, und ich sehe ja auch nicht umsonst zu daß ich davon nach und nach wegkomme. Aber ich habe schon ziemlich lange keinen Bluescreen mehr gesehen, das hat sich ab Windows XP mit Servicepack 2 ziemlich gebessert. Und ich habe schon ziemlich lange Windows nicht mehr komplett neu installiert, weil ein Programm irgendetwas unreparabel zerschossen hat oder sich zuviel Mist überall angesammelt hat. Seien wir mal ehrlich: selbst wenn MS nächstes Jahr das perfekte Windows ohne jeden Fehler, frei von jeder Sicherheitslücke, abschaltbaren Updates und ohne Benutzerüberwachung rausbringen würde, würden immer noch genug Leute meckern.

Gerade bei Software gehört Schimpfen ja zum guten Ton. Macht ja schließlich jeder so. Aber ich finde, man sollte lieber dann meckern wenn man die Lage auch halbwegs selber beurteilen kann, alternativ kann man auch fragen. Es ist ja nicht so, daß alles von MS für den Kunden gut und sinnvoll ist. Aber dann bitte konkret auf etwas eindreschen, nur dann ergibt es Sinn und macht überhaupt erst so richtig Spaß.

Und sei froh, daß du bei MS die Wahl hast ob du es kaufen/benutzen willst oder nicht. Stell dir vor, du müßtest jeden Monat 18,36€ bezahlen, völlig egal ob du es benutzt oder nicht. Ich bin mit Kapitalismus und Marktwirtschaft in der Hinsicht sehr zufrieden. Das Firmen Geld verdienen wollen, ist völlig ok. MS ist zwar ziemlich groß, die können es sich noch ziemlich lange leisten ihren Kunden zu mißfallen, aber auch Microsoft wird das nicht ewig können. Kein Monopo hält ewig, und bei Software ist es besonders schwer ein Monopol zu halten.
 

White_Fox

Top Contributor
Aber das sind ja auch nur Anforderungen an Server ... macOS und Windows 10/11 sind ja nicht einmal für Server vorgesehen. Dann werden die halt neu gestartet. Das stört doch nicht, denn man hat doch genug Zeiten, in denen man diese nicht nutzt. Und wenn es sich um kritische Arbeitsplätze handelt: Dann gibt es doch entsprechende Ausweichsysteme. Sprich: Es gibt eine Redundanz.... (Alleine weil es ja ganz andere Ausfälle gibt als ein geplanter Reboot).
Ich habe mihe7 so verstanden: Ein Update steht in der Warteschlange. Du arbeitest an deinem Rechner ganz normal und stehst irgendwann auf, um dir einen Kaffee zu holen. Dann triffst du in der Kaffeeküche einen Kollegen, und quatschst mit dem ein Weilchen. Und wirst danach ins Büro vom Chef zitiert...

Nach 20min kommst du wieder, und da hat Windows das Update ganz von alleine angestoßen, alle Programme gewaltsam beendet und sämtliche Arbeit vernichtet, seitdem du das letzte Mal gespeichert hast.

Und da hat mihe7 völlig Recht, das ist schlicht inakzeptabel.
 

KonradN

Super-Moderator
Mitarbeiter
Ich habe mihe7 so verstanden: Ein Update steht in der Warteschlange. Du arbeitest an deinem Rechner ganz normal und stehst irgendwann auf, um dir einen Kaffee zu holen. Dann triffst du in der Kaffeeküche einen Kollegen, und quatschst mit dem ein Weilchen. Und wirst danach ins Büro vom Chef zitiert...

Nach 20min kommst du wieder, und da hat Windows das Update ganz von alleine angestoßen, alle Programme gewaltsam beendet und sämtliche Arbeit vernichtet, seitdem du das letzte Mal gespeichert hast.

Und da hat mihe7 völlig Recht, das ist schlicht inakzeptabel.
Sorry, aber das ist eine Frage der Konfiguration! Das ist kein Standard Verhalten von Windows.

Und Änderungen, die nicht gespeichert wurden, gehen verloren? Sorry, aber das ist dann eine Frage der Software! Automatische Speicherungen zur Wiederherstellung sind nun wirklich kein Hexenwerk. Und wie lange gibt es das schon? Wer scheiss Software verwendet oder Software schlicht schlecht konfiguriert hat, der sollte das nicht dem Betriebssystem vorwerfen.

Also ich habe sowohl Windows, Linux als auch macOS im Einsatz. Und Ihr entwerft Szenarien, die sind einfach fern von jeder Praxis. Zumindest die Praxis, die ich bisher so kennen gelernt habe. Ok, stimmt nicht ganz: Die erzwungenen Updates kenne ich doch - aber die kommen vom Unternehmen und da werden Updates teilweise hart erzwungen. Aber da haben wir die typischen Mechanismen: Ich werde informiert und habe x Stunden oder Tage Zeit für das Update. Aber da sind es dann klare Vorgaben des Unternehmens....

Man kann an Windows sehr viel kritisieren und vieles ist schlicht schlecht. Aber man muss doch bitte bei Tatsachen bleiben, wenn man Kritik äussert. Ansonsten verliert man jede Glaubhaftigkeit. Und es gibt wirklich genug Kritikpunkte an Microsoft und/oder Windows.
 

White_Fox

Top Contributor
Sorry, aber das ist eine Frage der Konfiguration! Das ist kein Standard Verhalten von Windows.
Doch. Das war zumindest das Standardverhalten von Windows 10. Man hatte zwar ein paar Tage Zeit (ich habe meinen Rechner stets in den Ruhezustand geschickt anstatt ihn komplett abzuschalten), aber danach hat Win dann doch eigenmächtig einen Neustart erzwungen. Ich habe dann irgendwann angefangen, Updates balidgst durchzuführen und es nicht mehr so weit kommen lassen, unter Win11 habe ich es noch nie ausprobiert ob es das noch macht. Wie man das abschalten kann, habe ich nicht herausgefunden.

Daß das aber kein Standartverhalten von mindestens Windows 10 war, ist schlicht falsch. Das, was kein Standardverhalten war, ist die Verfügbarkeit des Ruhezustands auf meinem Gerät. Standard ist Herunterfahren, Neustart und Standby, Ruhezustand mußte ich sowohl bei Win10 als auch bei Win11 selber wieder freischalten.

Und Änderungen, die nicht gespeichert wurden, gehen verloren? Sorry, aber das ist dann eine Frage der Software! Automatische Speicherungen zur Wiederherstellung sind nun wirklich kein Hexenwerk. Und wie lange gibt es das schon? Wer scheiss Software verwendet oder Software schlicht schlecht konfiguriert hat, der sollte das nicht dem Betriebssystem vorwerfen.
Was soll ein Programm denn machen, wenn du es gewaltsam beendest? Klar kann man eine Art Notspeichervorgang vor dem Programmabruch in eine Software einbauen. Oder alle 15min automatisches Speichern. Aber das sind halt Krücken, die Wurzel ist daß das Betriebssystem Dinge tut die der Benutzer nicht autorisiert hat.
Öffne doch einfach mal eine Reihe von Programmen, am besten Nicht-MS-Programme, und öffne irgendwelche Dateien. Und dann, während lauter Programme offen sind, befielst du Windows 10 den Neustart. Windows fragt zwar noch ob man wirklich fortfahren will, denn es sind ja noch Programme offen und nichtgespeicherte Daten könnten verloren gehen. Und zeigt dann eine Liste mit den Programmen, die noch offen sind. Und dann kannst du zugucken wie Windows all diese offenen Programme killt - mein sonst so lahmer Laptop war damit meist richtig schnell - und meist sind dann alle Programme bereits gestorben bevor man sich für einen Abbruch entscheiden konnte. Außer der Windows Explorer, der wurde eigentlich immer verschont und manchmal hat der Firefox noch überlebt.

Ich habe, um Updates einzuleiten, meinen Rechner dann oft genug auf diese Art heruntergefahren weil ich zu faul war, zwei Handvoll Programme zu schließen und habe das oft genug gesehen.

Ok, stimmt nicht ganz: Die erzwungenen Updates kenne ich doch - aber die kommen vom Unternehmen und da werden Updates teilweise hart erzwungen.
Nein, die kommen auch von Microsoft. Ich rede hier ausschließlich von meinen Privatgeräten.


Kleiner Nachtrag zur Erklärung: Mein alter Windows10-Laptop hatte eine Festplatte und war auch sonst relativ schwachbrüstig, auch wenn der für seine Klasse übermäßig viel RAM hatte. Da haben Updates und Systemstarts immer ziemlich lange gedauert, weshalb ich das vermieden habe so gut es ging.
Bei meinem Win11-Laptop war das anders, da geht das alles deutlich schneller, und deshalb schiebe ich Updates nicht mehr so lange auf, das ist normalerweise in <5min erledigt, weshalb ich dem schon länger nicht mehr begegnet bin. Trotzdem bleibe ich dabei, daß derartiges inakzeptabel ist.
 
Zuletzt bearbeitet:

mihe7

Top Contributor
Sorry, aber das ist eine Frage der Konfiguration! Das ist kein Standard Verhalten von Windows.
Naja:

1759785523571.png1759785558781.png

Ich wurde gefragt und wenn ich sage: nö, jetzt bitte kein Update einspielen, dann sollte das System nicht 10 Minuten später den Rechner neustarten, um das Update abzuschließen. Gut, "jetzt" ist natürlich Auslegungssache 🤣 Ich finde es generell ein Unding, dass ein System neugestartet wird, wenn ungespeicherte Dokumente offen sind. Ganz unabhängig von den Einstellungen. Noch dazu, seit es Zwangsupdates gibt.

Und: das ist nicht das erste Mal - was ich da schon geflucht habe. Auf meinem Notebook von der Arbeit war das noch besser. Da bist Du am Arbeiten, gehst kurz Kaffee holen, kommst zurück und plötzlich ist der Rechner neu gestartet und dabei, Updates einzuspielen. Der einzige Vorteil: bei Win 11 speichert Notepad die Änderungen. Meistens zumindest.

Aber irgendwie war der Leidensdruck noch nie so groß, dass ich mich ernsthaft darum gekümmert hätte...
 

KonradN

Super-Moderator
Mitarbeiter
Also die Erfahrungen, von denen ihr berichtet, hatte ich so schlicht nie …
White Fox habe ich so verstanden, dass er einige Zeit Updates ignoriert hat? Mein Rechner läuft ansonsten auch durch und wird von mir bei Updates neu gestartet … bzw. der Firmenrechner ist da etwas aggressiver dank Policies …

Und das Verhalten einer Anwendung kann man sich z.B. bei Notepad++ ansehen… das ist meine Sammlung an Notizen mit einigen „neu“ Tabs, die ich nie speichere und die immer da sind - auch nach Neustarts.

Aber das hat MS Office seit Jahrzehnten … IntelliJ habe ich etwas eingestellt meine ich - das hatte da auch teilweise nicht schnell genug gespeichert … aber ich erwarte, dass Inhalte regelmäßig gespeichert werden … was habe ich mich schon über das Forum geärgert, weil ich viel geschrieben habe, dann war der Fokus nicht im Eingabefeld und die Rückschritt-Taste hat mich dann eine Seite zurück gebracht und viele Minuten Schreibarbeit waren weg … und ja, das geht besser :)

Aber wie dem auch sei: Plötzliche Reboots sollten nicht sein, ja. Aber wie gesagt: da erwarte ich eigentlich eine Konfiguration und ich kann mir nicht vorstellen, dass dies einfach so ein Default ist … White Klang nach einem längeren ignorieren…. Da kann ich es mir vorstellen … und mihe7 klingt nach Policy / Software Distribution Tool, das da zuschlägt …

Ich kann morgen mal in meiner Windows 11 Container VM schauen, was da für Einstellungen sind - da habe ich 100% Default (von WinBoat).
 

mihe7

Top Contributor
Und das Verhalten einer Anwendung kann man sich z.B. bei Notepad++ ansehen… das ist meine Sammlung an Notizen mit einigen „neu“ Tabs, die ich nie speichere und die immer da sind - auch nach Neustarts.
Ich weiß, aber mit Notepad++ konnte ich mich noch nie anfreunden. Und ja, genau um solche Notizen geht es.

Mit der IDE hatte ich bezüglich der Neustarts eigentlich nie ein Problem, da ich dort sowieso ständig speichere. Da nervt der Neustart nur.

Ich kann morgen mal in meiner Windows 11 Container VM schauen, was da für Einstellungen sind - da habe ich 100% Default (von WinBoat).
Kannst Du gerne mal machen. Das oben war Win 10, das Arbeitstier ist Win 11.

So, und jetzt mal zurück zum Thema :)
 

White_Fox

Top Contributor
White Fox habe ich so verstanden, dass er einige Zeit Updates ignoriert hat?
Ja, einige Tage vielleicht. Wie gesagt: Rechner nicht herunterfahren, sonden nur in den Ruhezustand schicken und daraus wieder hervorholen. Und den Ruhezustand hat MS per Werkseinstellung ja deaktiviert.
Warum MS den Ruhezustand seit Win10 werksseitig deaktiviert hat, darüber kann ich nur spekulieren. Im Standby habe ich zwei oder dreimal beobachtet, daß mein Win10-Laptop sich ungefragt von selbst eingeschaltet hat und dann aber gleich wieder eingeschlafen ist. Warum...keine Ahnung, wer weiß? Ich weiß es nicht. Im Ruhezustand geht sowas nicht, und da kann der Rechner ja auch nicht mal kurz über WoE oder ähnlichem angetriggert werden, und irgendein Schlummerprozess (falls es überhaupt Prozesse gibt die auch während des Standby ausgeführt werden können) kommt da ja auch nicht mehr durch, da ist er ja wirklich aus. Technische Gründe kann ich mir da auch kaum vorstellen. Kein Update kann so wichtig sein, daß es sofort eingespielt werden muß. Es geht hier immerhin um Privatrechner von Privatleuten. Da hängen keine Millionenwerte oder Menschenleben dran.
Ich sehe bei MS allerdings einen gewissen Hang, die Benutzer möglichst umfassend zu kontrollieren. Nicht nur daß sich deren AGBs so lesen, als betrachte MS meine Hardware als deren Eigentum und lassen sie mich gnädigerweise nutzen. Und solche Dinge wie WaaS treiben die auch Scheibchen für Scheibchen weiter voran.
Vielleicht bin ich ja paranoid, aber nur weil man paranoid ist heißt das ja nicht daß sie nicht hinter einem her wären. ;)

Notepad++ ist in der Tat sehr robust gegen Datenverlust und allem möglichen. Aber ich kenne sonst kein Programm, daß ein derartig penetrantes Hintergrundbackup macht. Sehr löblich, aber gewiss kein Standard.
 

KonradN

Super-Moderator
Mitarbeiter
Also das Verhalten, das Du beschreibst, ist zumindest teilweise bekannt: Windows teilt halt mit, dass ein Update installiert wurde und man soll den Rechner neu starten. Den Zwangsreboot kenne ich vermutlich nicht, weil ich es nicht darauf ankommen gelassen habe.

Aber ja, da hat Microsoft halt diese Arbeitsstunden in der Konfiguration und ausserhalb dieser wird dann auch ein Reboot durchgeführt.

Das Verhalten von @mihe7 sehe ich als von der Firma ausgelöst an. Dazu kann ich nicht viel sagen - ggf. einmal nach den Vorgaben des AG schauen, was da geschrieben wurde. In D ist sowas oft gut dokumentiert und vom Betriebsrat abgesegnet ... Aber ja, das ist durchaus unschön und sollte nicht sein - da waren wir uns aber auch schon einig. Der Punkt, bei dem ich vor allem widersprochen habe, war ja, dass ich in der Anforderung eines Reboots bei einem Update nichts schlimmes sehe. Die Umsetzung mag evtl. problematisch sein, wenn ich @mihe7 so höre, aber wenn man mehrere Tage aufgefordert wird, den Rechner zu booten? Da sehe ich die Problematik nicht wirklich. Maximal die Einstellungsmöglichkeiten sind zu mangelhaft (Aber das ist bei Windows 11 doch generell so... Einstellungen gibt es, Systemsteuerung, Gerätemanager, ... Wieso das nicht mal sauber vereinheitlicht wird, kann ich nicht nachvollziehen...)

Was die Anwendungen angeht: Ich kenne es noch von MS Office. Aber ich achte bei Software generell, dass da eben nicht geleistete Arbeit verloren gehen kann. Und ich habe eigentlich keine Software, bei der ich wirkliche Probleme habe, wenn der Rechner abstürzt oder so ... (Reicht ja schon, dass ich remote per X11 Forwarding eine Anwendung auf meinem Rechner nutze und die Netzwerkverbindung ist dann weg ... )
So wie bei Notepad++ hat man es ggf. nicht überall, aber ich sehe es in einer sehr guten Umsetzung bei aller Software, die ich so nutze, den sonst würde ich mir auch was anderes suchen. (Vom Forum mal abgesehen, wobei auch da ja teilweise Entwürfe gespeichert werden.... klappt nur leider nicht immer) Aber ich habe natürlich auch nur eine sehr begrenzte Auswahl an Software, die ich nutze....

Ansonsten sehe ich das mit den Bedingungen und so durchaus ähnlich. Das hat ja nichts mit paranoid zu tun. Nach Snowden sollte klar sein, um was es hier geht. Und ich verstehe nicht, wieso Linux Initiativen wie LiMuc in München eingestellt wurden. Hier müsste alleine schon aus Datenschutzgründen deutlich mehr erfolgen.... Aber das ist wieder ein anderes Thema. (Und Linux ist derzeit auch nicht wirklich eine runde Lösung. Weshalb ich derzeit privat vor allem bei Mac bin und Linux nur auf dem Server nutze - aber auch mit einer VNC Session und Windows Session wobei letztere Dank winboard in Docker läuft .... das muss ich mit der VNC Session auch noch machen und die Desktop und Co Pakete vom Server schmeissen ....)
 

Ähnliche Java Themen


Oben