Ich hatte diesen Monat ja mal für einige Tage ein aktuelles Notebook aus der Firma zum allgemeinen Rumprobieren daheim. Prozessor mit 2,1 Gigahertz. Arbeitsspeicher mit 4 Gigabyte RAM. Spiegelndes Display mit 1600x900er Auflösung. ATI-Radeon-Karte. Ein mit Tippfehlern übersähtes Faltblättchen namens „Handbuch“. Und last but not least ein 64-bittiges Windows 7 Home Premium. Was es mir wieder sehr deutlich gezeigt hat, ist meine persönliche Imkompatibilität mit so manchen Dingen des modernen Zeitgeistes.

Und dazu wollte ich eigentlich auch mehr schreiben, aber am Ende fiel mir kaum etwas ein. Ich habe mit etlichen aktuellen Programmen, Medienkram, DVDs und Effekt-Daddeleien rumprobiert. Am Ende stand der Eindruck, daß es ein uninteressantes und unpersönliches System ist – und eben auch ein Produkt von öden Sprüchlein wie „Arbeitsspeicher ist durch nichts zu ersetzen, außer durch noch mehr Arbeitsspeicher“ oder dem berüchtigten „Wer nicht mit der Zeit geht, geht mit der Zeit“. Wie langweilig.

Ist es eigentlich mittlerweile üblich, daß sich Betriebssystem und Programme gleich nach dem Erststart mit irgendwelchen Servern verbinden wollen? Hallo? Wenn es mein privates Notebook wäre, dann wäre es für mich z.B. ein individueller Ort, um unterwegs Gedanken zu sammeln und abzulegen. Warum aber geht das ganze System automatisch davon aus, daß ich gefälligst online zu gehen habe und das dies nicht (auf völlig irreguläre Weise?) ein autarker Rechner, sondern ein kleines Teilchen irgendeines Internets zu sein hat?

Wenn man die WLAN-Treiber & Co de-installiert, werden sie übrigens automatisch beim nächsten Start ohne Rückfrage re-installiert. Nicht, um einen Wunsch des Anwenders zu erfüllen, sondern um dessen „Irrtum“ zu korrigieren. Ein eigener und persönlicher Rechner, der im Jahr 2010 nicht ein Tropfen im Ozean des doch so großartigen Netzes sein soll? Näh. Weil nicht sein kann, was nicht sein darf. Aber sollte diese Entscheidung nicht dem Anwender überlassen bleiben?

Was die ganze Technik auch sehr gut zeigt, ist ein weiteres Zusammenbrechen der Diversifikation im Computerbereich. In einer Zeit, wo einem häufig erklärt wird, welche großartige Individualität der Fortschritt bringt, ist bei genauerem Blick eigentlich sehr oft das Gegenteil der Fall.

Das erste Zusammenbrechen der Diversifikation geschah Anfang der 90er, als die zahlreichen Alternativen und stärkeren „Homecomputer“ wie Atari, Amiga, Acorn etc. etc. und auch die damit verbundenen Philosophien und Strömungen vom Markt verschwanden. Der IBM-kompatible PC herrschte. Dennoch gab es auch auf dieser vereinheitlichten Architektur noch immer Strömungen und Alternativen. Bis in die zweite Hälfte der 90er hinein hatte man eine größere Auswahl an Betriebssystemen und Erweiterungen, um die Rechner zu befeuern: verschiedene Ausgaben und ältere und neuere Versionen von DOS, Windows, Linux, OS/2, GEM, PC-GEOS etc. etc. (wenn man ganz schräg drauf war, sogar CP/M ;-)).

Und die Rechner und ihre Hardware liefen. Nicht immer zu 100% gefordert bzw. bisweilen auch leicht überfordert, aber sie liefen. Das hielt eine gewisse Individualität und Experimentierfreude am Leben bzw. setzte Strömungen fort. Welche Chancen auf Diversifikation bietet einem aber ein aktueller Rechner wie das obige 64-Bit-Notebook noch? Sofern man nicht entweder ein aktuelles NT-Windows oder eine ebenso aktuelle Linux-Distribution verwendet, hat man doch kaum mehr Chancen, die Ein- und Ausgabemedien, die Datenträger, Kärtchen, Stäbchen, Steckerchen, Schnittstellen oder generell die eingebaute Hardware verwendbar anzusprechen. Ohne ein aktuelles OS aus einem der *beiden* Standardsysteme ist aktuelle Technik nicht bedienbar. Was bedeutet das für die Diversifikation?

Natürlich ist die Oberfläche schnieke mit all den geleckten Effekten und Icons und superkomplexen Programmen. Ich habe ein paar Filme von Scheiben geguckt und ein paar Ballerspiele gedaddelt, wo einem die Partikel und die Lichteffekte um die Ohren fliegen. Aber irgendwie beeindrucken mich diese Dinge nicht bzw. nur wenig, wenn die Gegenleistung dafür ein kryptisches Black-Box-System ist, bei dem die Ressourcen nur so in den Gigahertz und Gigabytes rumrotzen.

Ist es nicht eine weit größere Kreativität, zu sehen, wie ähnliche Dinge z.B. mit der doch arg unzulänglichen Machart von MS-DOS erreicht wurden? Wenn man sich die Tatsachen ansieht, dann ist ja auch WfW 3.11 letztendlich ein Aufsatz auf DOS. Und DOS ist im Kern ein Betriebssystem aus dem Jahr 1981 und hat dies auch nie verleugnet. Ich kann mir sofort vom Pentium aus eine 720-KB-Bootdisk erzeugen lassen und damit mit DOS 6.20 einen XT mit 9,54 Mhz und 512 KB RAM hochfahren und mit Anwendungen und Spielen betreiben. Das ist die immense Stärke von DOS.

Natürlich hat es all seine Schwächen, die zurück bis 1981 reichen. Aber im Grunde ist das irrelevant, denn die wirkliche Kunst der Macher unter DOS war es, Wege zu finden, diese Mängel zu umgehen. Wir haben ein Betriebssystem aus den frühen 1980ern, das nicht mehr als 640 KB Speicher kennt. Und trotzdem haben wir die Küsten von Monkey Island, die düsteren Dungeons und die bunten Funshooter-Welten von id & Co, die weiten Ebenen von MDK, die lebendige KI von Creatures, Emulationen von etlichen anderen Rechnern und Konsolen, die hochauflösenden Filme und Bilder von Windows 3.1x, den „gelben Fun“ einer VCD-Simpsons-Floge, die Musik eines Jahrzehnts als MP3, unzählige Sound- und Bildformate, all die schrägen und nützlichen Tools, die Weiten des Internets und die Reise mit Indiana Jones nach Atlantis. Und so vieles mehr. Und all das haben sich über die Jahre Entwickler zum so unzulänglichen DOS einfallen lassen.

Der Verteidiger des Zeitgeistes wird nun versichern, daß das alles auf erzwungenen Rückständigkeiten beruht, auf primitiven Behelfskrücken und dem Ballast von Jahrzehnten, den man sich zum Glück im Jahr 2009 aber nicht mehr bieten lassen muß. Ich sage, das ist alles weit interessanter, zumindest interessanter als das Rumrotzen in Datenmassen und Megaspeed hinter geleckten Oberflächen, wie sie uns der großartige Fortschritt im Moment bietet. Vergleichbar ist das Ganze vielleicht noch mit der Entwicklung auf dem C64, wo es in späteren Jahren (bzw. bis heute) Spiele und Demos gab, die sich die Entwickler nie hätten träumen lassen, die aber trotzdem stets auf der originalen 64-KB-Hardware von 1982 lauffähig geblieben sind. Aber das ist ein anderes Thema und gehört nicht hierher. Es zeigt aber vielleicht auf, wie „anders“ eine Entwicklung hätte laufen können.

Avatar-Foto

Von Chris Pfeiler

on allen Retro-Schreibern bin ich wohl derjenige, der das Thema am Persönlichsten vertritt. Ich habe privat keinen digitalen Lifestyle im modernen Stil, also kein Handy, iKram oder aktuelle Rechner. Viele Leute finden das zum Haareraufen und würden mich gerne „missionieren“, ich finde aber, daß einem ein sog. veraltet-analoger Lebensstil viele Ideen und Perspektiven vermitteln kann.

2 Gedanken zu „PC-Technik und Diversifikation“
  1. Was mich ja immer quählt, ist eine völlig andere Frage:
    Mein aktueller Spielerechner hat Gigabytes an Arbeitsspeicher, eine relativ aktuelle CPU mit mehreren Kernen, Festplatten die in Terrabyte gemessen werden und eine Grafikkarte die wahrscheinlich alleine mehr Strom verbraucht als früher mein ganzer Rechner.
    Doch bringt mir das wirklich etwas?
    Aktuelle 3rd-Person-Shooter bieten meist weniger Möglichkeiten als das gute, alte Duke Nukem 3D (oder wenn es aktueller sein soll: Half Life). Strategiespiele werden zum Einheitsbrei (oder eher 3 Sorten Einheitsbrei, alles gleich bunt, gleich langweilig und jeweils als Geschmacksrichtungen Fantasy, „realistisch“ und futuristisch/postapokalyptisch).

    Wo bleibt denn da die Kreativität eines Gene Wars oder der Spielspaß eines Dungeon Keeper?

    Ganze Genres sind ersatzlos weggefallen, sei es weil man sie grafisch nicht weiter endlos aufbohren konnte (der Weltraum eines WingCommander sieht nunmal größtenteils leer aus) oder der angesprochene Kundenstamm zu klein wäre (Kennt noch jemand RICHTIG umfangreiche Flugsimulatoren mit kg-schwerem Handbuch das man wirklich lesen muss?)

    Klar sehen die Spielchen jetzt bunter aus, aber spätestens nach 2-3 Stunden nehme ich das doch garnicht mehr wahr. Selbst wenn alles Photorealistisch darstellbar wäre: Will ich das wirklich sehen oder darf es ruhig etwas unrealistisch sein? Will ich jedes Spiel mit Joypads spielen (weil PS3 und XBox das auch so machen und das Spiel auch dort läuft) oder darf auch mal gut mit Joystick oder Lenkrad funktionieren?

    Doch selbst wenn wir zur reinen Geschwindigkeit und Leistungsfähigkeit heutiger PCs kommen sieht es schlecht aus. Auf meinem Spiele-Rechner dauert es mehrere Sekunden bis ein aktuelles Office-Programm (egal ob Word, OOo-Writer oder Google Docs) geladen ist und ich tu damit GENAU DAS SELBE wie auf meinem alten 486DX2, in der selben Geschwindigkeit, während ich die selben Funktionen nutze und ohne dass sich die tausendfach größere „Leistung“ des Rechners deutlich bemerkbar macht.

    Soll das wirklich eine Weiterentwicklung sein?

  2. […] – Arbeit, Spiele und Eingabegeräte Beim Retromagazin rantete Chris Pfeifer heute ganz nett darüber, dass aktuelle Systeme einem kaum noch Einblick in die Interna gewähren, […]

Kommentare sind geschlossen.