Ich kann eigentlich nur in die gleiche (etwas OT) Kerbe hauen. Eine Nummer größer war ich Ende der 80er voll zufrieden mit meinem Macintosh II (2 MB RAM, 16 MHz 68030, FloatingPoint Coprozessor, 80 MB Festplatte, 640x480 Pixeln zu 256 Farben).

Ich habe keine Aufgaben heute, die nicht mit dieser Konfiguration zu bearbeiten wären...

Nach fast 20 Jahren sind PCs nun 1000x so leistungsfähig geworden (o.k sie laufen nominell nicht mit 16 GHz, aber Riesencache, Doppelkern und SSE machen dies Leistungsmäßig aus)

Der Faktor 1000 erfüllt das Moore'sche Gesetz recht genau: Es hat etwa 12 Verdopplungszeiten zu 1,5 Jahren gegeben. Die Differenz ist dem Preisverfall geschuldet.

Diese 1000 mal höhere Leistung trifft natürlich auch die Größrechner.

Wir sollten deshalb auch heute AUF EINEM PC nicht mehr erwarten als "damals" auf einer Cray! Und was macht Blue Gene.. NumberCrunching!

Die Rechenkraft der PC-Server-Farmen wird heute durch interpretierte Sprachen wie PHP abgefangen. Jeder noch so einfache echte Basic Compiler (z.B. "Pure Baisc") zeigt, dass unsere 600 Euro Notebooks völlig überkandidelt "motorisiert" sind.. 5% würde reichen...

Zum Thema: Extrapoliert heißt das, dass wir in 20 Jahren - "best case" - auch wieder so eine formelle (!) Leistungssteigerung erwarten können... Wird uns dass aber zu einem Durchbruch verhelfen (Quantität -> Qualität) ?