- Labornetzteil AliExpress         
Seite 5 von 10 ErsteErste ... 34567 ... LetzteLetzte
Ergebnis 41 bis 50 von 91

Thema: Elektromagnet zur zerstörun von Festplatten

  1. #41
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    29.01.2004
    Beiträge
    2.441
    Anzeige

    E-Bike
    Das ist sicher nicht jedem bekannt und es wäre schön, wenn Du etwas drüber erzählen könntest, (bzw link angeben könntest).
    Einmaliges überschreiben reicht nicht, weil die Schreib/Lese Köpfe nicht so exakt positioniert werden können, dass exakt dieselbe Stelle be-, bzw. überschrieben wird. D.h. rings um den zuletzt beschriebenen Bereich bleiben noch Spuren von vorherigen Schreibvorgängen zurück.
    Bei einem Schreibvorgang wird der Kopf aber vermutlich nur in einer Richtung von der "Ideallinie" abweichen.
    D.h. die Restmagnetisierung oberhalb der zuletzt geschriebenen Datenspur wird einem vorherigen und die Restmagnetisierung unterhalb zu einem anderen vorherigen Schreibvorgang gehören. (So stell ich mir das jedenfalls vor)
    Von der Zahl 7 habe ich in diesem Zusammenhang auch noch nichts gehört, ich weiss nur, dass man mehrfach überschreiben muss, und dass diverse Sicherheitsvorschriften festlegen wie oft überschrieben werden muss um der jeweiligen Vorschrift zu genügen.


    Meinst Du, daß auch die Kapazität von Platten mit diesem Verfahren auf die 7 fache Kapazität erweitert werden kann?
    Theoretisch vielleicht schon. Die normalen Leseköpfe können aber nur das Zentrum der Datenspur auslesen. Spezielle Firmen die sich auf Datenrekonstruktion spezialisiert haben und diese "höhere Datendichte" wieder lesen könnten, nehmen da recht viel Geld für und geben einem die Festplatte wenn überhaupt vermutlich nur als Einzelteile zurück.
    Finanziell ist das also sicherlich keine besonders attraktive Methode seine Festplattenkapazität zu erhöhen

  2. #42
    Erfahrener Benutzer Roboter-Spezialist
    Registriert seit
    15.01.2005
    Ort
    Niederdorfelden / Hessen
    Alter
    57
    Beiträge
    368
    Hi all,

    @Manf
    Für die Rekonstruktion bis in die 7.Ebene habe ich bisher noch keine schriftlichen Unterlagen finden können. Da bin ich selbst noch am suchen. Hätte wohl erwähnen sollen, das es 'nur' Hören-Sagen aus einer sehr vertrauenswürdigen Quelle ist.

    Die Überlastung der Leseköpfe durch Überspannung bewirkt, das die Begrenzung der Datenspuren nicht mehr eingehalten werden und unerwünschte Magnetfelder innerhalb der Festplatte ganze Datenbereiche überschmieren. Das löscht die Festplatte zwar nicht komlpett, reicht aber bei richtiger Startposition für den Hausgebrauch aus.

    Eine Erhöhung der Festplattenkapazität durch Auslesen tieferer Datenschichten halte ich für zu gefährlich und daher nicht praktikabel. Dieses Auslesen der unteren Schichten ist wie das Abhören eines Gespräches in der anderen Ecke eines Schulhofes während der großen Pause. Da kann es auch mal zu Missverständnissen /Fehlinterpretationen kommen. Das 100% korrekte Auslesen der Daten kann in den unteren Schichten nicht garantiert werden.

    Professionell rekonstruierten Festplatten kommen,wenn überhaupt, deshalb in Einzelteilen wieder zurück, weil die Festplatten unter Reinraumbedingungen demontiert werden. Die Datenplatten werden dann einzeln in spezielle Halter mit Leseköpfe gespannt und nach einer Ausrichtung der Leseköpfe ausgelesen.
    Diese Prozedur hat unsere Firma vor ca 8 Jahren etwa 1000DM/GB gekostet - das hat weh gatan.
    Das mit den Festplattenkapazitäten ist sowieso ein Thema für sich. Wenn MS nicht so spendabel mit Speicher umgehen würde hätten wir auch keine so großen Probleme mit der Speicherkapazität unserer Rechner.
    Ein Rechenbeispiel:
    Wenn auf normal beschriebenen Papier 2kB an reinem ASCII - Text passen und 10 Blatt Papier zusammen 1mm dick sind, dann entspricht 1GB einem Stapel von 50m höhe. Das ist eine gewaltige Menge an Papier.

    Die meisten Informationen in einem MS-Dokument-File sind nur Formatierungsanweisungen und heisse Luft. Die reine Information macht nur geschätzte 30 - 40% der Daten aus. Sorry, bin wieder mal am schimpfen.

    Ich höre für heute lieber auf ...
    Grüße Klaus

  3. #43
    Erfahrener Benutzer Roboter Experte
    Registriert seit
    15.02.2004
    Beiträge
    569
    Die reinen Informationen 30 - 40% der Daten ausmachen wuerden waere ich zufrieden.
    folgendes habe ich festgestellt (3 seiten mit ein paar bildern)
    word95 : 10Mb
    word 2000 : 15Mb-20Mb
    html : 1,4 Mb
    ergebniss war dass die datei doch auf eine diskette gepasst hat (sonst haette ich in ermangelung eines cd-brenners ein problem gehabt)
    optische unterschiede zwischen den dateien konnte ich nicht feststellen.
    bei ms haette man die bilder intelligenter einbinden koennen; die verwenden unkomprimierte bmp-dateien. von verlustfreien komprimierungsmethoden hat man dort scheinbar nichts gehoert.
    die 1,4 Mb habe ich durch einbindung der graphiken als .jpg dateien (verlustbehaftet) erreicht. bei verwendung einer verlustfreien kommprimierung war es etwas zu viel fuer eine diskette, daber deutlich viel kleiner als das microsoftformat.

    ich wunder mich immer noch wiso eine 40Mb-festplatte in mienem laptop (mit dos) ausreicht waehrend ich in meinem aktuellen pc eine 2. 160Gb festplatte vermisse
    Haftungsausschluß:
    Bei obigem Beitrag handelt es sich um meine private Meinung.
    Rechtsansprüche dürfen daraus nicht abgeleitet werden.
    Besonders VDE und die geltenden Gesetze beachten sowie einen gesunden Menschenverstand walten lassen!

  4. #44
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    29.01.2004
    Beiträge
    2.441
    Das mit den Festplattenkapazitäten ist sowieso ein Thema für sich. Wenn MS nicht so spendabel mit Speicher umgehen würde hätten wir auch keine so großen Probleme mit der Speicherkapazität unserer Rechner.
    Da mag ja früher mal was wahres drangewesen sein. Aber bei den heute üblichen Festplatten werden wohl in den allerseltensten Fällen die Office Dokumente schuld sein, wenn es eng auf der Festplatte wird.
    Heutzutage wo sich die Leute ihre Festplatten mit ihren kompletten Foto- Musik und Filmsammlungen und GB grossen Spielen vollstopfen, macht es für Softwarehersteller wenig Sinn teure Arbeitszeit zu investieren um ein paar MB zu sparen.

    Die meisten Informationen in einem MS-Dokument-File sind nur Formatierungsanweisungen und heisse Luft. Die reine Information macht nur geschätzte 30 - 40% der Daten aus.
    Da viele Leute beim erstellen von Dokumenten nur 30-40% der Zeit mit dem Inhalt und den Rest mit der Formatierung verbringen, passt's doch
    Was würden wohl die ganzen Leute, die einen Grossteil ihrer teuren Arbeitszeit drauf ver(sch)wenden aus nem halben DinA4 Zettels Text eine 3 stündige Powerpoint-Präsentation zu machen sagen, wenn nach dem speichern nur noch der reine ASCI Text übrig wäre?

    Die stünden dann ja fast genauso dumm da wie Leute, deren liebevoll mit Bildchen und unten Farben und zig Schriftarten verzierten Emails keiner der sein EMail-Programm vernünftigerweise auf "nur Text" gestellt hat lesen kann

    Sorry, bin wieder mal am schimpfen.
    Wenn du darüber schimpfst, wie MS Dokumente abspeichert, hast du schon irgendwie recht. Wäre schon schön, wenn die sich vernünftig an lange geforderte Standards halten würden, damit man MS Office Dokumente endlich richtig kompatibel mit Office-Paketen anderer Hersteller wären. Kleiner würden die Dateien dadurch allerdings nicht, eher grösser.

  5. #45
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    29.01.2004
    Beiträge
    2.441
    bei ms haette man die bilder intelligenter einbinden koennen; die verwenden unkomprimierte bmp-dateien. von verlustfreien komprimierungsmethoden hat man dort scheinbar nichts gehoert.
    naja, wenn du schon mal was von verlustfreien komprimierungsmethoden gehört hast, hättest du die Datei ja einfach mit einem vernünftigen Packprogramm selber zippen können

    Wenn das dann nicht klein genug geworden wäre, liegt es wohl daran, dass deine Bilder sich ohne verluste nicht kleiner komprimieren lassen. Da kann Word dann aber auch nichts für.

    die 1,4 Mb habe ich durch einbindung der graphiken als .jpg dateien (verlustbehaftet) erreicht. bei verwendung einer verlustfreien kommprimierung war es etwas zu viel fuer eine diskette, daber deutlich viel kleiner als das microsoftformat.
    Das sieht doch sehr danach aus, dass Word die Bilder in dem Format abspeichert in dem man sie einfügt. Das ist mir allemal lieber, als wenn eine Textverarbeitung die Bilder verlustbehaftet komprimiert, und man vor dem speichern nicht weiss, wie seine Bilder nach dem speichern aussehen. (besser könne sie dadurch ja nicht werden)
    Mir reichen die zig dusseligen Wizards und Autoformatierungen die einem in Word ständig Text und Formatierungen verpfuschen schon völlig aus.
    Verlustbehaftete Komprimierung wäre also Käse.
    Wenn MS Word die Bilder ohne Verluste kleiner abspeichern würde als die Bilddatei die man einfügt, wäre das aber auch etwas seltsam. Dann würden einige Leute sicher zu recht fragen, warum Microsoft überhaupt das BMP und nicht generell das DOC-Format zum speichern von Bildern verwendet.

    ich wunder mich immer noch wiso eine 40Mb-festplatte in mienem laptop (mit dos) ausreicht waehrend ich in meinem aktuellen pc eine 2. 160Gb festplatte vermisse
    Ein komplettes DOS braucht ca. 10% von deiner 40MB Platte, ein komplettes WinXP gerade mal 1% von deiner 160GB Platte. Die 160GB Platte kostet heute aber eine Bruchteil von dem was 40MB zu DOS-Zeiten gekostet haben. Möchtest du da die Uhr wirklich wieder zurückdrehen?

    Lösch doch einfach ein paar Filme, MP3s und Spiele, und schon haste wieder Platz für viele tausend platzverschwendende Word-Dateien

    Mir geht Windows auch oft auf den Keks und Word hasse ich mit jeder neuen Version mehr. Aber wieder mit DOS rumhantieren, weil dass ein paar % Platz auf ner 160GB spart möchte ich auch nicht unbedingt.

  6. #46
    Erfahrener Benutzer Roboter Experte
    Registriert seit
    15.02.2004
    Beiträge
    569
    das mit dem festplattenplatz ligt an der groesse der programme. frueher passte ein grossteil der programme auf eine diskette, heute besteht selbst ein office-programm aus 2 CDs.
    was frueher ein 10kB kleines programm war ist heute (mit den gleichen funktionen) ein monster der Mb-klasse (wegen den ganzen micro$oft DLLs und runtime-modulen).. Hat man dann nicht alle micro$oft-erweiterungen instaliert darf man nochmal 100Mb aus dem internet laden....
    der mordene nutzer scheint eine rechenaufwaendige, graphische benutzeroberflache mit einem lallenden, animierten assistenten (der immer im weg ist) zu fordern. zusaetzlich scheint eine animierte schritt-fuer-schritt anleitung noetig zu sein bei der ein sprecher den benutzer durch die einfachsten teile des programmes fuehrt waehrend die schwereren teile mit einem satz behandelt werden. frueher war die "hilfefunktion" eine textdatei mit sinnvollem inhalt; die benutzeroberflaeche beschraenkte sich auf eine eingabezeile. damit laesst sich schneller(!) arbeiten als mit einer mordernen benutzeroberflaeche.
    scheinbar waren die nutzer frueher intelligenter und wer das programm nicht kapiert hat hat das (damals noch existierende) handbuch gelesen, heute ist das "handbuch" ein 5cmX5cm grosser, mehrsprachiger zettel (ausnahmen bestaetigen die regel)
    ueber die handbuchsdicke (bei micro$soft) kann ich nur staunen:
    windos XP: 13Seiten DIN A5; mehr bilder als text, auf die wichtigen funktionen wird nicht eingegangen stattdessen eine ausfuehrliche anleitung wo man das startmenue findet und den computer herunterfaehrt
    linux: 0,5cm DIN A4 mit sinnvollen, praxixtauglichen informationen (partitionieren der festplatte; problembehebung; alle wichtigen einstellungen)

    zum speichern der dateien als zip-datei: open-office macht das so; man kann die dateiendung auf .zip aendern und entkomprimieren wenn man an der dateistruktur interessiert ist. bei micro$oft scheint man das nicht zu schaffen obwohl das nicht soo anspruchsvoll ist. man scheint dort davon auszugehen dass der anwender die dateien nicht per internet oder diskette transportieren will.
    zur bildkomprimierung: es waere sicher nicht zu viel (in anbetracht des preises) verlangt ein dialogfenster einzublenden in dem man angeben kann ob und wie das bild komprimiert werden soll.
    Haftungsausschluß:
    Bei obigem Beitrag handelt es sich um meine private Meinung.
    Rechtsansprüche dürfen daraus nicht abgeleitet werden.
    Besonders VDE und die geltenden Gesetze beachten sowie einen gesunden Menschenverstand walten lassen!

  7. #47
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    29.01.2004
    Beiträge
    2.441
    das mit dem festplattenplatz ligt an der groesse der programme. frueher passte ein grossteil der programme auf eine diskette, heute besteht selbst ein office-programm aus 2 CDs.
    Na und? Eine CD kostet heute wenige als damals eine Floppy, ein Brenner weniger als damals ein Floppy-Laufwerk und eine 160GB kostet heute wesentlich weniger als damáls eine 100MB Platte. Was solls also?

    was frueher ein 10kB kleines programm war ist heute (mit den gleichen funktionen) ein monster der Mb-klasse (wegen den ganzen micro$oft DLLs und runtime-modulen).. Hat man dann nicht alle micro$oft-erweiterungen instaliert darf man nochmal 100Mb aus dem internet laden....
    Wenn dein Programm früher ein GUI haben sollte musstest du es selber programmieren, wenn dein Programm irgendwelche speziellere Hardware unterstützen sollte, musstest du die Treiber selber programmieren, wenn dein Programm mit anderen Daten austauschen sollte, musstest du die Schnittstellen selber programmieren......
    Heute bindet man ein paar DLLs usw. ein und hat die Funktionalität die früher jeder Programmierer immer wieder neu und für teure Arbeitszeit entwickeln musste.
    Möchtest du das x-fache für ein Programm zahlen, um dann für ein paar Cent Festplattenplatz zu sparen?

    was frueher ein 10kB kleines programm war ist heute (mit den gleichen funktionen) ein monster der Mb-klasse
    Mag sein. Aber für das 10kB Packet musste ein Programmierer damals sehr viel mehr eigenen Quellcode entwickeln, als heute für ein 100MB Monster mit derselben Funktionalität, das er aus fertigen DLLs, Klassen usw. zusammenklickt.

    der mordene nutzer scheint eine rechenaufwaendige, graphische benutzeroberflache mit einem lallenden, animierten assistenten (der immer im weg ist) zu fordern.
    scheint so, denn diese dümmlichen Wizards sind nicht nur bei MS-Programmen dabei und die meisten Softwarehersteller investieren ihr Geld bevorzugt in die Entwicklung von Dingen die sich auch verkaufen lassen.

    frueher war die "hilfefunktion" eine textdatei mit sinnvollem inhalt; die benutzeroberflaeche beschraenkte sich auf eine eingabezeile. damit laesst sich schneller(!) arbeiten als mit einer mordernen benutzeroberflaeche.
    Ich möchte dich sehen, wie du an Eingabeaufforderung und Textkonsole einen Schaltplan, ein Platinen-Layout, ein Werbe-Layout, eine Tabellenkalkulation, eine Präsentation usw. zusammenstellst.

    Computer werden heute von wesentlich mehr Menschen für viel mehr und auch ganz andere Zwecke eingestetzt als vor 10 Jahren.

    Es gibt einige Dinge, z.B. Dateiverwaltung, Administration, usw. die auch heute noch an der Textkonsole schneller gehen alsm mit Explorer, Management-Konsole usw.
    Aber normalerweise kauft sich niemand einen Computer nur um Dateien zu verwalten und Firmen investieren nicht in IT um Administratoren zu beschäftigen. Computer sind da um mit diversen Anwendungen zu arbeiten. Dateiverwaltung , Netzwerkadmisnistration usw. ist ein notwendiges Übel und letzteres vor allem ein Kostenfaktor , das die meisten Firmen lieber früher als später los würden.

    Um effektiv an einer Textkonsole zu arbeiten, muss man erst mal jede Menge Kommandos lernen und lange üben. Diese Ausbildung jedem Mitarbeiter der heute am Computer arbeitet zukommen zu lassen könnten sich die wenigsten Firmen leisten.

    scheinbar waren die nutzer frueher intelligenter und wer das programm nicht kapiert hat hat das (damals noch existierende) handbuch gelesen, heute ist das "handbuch" ein 5cmX5cm grosser, mehrsprachiger zettel (ausnahmen bestaetigen die regel)
    ueber die handbuchsdicke (bei micro$soft) kann ich nur staunen:
    Schon mal in der Bücherei umgesehen, was Bücher kosten? Die kosten schon alleine wegen der Material und Druckkosten mehr als heutzutage die meisten Programme kosten und reingeguckt hat auch damals schon kaum jemand. Den Spruch "RTFM" gabs schon lange vor grafischen Benutzeroberflächen, Online-Hilfen und Anleitungen im PDF-Format.

    windos XP: 13Seiten DIN A5; mehr bilder als text, auf die wichtigen funktionen wird nicht eingegangen stattdessen eine ausfuehrliche anleitung wo man das startmenue findet und den computer herunterfaehrt
    Da sich schon kaum jemand Zeit nimmt auch nur diese 13 Seiten durchzulesen, wäre es doch eine gigantische Verschwendung 1000 Seiten dazuzulegen und selbst die würden nicht ausreichen um den gesamten Funktionsumfang nur annähernd zu erklären.

    Ich lese wesentlich lieber richtige Bücher als Online-Dokumentationen und für Programme, Programmiersprachen und Dinge mit denen ich ohne nicht klar komme kaufe ich mir Bücher.
    Ich habe aber keine Lust, bei jedem Programm den doppelten Preis zu zahlen, weil da noch ein gedrucktes Handbuch das ich gar nicht brauche dabei ist.
    Der Vorteil an einem grafischen OS ist ja gerade, dass die meisten Programme eine einheitliche oder mindestens sehr ähnliche Benutzerführung haben und man nicht wie damals unter DOS für jedes Programm erst mal Kommandozeilen-Parameter usw. lernen muss.
    Wenn man alle jubeljahre mal irgendeine Funktion nachschlagen will, ist eine Online-Hilfe doch praktischer als ein Schrank voller Handbücher. (die Wohnraummiete für den Schrank wohl auch teurer als ein paar GB Festplattenplatz )

    Die dümmlichen Wizards ala Karl Klammer die einem ständig irgendwelche Tipps geben die man gar nicht brauchen kann oder gleich selber ins Programm eingreifen nerven mich auch. Viel einfacher als sich drüber aufzuregen ist aber sie einfach abzustellen.

    Irgendwie verstehe ich nicht, warum du dich so aufregst. In der Firma musst du den Plattenplatz sicher nicht selber zahlen und vermutlich hindert dich auch niemand dran statt Windows oder KDE eine Dos-Box oder Shell zu nutzen. Die Text-Kommandos von damals funktionieren auch heute fast alle noch.

    Zuhause hindert dich erst recht niemand dein grafisches OS zu löschen und dir DOS zu installieren, wenn dir das wirklich lieber ist.
    Mini-Linux Distributionen die mit einer oder ein paar Floppys auskommen gibt es auch mehrere.

    zum speichern der dateien als zip-datei: open-office macht das so; man kann die dateiendung auf .zip aendern und entkomprimieren wenn man an der dateistruktur interessiert ist. bei micro$oft scheint man das nicht zu schaffen obwohl das nicht soo anspruchsvoll ist.
    Bei aktuellen Windows-Versionen ist eine Zip-Funktion integriert. Du brauchst also nur nen Doppelklick auf ein Zipfile machen und siehst was drin ist und die rechte Maustaste bemühen wenn du etwas komprimieren willst. Das geht also auch bei Microsoft und ist gar nicht soooo anspruchsvoll

    Wenn Word auch nochmal eine eigene Zip-Routine mitbringen würde, gäbs die ja doppelt auf der Platte und du müsstest dich wieder über die wahnsinnige Verschwendung von ein paar kB Plattenplatz aufregen

    Seit Windows 2000 kannst du auch mit ein paar Mausklicks auch gleich die ganze Platte komprimieren. Dann brauchst du nicht mehr zippen und sparst trotdem jede Menge Plattenplatz.

    zur bildkomprimierung: es waere sicher nicht zu viel (in anbetracht des preises) verlangt ein dialogfenster einzublenden in dem man angeben kann ob und wie das bild komprimiert werden soll.
    Dieser Dialog, den manche Leute gar nicht brauchen würde ja noch ein paar kostbare Byte auf der Platte verbrauchen

    Das nachträgliche zippen von kompletten Dokument spart doch viel mehr als nur die Bild zu komprimieren und vor allem kannst du das an der Kommandozeile machen, was dir doch viel lieber ist als in irgendwelchen Dialogen rumzuklicken

    Ich weiss, dass ich jetzt übertreibe.
    Aber im Prinzip widersprichst du dir selber.
    Du findest DOS und die alten DOS basierten Programme viel besser, die statt deinem grafischen OS benutzen willst du aber nicht.

    Du beschwerst dich, dass heutige Programme viel zuviel Funktionen mitbringen die du nicht brauchst und die deinen Plattenplatz verschwenden, möchtest andrerseits aber selber noch mehr Dialoge und Funktionen.

    Es ist völlig egal, wieviel Funktionen ein Hersteller in seine Software hinenpackt, sobald sie released ist schreien die Kunden nach weiteren neuen Funktionen und neue Versionen lassen sich nur verkaufen, wenn sie mehr Funktionen haben als die vorherige.
    Dass die Software grösser wird und immer mehr Zeugs enthält das viele Leute nicht brauchen lässt sich da nicht vermeiden.
    Dass immer verschwenderischer mit Speicherplatz und Arbeitsspeicher umgegangen wird, liegt daran, dass Arbeitskraft teurer und Hardware immer billiger wird.
    Insgesamt bekommt man heute aber für viel weniger Geld viel mehr Programm und viel mehr Hardware als zu Zeiten von DOS.

  8. #48
    Administrator Robotik Visionär Avatar von Frank
    Registriert seit
    30.10.2003
    Beiträge
    5.116
    Blog-Einträge
    1
    Hallo
    zu dem PC-Kram muss ich auch kurz meinen Senf dazugeben, wo mich die Rechner erst kürzlich wieder geärgert haben.

    Zitat Zitat von recycle
    Insgesamt bekommt man heute aber für viel weniger Geld viel mehr Programm und viel mehr Hardware als zu Zeiten von DOS.
    Stimmt ja alles, aber leider bekommt man dafür auch ein vielfaches an Bug´s als früher! Und leider hat diese Modularisierung mit den DLL´s daszu geführt das kaum noch jemand der Entwickler voll durchblickt, ganz zu schweigen von den Anwendern. Jeder Entwickler kennt nur seinen Teilbereich, Bugs lassen sich trotz definierter Schnittstellen immer schlechter finden.
    Es gibt doch immer weniger Programme die wirklich durchweg sauber laufen. PC-Pannen und Probleme sind überall an der Tagesordnung!
    Ein wenig kann ich die Sehnsucht nach den kompakteren und durchschaubaren DOS-Anwendungen schon verstehen.
    Zudem kommt noch dazu das es heute eine so große Anzahl von Viren gibt. Die genauen Dateimanipulationen die Viren oder Programme untereinander durchführen sind ebenfalls kaum noch von jemanden zu durchschauen.
    Die Produktivität ist lange Zeit von jahr zu Jahr mit besserer Software und schnelleren Rechnern gestiegen, aber in den letzten 2 oder 3 Jahren hab ich eigentlich schon wieder das Gefühl das sich das langsam umkehren könnte wegen ständiger Rechner- oder Software-Problemen.
    Also so ganz toll ist das auch nicht alles wie du es beschreibst. Wenn denn wirklich alles funktionieren würde, dann würde ich dir voll zustimmen.

    Gruß Frank

  9. #49
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    29.01.2004
    Beiträge
    2.441
    Ein wenig kann ich die Sehnsucht nach den kompakteren und durchschaubaren DOS-Anwendungen schon verstehen.
    Du sehnst dich nach kompakt und durchschaubar, aber sicher nicht nach DOS, sonst würdest du es dir ja einfach installieren

    Das bei Windows kein Mensch mehr richtig durchblickt, liegt ja nicht daran, dass die Dateien so gross sind, sondern dass soviele davon von zig Anwendungen gemeinsam benutzt werden.

    Wenn z.B. jedes Programm seine DLLs ím Programmordner statt im Systemverzeichnis speichern würde, würde das etwas mehr Plattenplatz kosten, die Programmierer könnten weiter auf fertige DLLs zurückgreifen, aber es wäre und jahrelang erspart geblieben, dass Programme sich die DLLs bei der Installation gegenseitig mit unterschiedlichen Versionen überschreiben.
    Wenn in Windows nicht jeder Müll - am líebsten noch irgendwie kryptisch - in der Registry abgeladen würde, sondern wie z.B. in Linux halbwegs dokumentiert in ini- bzw. config-Dateien, würde das auch etwas mehr Plattenplatz kosten und wäre trotzdem übersichtlicher.

    Also so ganz toll ist das auch nicht alles wie du es beschreibst. Wenn denn wirklich alles funktionieren würde, dann würde ich dir voll zustimmen.
    Dass das heute alles so toll ist, wollte ich damit gar nicht ausdrücken.
    Dass heute wirklich noch viele Leute am DOS-Prompt und mit zeichenorientierten Programmen arbeiten möchten glaube ich aber auch nicht.
    Das System zu warten und zu reparieren war unter Dos einfacher, weil jedes Programm in einem eigenen Ordner installiert wurde und die Programme überhaupt keine Berührungspunkte miteinander hatten.
    Dass die Anwendungen selber einfacher zu bedienen war finde ich aber nicht. Bei DOS Programmen musste man doch meist wirklich noch in die Handbücher sehen. In den meisten Windows-Anwendungen findet man sich auch ohne Online-Hilfe und Handbuch schnell zurecht.

    Bugs und Programmabstürze usw. gab es unter DOS damals auch.
    Ich weiss nicht wie es dir ging, aber wenn ich mal richtig zurückdenke, musste ich meinen Rechner damals unter DOS sehr viel öfter neustarten als heute.
    Heute hat man ein vielfaches an Programmen auf dem Rechner. MP3s, Soundbearbeitungen, Fotos, Bildbearbeitung, Filme, Videoschnitt, Internetforen, Online-Shopping, EMail, Chat, Filesharing, Messenger, Bild und Soundübertragung ...... gabs es damals alles gar nicht.

    Sicherheitslücken und Sicherheitsprobleme wie wir sie heute haben, konnte es damals noch nicht geben, weil die Rechner noch nicht übers Internet vernetzt waren. Viren musste man sich damals mühselig per Disketten ins System schleusen, und das haben viele Leute damals erfolgreich bewerkstelligt

    Dafür, dass man heute ein vielfaches an Applikationen verwendet, die zu einem grossen Teil noch irgendwie zusammenarbeiten, sind richtige Abstürze, Datenverluste usw. meiner Meinung nach im Vergelich zu früher wesentlich seltener geworden.


    Jeder Entwickler kennt nur seinen Teilbereich, Bugs lassen sich trotz definierter Schnittstellen immer schlechter finden.
    Klar lassen sich Bugs schwerer finden, wenn man grosse Teile der Sourcen gar nicht kennt und Komponenten verwendet von denen man die Sourcen nicht mal einsehen kann. Aber es hindert einen ja auch heute noch niemand dran, ein komplettes Programm selber zu schreiben ohne auf fremde Komponenten zurückzugreifen.
    Das blöde ist nur, dass das Programm dann wenn es endlich fertig ist schon lange völlig überholt und veraltet ist


    aber in den letzten 2 oder 3 Jahren hab ich eigentlich schon wieder das Gefühl das sich das langsam umkehren könnte wegen ständiger Rechner- oder Software-Problemen.
    Klar. Die Produktzyklen werden immer kürzer, der Wettbewerb immer härter, die Preise müssen immer niedriger werden, die Anforderungen werden immer höher, Standards ändern sich immer schneller....
    Ich glaube allerdings das grösste Problem ist, dass die Ansprüche immer unsinniger werden
    Früher hat man sich Office Dokumente, PDFs, Multimediadateien, und was es sonst noch so alles gibt heruntergeladen und in der entsprechenden Anwendung geöffnet. Heute muss sich alles was es irgendwie gibt über Plugins, ActiveX usw. direkt im Browser öffnen lassen. Klar, dass dann jede kleine Fehler in irgendeiner Anwendung zur Sicherheitslücke für das ganze System wird.
    Früher bekam jede Netzwerkanwendung einen eigenen Port und man konnte in der Firewall filtern was rein darf und was nicht.
    Heute müssen Messenger, Multimedia-Streamig, Netzwerkfolder, Filesharing, Webkonferenzen und was es sonst noch alles gibt über Port 80 laufen, damits nicht in der Firewall hängen bleibt, obwohl man die doch eigentlich genau dafür installiert, dass man Filtern kann was rein und raus darf.
    Früher hat man sich Updates und Patches seelber heruntergeladen und installiert und in Firmen wurde erst mal getestet obs auch funktioniert.
    Heute muss sich jedes Programm selber mit dem Server verbinden, prüfen ob Updates da sind und die automatisch installieren. Kein Wunder, dass niemand mehr auseinanderhalten kann, was Spyware ist, was nützliche Funktionen sind, und warum ein Programm das gestern noch sicher war, heute plötzlich Sicherheitslücken hat oder mit anderen Programmen kollidiert.

    Dass heute alles toll ist finde ich überhaupt nicht. Ich glaube nur, dass es bei den heutigen Programmen wesentlich wichtigere Probleme gibt als den Bedarf an Speicherplatz.

    Was würde es nutzen, wenn ein Programm wieder auf eine Floppy passt? Wenn das dann tatsächlich jemand auf Floppy ausliefern müsste,müssten eine ganze Menge Leute erst mal loslaufen und sich ein passendes Laufwerk kaufen

  10. #50
    Super-Moderator Lebende Robotik Legende Avatar von Manf
    Registriert seit
    30.01.2004
    Ort
    München
    Alter
    72
    Beiträge
    13.137
    Es sind übrigens nicht nur die Betriebssysteme selbst, die immer mehr Speicher benötigen, es sind erstaunlicherweise sogar schon die Stellungnahmen zum Thema Betriebssysteme, die in einer Wertung "Wörter pro Einzelstelungnahme" herausragende Positionen erreichen.

    Wenn es die Dosis ist, die die Wirkung macht und die Mindestlänge pro Posting praktisch die Nachweisgrenze ist, dann haben wir es hier mit Stellungnahmen zu tun die vergleichsweise im Bereich der tödlichen Dosis liegen müssten.

    Ich erwähne das nur mal ganz ohne weitere Wertung. Das Thema heißt ja, - ich habe noch mal nachgesehen, - Zerstörung von Festplatten (im Bereich Mechanik), aber das Thema könnte man natürlich auch anpassen.
    Manfred

Seite 5 von 10 ErsteErste ... 34567 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

Labornetzteil AliExpress