DEUTSCHE VERSION |
|
Links | | | Forums | | | Comments | | | Report news |
Chat | | | Polls | | | Newsticker | | | Archive |
amiga-news.de Forum > Andere Systeme > kann mann Festplatten leiser tunen? | [ - Search - New posts - Register - Login - ] |
1 2 3 -4- 5 6 7 | [ - Post reply - ] |
2008-12-09, 22:54 h Flinx Posts: 1073 User |
Zitat: Das habe ich noch übersehen. In Deiner Logik fehlen sie, nicht in meiner. Genau die restlichen Bauteile der Platte sind doch der Grund, daß der Unterschied zwischen magnetischem und Halbleiterspeicher unerheblich ist, da man diese Grenze beim Beschreiben nicht erreichen wird. Denn es gibt andere Grenzen, die vorher wirksam werden, und deshalb kannst Du die magnetische Platte in der Praxis auch nicht öfter beschreiben als die SSD. [ - Answer - Quote - Direct link - ] |
2008-12-09, 23:22 h Maja Posts: 15429 User |
Zitat:Wie bereits erwähnt 360 GB/h in Dateien von 4 MB oder 40 MB macht schonmal einen Unterschied in der Anzahl der Schreibzugriffe pro Stunde. Zitat:Du hast mir nur beschrieben, wie lange es dauert bist die ersten Zellen defekt sind, wenn ständig 360 GB/h auf ein 128 GB Medium geschrieben werden. Damit weiß ich immer noch nicht, wie viele Zugriffe dabei zusammen kommen, denn ich weiß nicht, wie groß die Dateien sind, die dabei geschrieben/überschrieben werden. Zitat:Wie kommt man von "kann man nur schätzen" auf "auf jeden Fall"? Zitat:Nicht solange man 8 SSD braucht, um eine Festplatte zu ersetzen. Zitat:Dass herkömmliche Technik unerwartet versagen kann, ist für sich allein kein Vorteil neuer Technik. Zitat: Es gibt bei der HDD im Kontext kein vorher, weil es keine Begrenzung der Zyklen gibt. Die Begrenzung der möglichen Schreibzugriffe ist bei SSD gegenüber HDD ein zusätzlicher Faktor hinsichtlich der Lebenserwartung des Laufwerkes. Mehr habe ich nie behauptet. Ich habe auch nie behauptet, HDDs würden ewig halten, denn die begrenzte Haltbarkeit der restlichen Bauteile ist mir durchaus bekannt. Würdest Du mal versuchen, meiner Argumentation zu folgen und meine Beträge aufmerksam lesen, dann würde dir das auch klar werden. Nachdem Du nun aber bereits erklärt hast, andere Bauteile von SSD würden lange vor dem Erreichen der maximal möglichen Schreibzugriffe versagen, stellte ich mir umso mehr die Frage, was einen bei SSD noch vom Hocker reißen soll. Denn das Thema, unter welchen Umständen nach welcher Zeit das Maximum an Schreibzugriffen erreicht sein wird, bleibt für die Praxis bisher eine Unbekannte. Dazu jetzt noch die Unbekannte der Lebsndauer anderer Bauteile und die Aussage von Herstellern über eine Lebenserwartung von 3 bis 5 Jahren, was alles andere als das 1,5-Fache der Lebenserwartung von Festplatten impliziert. Sorry, aber das mutet mir immer mehr wie die Intention an, unbedingt von der HDD weg zu wollen. Nicht Du, sondern die Hersteller. Könnte an den inzwischen schlechten Margen für HDD liegen. Wie dem auch sei. in ein paar Jahren werden wir mehr wissen. Leben wir weiter, dann werden wir sehen. Es geht mir nicht um recht haben. Ich bin nur skeptisch. [ Dieser Beitrag wurde von Maja am 09.12.2008 um 23:23 Uhr geändert. ] [ - Answer - Quote - Direct link - ] |
2008-12-10, 07:37 h Flinx Posts: 1073 User |
Zitat:Hmm, im ersten Fall sind es geringfügig weniger. Und? Zitat:Du hättest ruhig mal versuchen können, die Frage zu beantworten, was Du Dir unter einem Schreibvorgang vorstellst. Mit der Größe der Dateien hat das nämlich nicht allzuviel zu tun. Zitat:Weil ich Dir das Dauerschreiben vorgerechnet habe und in der Praxis mit unbedingter Sicherheit weniger Schreibvorgänge stattfinden werden als kontinuierliches Schreiben (wenn der Besitzer des Gerätes nicht gerade den Verstand verloren hat)? Zitat:Es gibt durchaus Anwendungen, wo man für das Betriebssystem nicht viel Platz braucht: Linux, Oracle, Datensicherungsprogramm, und der Rest läuft über eine Glasfaser aus dem (abgebildeten) Storage-Array, wo die Datenbank untergebracht ist. Da lassen sich die zwei oder vier im Server eingebauten 2,5"-Platten gut durch SSDs ersetzen. Zitat:Naja, das ist aber gerade das Argument, das ich zu entkräften versuche. Es ist - ausgehend vom jetzigen Kenntnisstand - überhaupt kein relevanter Faktor. Zitat:Mal sehen, ob wir uns in sechs Jahren mal wieder in einem Forum treffen, dann können wir das ja mit Praxisdaten auswerten... [ Dieser Beitrag wurde von Flinx am 10.12.2008 um 07:40 Uhr geändert. ] [ - Answer - Quote - Direct link - ] |
2008-12-10, 07:59 h rbn Posts: 2001 User |
Flinx, du redest doch von einem gänzlich verschiedenen Einsatzgebiet als Maja. Was du schreibst ist schön und gut, aber für mich selbst vollkommen uninteressant. Mal als Beispiel (Da du ja nicht anzuerkennen scheinst, dass beim Homeuser ständig die Platte beansprucht wird): Hast du mal allein an Torrent gedacht? Nehmen wir mal an ich habe hier 150 Torrents an hab (100 leechen, 50 seeden). Dann wird während dessen Internetradio gestreamt, oder TV gestreamt, oder Video von Platte geschaut, oder MP3 von der Platte gehört. Natürlich wird auch noch gesurft, Email abgerufen, und dann arbeitet man ja auch tatsächlich auch noch mit dem Rechner, werden also leicht mal pro Stunde mehrmals mehrere Hundert MB große PSD Dateien gesichert und geladen. Dann müssen fertige Torrents auch noch entpackt, kopiert werden. Und der übliche Kram der nebenbei anfällt. Ich behaupte, das allein mit den Torrents die Schreibtests mit (anscheinend großen Dateien) im Praxisbetrieb ad absurdum geführt werden. Und wenn ich mich in meinem Bekanntenkreis umschaue ist das eine ziemlich typische Computerbenutzung, die ich hier beschrieben habe. (Ich frage mich immer noch, wie man mit 10 GB auf dem EeePC auskommt, wahrscheinlich weil man mit der Kiste eh nix vernünftiges machen kann.). rbn -- Marketing. Modern. Mittelständisch. http://www.rhein-sieg-design.de [ - Answer - Quote - Direct link - ] |
2008-12-10, 08:36 h Flinx Posts: 1073 User |
Zitat: Ich werde mich hüten, schon heutzutage einem Privatanwender eine SSD einzureden. Aber so schlimm ist das mit Torrent auch nicht, letztendlich kommt es nur auf die Gesamtzahl Schreibvorgänge je Bereich an, die erreicht werden muß, und da Du die runtergeladenen Filme (oder nein, das sind sicher alles Linux-Installations-ISOs) ja auch noch ansehen und wieder per Torrent weiterverteilen willst, gibt es ja auch genügend Lesevorgänge, die die Rechnung zugunsten der Lebensdauer verbessern. Sicherlich ist ständiger Torrent-Download eine Herausforderung für die Logik des Wear-Levelling, aber das sollte auch bei reinen Flash-SSDs schon kein Problem mehr sein, und wenn solche Laufwerke mal als Massenware beim Heimanwender ankommen, dann werden sie wahrscheinlich sowieso einen SDRAM-Puffer haben, der die Zugriffe abfedert. [ - Answer - Quote - Direct link - ] |
2008-12-10, 11:21 h MaikG Posts: 5172 User |
Windows auf Netzwerkserver stellen, dann ist der Festplattencache erhöht. Beim Amiga brauch ich nicht zu sagen wie das geht. Habe gestern ein Torrent runtergeladen die LED blinkt höchtens alle 2 sek(Win2k). [ - Answer - Quote - Direct link - ] |
2008-12-10, 12:44 h DrNOP Posts: 4118 User |
Zitat:Was kein Wunder ist wenn du halt 'ne langsame Verbindung hast wo die Bits einzeln reintröpfeln... -- Signaturen mit mehr als zwei Zeilen gehen mir auf den Wecker [ - Answer - Quote - Direct link - ] |
2008-12-10, 17:43 h Maja Posts: 15429 User |
Zitat:Im ersten Fall sind es rund 82.000/h mehr. Ein Zehntel davon wäre gerinfügig. Zitat:Wie praxisnah ist die Annahme, 360 GB/h würden ununterbrochen jeweils in einem einzigen Zyklus geschrieben, wenn über das tatsächliche Aufkommen an Zyklen/h nur vermutet werden kann? Zitat:Woran wird diese unbedingte Sicherheit fest gemacht, während zugegeben wird, dass über das tatsächliche Aufkommen an Zyklen/h nur Vermutungen angestellt werden können? Zitat:Die Vermittlungsversuche muten immer skuriler an. Ein Betriebssystem ist kein Selbstzweck und das Betriebssystem allein macht höchstwahrscheinlich überall den geringsten Anteil am gesamten Datenaufkommen in einem System aus. Selbst dann, wenn das Betriebssystem Windows Vista heißt, welches rund ein Siebtel einer 128 GB SSD belegen würde. Festplatten sind nicht auf 1 TB gewachsen, weil an Platz für das Betriebssystem mangeln würde, sondern weil Anwendungsmöglichkeiten und Nutzungsverhalten immer mehr Platz forderten. Zitat:Ein Kenntnisstand, der - so scheint es - hauptsächlich von Mutmaßungen über reale Gegebenheiten ausgeht. Das überzeugt mich nicht. Zitat:Entweder SSD verfügt innerhalb der nächsten 5 bis 8 Jahre in der Praxis zumindest über dasselbe Preis-/Leistungsverhältnis (Preis pro MB, reale - nicht vermutete - Lebensdauer) wie heutige HDDs oder das Thema ist für den Markt gegessen. Ich lasse mich gern eines Besseren belehren. Das wird jedoch nur mit entsprechend positiven Ergebnissen aus dem Langzeiteinsatz in der Praxis gelingen, in unterschiedlichen Einsatzgebieten. Was ich momentan sehe ist ein verhältnismäßig hoher Aufwand, ein vorhandenes Problem möglichst gering zu halten und dabei als Innovation zu vermitteln, was vom Prinzip Workaround ist. Die Anstrengungen möglichst viele Schreibzugriffe versprechen zu können, sind enorm. Was sich natürlich auch im Preis bemerkbar macht, denn Forschung und Entwicklung sind teuer. So nüchtern sehe ich das momentan. [ Dieser Beitrag wurde von Maja am 10.12.2008 um 17:45 Uhr geändert. ] [ - Answer - Quote - Direct link - ] |
2008-12-10, 18:00 h Holger Posts: 8116 User |
Zitat:Dann wäre Deine SSD, so Du eine dazu einsetzen würdest, weit davon entfernt, wirklich belastet zu werden. Das meiste, was Du da aufzählst, bedeutet ja, vom Medium zu lesen. Zitat:Wieso?! Weil Du die Schreibvorgänge immer wieder für Lesevorgänge unterbrichst, soll die Belastung höher sein, als im Dauerschreibtest?! Die Logik musst Du schon etwas genauer erklären. Abgesehen davon sind Torrents mit halbwegs aktueller Software genauso effizient oder sogar effizienter als normale Downloads. Während sich immer mehr Webserver aufgrund ihrer Content Management Systeme zu fein sind, die zu erwartende Dateigröße im Http-Header zu übergeben, ist diese Information bei Torrents natürlich Pflicht, wenn man die Datei in Chunks für parallele Downloads aufteilen will. Dazu werden Sparse-Files angelegt, also Dateien, die im Dateisystem bereits mit ihrere vollen Größe reserviert sind, deren Blöcke aber nicht beschrieben werden, solange sie leer sind. Das heißt, die Größenangabe der Datei muss nicht ständig aktualisiert werden und auch das befüllen mit 0 bytes fällt weg. Unterm Strich weniger Schreibvorgänge als beim sequentiellen Schreiben mit unbekannter Länge. mfg -- Good coders do not comment. What was hard to write should be hard to read too. [ - Answer - Quote - Direct link - ] |
2008-12-10, 18:07 h Holger Posts: 8116 User |
Zitat:Ach Maja, es ist immer noch wie am Anfang des Thread. Du hast keine Ahnung von dem was Du schreibst, und merkst nicht mal, was für einen Unsinn Du fabrizierst. Du wurdest mehrfach gefragt, was Du unter einem Schreibzyklus verstehst, weil sich immer mehr herauskristallisiert hat, das es etwas absurd falsches sein muss. Die Rechnung, die Du dort oben aufstellst, unterstreicht das nur noch mehr. Nur mal als Denkanstoß: eine Speicherzelle ist immer gleich groß, egal wie groß die Datei ist, die Du auf einem Medium schreibst. Die Speicherzelle hat eine begrenzte Anzahl Schreibzyklen, nicht die Datei. Alles andere solltest Du vielleicht mal selber versuchen, herauszufinden. Du kannst es natürlich weiterhin ignorieren, und Dich mit absurden Aussagen wie der da oben lächerlich machen. mfg -- Good coders do not comment. What was hard to write should be hard to read too. [ - Answer - Quote - Direct link - ] |
2008-12-10, 18:25 h Flinx Posts: 1073 User |
Zitat:Das solltest Du genauer erläutern. Und beantworte jetzt bitte die Frage, die ich Dir zum dritten Mal stelle: Was ist (für Dich) ein Schreibzugriff? Und wieso sollte das Schreiben einer großen Datei Deiner Meinung nach mit weniger Schreibvorgängen pro Zeiteinheit auskommen als das Schreiben vieler kleiner? Zitat:Verstehe ich nicht. Was für Zyklen pro Stunde? Womit willst Du eine stärkere Belastung der einzelnen Speicherzelle herbeidiskutieren als sie beim Dauerschreiben entsteht? Zitat:Wenn Du mal mitdenken würdest, hättest Du verstanden, daß ich Dir ein Beispiel genannt habe, wo die SSD auch beim heutigen Preis-/Leistungsverhältnis vorteilhaft einzusetzen geht, selbst wenn die von Dir postulierten Unsicherheiten über die Lebensdauer begründet wären. [ - Answer - Quote - Direct link - ] |
2008-12-10, 19:24 h Maja Posts: 15429 User |
@Holger: Hat deine Mutter dir keine Umgangsformen beigebracht? Wenn Du es irgendwann mal auf die Reihe bekommen solltest, nicht den unzivilisierten Vorzeigeproll raushängen zu lassen, kommen wir vielleicht ins Gespräch. Zitat:Beispiel: 50 Dateien pro Zelle = 50 Schreibzyklen. Falls das ein Irrtum sein sollte, kläre mich bitte auf und sage mir, wie sich Schreibzyklus bezogen auf eine Speicherzelle definiert. [ Dieser Beitrag wurde von Maja am 10.12.2008 um 19:25 Uhr geändert. ] [ - Answer - Quote - Direct link - ] |
2008-12-10, 19:34 h Flinx Posts: 1073 User |
@Maja: Uff, das wird ja anstrengend. Ich antworte morgen früh... [ - Answer - Quote - Direct link - ] |
2008-12-10, 19:59 h Maja Posts: 15429 User |
@Flinx: Nicht unbedingt. Wenn z. B. 1 Schreibzyklus = unabhängig von der Anzahl der Dateien Zelle 1x komplett vollschreiben, bedeutet, dann reicht ein Satz. Ich bin allen Unkenrufen zum Trotz nicht völlig begriffsstutzig. [ - Answer - Quote - Direct link - ] |
2008-12-10, 22:39 h Bogomil76 Posts: 2800 User |
Oh, Festplatten sind nicht nur deshalb so "riesig" geworden, weil mans braucht bzw. die Anwender es wirklich benötigen, sondern eher aus dem Grund wieso Hunde sich auch selbst lecken. Weil man es kann Also die meisten wollen nur ne riesige Platte, brauchen sie aber gar nicht. Und ich habe viele Kunden, weit über 500 (keine Angeberei), und kenne keinen der wirklich 1 TB vollkriegt. Bis auf 2 Agenturen, aber die haben auch 50 Mitarbeiter, auf den Einzelnen runtergerechnet ist das dann geringer. Aber, nur weil man es nicht braucht, heisst ja nicht, nicht weiter zu entwickeln... [ - Answer - Quote - Direct link - ] |
2008-12-11, 00:11 h Maja Posts: 15429 User |
@Bogomil76: Der Hund weiß zwar nicht, warum er sich leckt, dem Zweck läuft das aber nicht entgegen. Eine Festplatte weiß auch nicht, warum sie Daten speichert. Mit Festplatten ist es wie mit Bankkonten. Je größer das Guthaben, desto besser das Gefühl. Mit ein 1 TB ist Unkenntnis über den Sinngehalt von "Papierkorb leeren" auch kein Problem mehr. Nur noch installieren, nichts mehr deinstallieren. Nur noch löschen, nicht leeren. Man kriegt sie voll, irgendwann. Bis dahin haben Supporter etwas mehr Ruhe. Und jetzt mal Hand aufs Herz. 128 GB für 500 Euro und mehr ist, na ja, grenzwertig. Bei 4x mehr für weniger als ein Fünftel des Preises fällt die Entscheidung nicht schwer. Bei dem Preis-/Leistungsverhältnis spielt die Kapazität brauchen oder nicht eine untergeordnete Rolle. Weshalb sich auch asiatische SUVs mit Extras satt zum Preis eines Golfs mit Grundaustattung so großer Beliebtheit erfreuen dürfen, bzw. bisher durften. [ - Answer - Quote - Direct link - ] |
2008-12-11, 08:58 h rbn Posts: 2001 User |
@Holger: Wenn man die Option im Torrent Programm seiner Wahl eingestellt hat, dann stimmt das. Ich weiß ja nicht, was du bei Torrents verkehrt machst, aber wenn das so wie von mir beschrieben (bezogen auf die Menge - und bei hauptsächlich Torrents mit gutem bis sehr gutem Health) stattfindet, dann schreibt die Festplatte ununterbrochen. Weiterhin hast du die von mir aufgezählten parallel laufenden Beschäftigungen des Rechners unterschlagen. Ich wüsste gerne, warum meine Nutzungsbeschreibung bedeutet, dass meißtens gelesen wird. Ich behaupte, dass es sich besten Falls die Waage hält. rbn -- Marketing. Modern. Mittelständisch. http://www.rhein-sieg-design.de [ - Answer - Quote - Direct link - ] |
2008-12-11, 10:00 h schluckebier Posts: 1059 User |
Zitat: Sag mal, was glaubst du eigentlich, wie groß so eine Zelle ist? Irgendwie verstehe ich die Aufregung sowieso nicht, denn soweit ich weiß, sind ausgelutschte Zellen lediglich nicht mehr beschreibbar, können aber durchaus noch gelesen werden? [ - Answer - Quote - Direct link - ] |
2008-12-11, 10:05 h Holger Posts: 8116 User |
Zitat:Versuch doch mal logisch zu denken: eine Festplatte kann nicht mehrere Dinge gleichzeitig tun. Entweder sie schreibt Deinen torrent, oder sie schreibt etwas anderes oder sie liest, oder sie dreht Däumchen. Je mehr parallele Anwendungen Du ausführst, desto mehr entfernst Du Dich von einem dauerhaften Schreiben. Dass Deine Festplatte ununterbrochen schreibt, obwohl Du massenhaft Dateien liest, kann gar nicht stimmen. Eine leuchtende LED bedeutet nicht, dass geschrieben wird. Zitat:Auch dann bist Du weit davon entfernt, einer Dauerbelastung durch Schreiben zu erzeugen. Außerdem belastest Du die Festplatte so minimal, wie nur möglich: jede Anwendung schreibt in einen anderen Bereich. Da bräuchte man nicht einmal Wear-Levelling, das alles erzeugt durchschnittlich weniger als einen Schreibzugriff pro Zelle. Ja, wenn der durchschnittliche torrent-User dazu übergehen würde, seinen Sammlerinstinkt zu unterdrücken und auch mal was zu löschen, könnten mehrere Schreibzugriffe pro Zelle entstehen. Aber auch nicht mehr als bei jedem anderen Nutzungsschema. mfg -- Good coders do not comment. What was hard to write should be hard to read too. [ - Answer - Quote - Direct link - ] |
2008-12-11, 10:13 h Holger Posts: 8116 User |
Zitat:Versuch es doch mal selber rauszufinden, statt so zu tun, als ob Du die Weisheit mit Löffeln gefressen hast. Dass Du überall um jeden Preis mitdiskutieren musst, je weniger Ahnung, desto unsachlicher, ist inzwischen hinlänglich bekannt, genauso wie Deine beliebten Ausflüge in die Metaebene, wenn Du merkst, dass Du falsch liegst. Wenn ausgerechnet Du andere als unzivilisiert oder als Proll bezeichnest, beeindruckt das hier niemanden. [ - Answer - Quote - Direct link - ] |
2008-12-11, 11:00 h MaikG Posts: 5172 User |
Zitat: Zwar ist 1 Zelle im Prinzip 1 Bit aber, da muss ich Maja im gewissen sinne Recht geben, in SSDs können die nicht einzeln Adressiert werden. Zitat aus wiki: >Was diese Laufwerke beim verteilten Zugriff so langsam schreiben >lässt, ist ihre interne Organisation. Sie sind in Blöcke unterteilt. >Wird auch nur ein Byte darin geändert, muss der gesamte Block neu >geschrieben werden. Die forderung an höherer Schreibgeschwindigkeit wird diese Art der Organisation zukunftig ändern. [ - Answer - Quote - Direct link - ] |
2008-12-11, 16:35 h Maja Posts: 15429 User |
Zitat:Hier sind Leute, die mir den Sachverhalt sicherlich erklären können. Du scheinst nicht dazu zu gehören. Zitat:Brauchst Du solche Diffamierungen für dein Selbstwertgefühl oder ist das der Versuch, eigene Unzulänglichkeiten in der Sache zu verschleiern? Deine Weisheit erschöpft sich hier jedenfalls - mal wieder - in Beleidigungen. [ Dieser Beitrag wurde von Maja am 11.12.2008 um 16:36 Uhr geändert. ] [ - Answer - Quote - Direct link - ] |
2008-12-11, 20:47 h Bjoern Posts: 1730 User |
Hab ich was auf den Augen oder machst du gerade auch nix Anderes? [ - Answer - Quote - Direct link - ] |
2008-12-11, 20:53 h Maja Posts: 15429 User |
@Bjoern: Ich spreche mit ihm nur in seiner Sprache. [ - Answer - Quote - Direct link - ] |
2008-12-12, 02:25 h Andreas_Wolf Posts: 2980 User |
Nachdem ich den weiteren Diskussionsverlauf seit meinem letzten Beitrag gerade recht amüsiert gelesen habe, möchte ich natürlich auch noch Stellung zu dem an mich gerichteten Beitrag nehmen. @ Maja: Wenn du meinen Beitrag nicht nur gelesen, sondern auch zu verstehen versucht hättest, hättest du instantan die richtigen Fragen gestellt, z. B. "Was ist eine Speicherzelle bei einem Flash-Medium überhaupt?" Aber im Einzelnen: > Wo bleiben die neuen, x86-only CPUs? Wieso plötzlich "only"? Wieso plötzlich "neuen"? Davon war vorher bei dir keine Rede. Es ging um "x86" und "bauen". Neu-*entwickelte* (und damit wohlgemerkt nur ein Subset von deinem "baut") x86-CPUs seit September 2008 (ich hoffe, das erfüllt dein Kriterium "neu"): AMD: Oktober: Opteron 2350 HE, Opteron 8350 HE November: Opteron 237x, Opteron 238x, Opteron 837x, Opteron 838x Intel: September: Xeon L/E/X74xx, Celeron 450, Pentium Dual-Core E5200, Core 2 Quad Q8200, Core 2 Duo E7300 Oktober: Core 2 Duo E7400 November: Core i7-9xx >> Die Anzahl der Zugriffe -- also 1x 100 GB oder 2x 50 GB oder >> 4x 25 GB usw. -- ist doch egal. > Rein hypothetisch und ziemlich praxisfern. Nein, absolut praxisnah. > Du hast die vielen kleinen Dateien übersehen, die täglich neu > erstellt bzw. überschrieben werden. Die Anzahl oder Größe der Dateien hat nichts mit den Schreibzugriffen auf die Zellen zu tun. > Womit wir u.a. auch wieder beim Thema journalisierendes Dateisystem > wären. Davon hast du zwar bereits am 04.12.2008, 00:56 Uhr geschrieben, aber Sinn ergibt das im hiesigen Kontext immer noch nicht. >> Den zweiten dieser beiden Werte *kann* aber nun mal nur der >> potentielle Käufer wissen, sonst niemand. > Wie viele Schreibzugriffe fallen auf deinem Rechner täglich an? Bei mir fallen gar keine Schreibzugriffe auf SSD-Zellen an, weil ich keine SSD habe. Und die (durchschnittliche) Datenmenge, die bei mir pro Tag auf meine HDD geschrieben wird, weiß ich nicht. Ich schrieb, dass es außer dem Kunden niemand wissen *kann*, nicht, dass es jeder (oder überhaupt ein) Kunde weiß. Das ist ein Unterschied. > Und warum versuchst Du dann, genau das aus einer so allgemein > gefassten Herstelleraussage abzuleiten? Was versuche ich abzuleiten? Und noch mal: Die von dir zitierte Herstelleraussage ist nicht allgemein, sondern so genau, wie es genauer nicht geht (und schon rein logisch gar nicht gehen kann). > Immerhin gabst Du dir redlich Mühe, es möglichst positiv zu rechnen. Ich habe lediglich Äquivalenzumformungen vorgenommen, dazu musste ich mir keine Mühe geben. Im übrigen halte ich die aus der Herstelleraussage errechneten garantierten 2300 Schreibzugriffe pro Zelle für alles andere als positiv, angesichts der mittlerweile üblichen Zahlen, die in diesem Thread -- auch von dir -- genannt wurden. > Der Hersteller Intention, mit allgemein gefassten Aussagen... Und zum dritten Mal: Die Aussage ist das genaue Gegenteil von allgemein. > ...eine gewisse Sorglosigkei hinsichtliche der langfristigen > Haltbarkeit zu implizieren, ist bei dir scheinbar gut gelungen. Ich glaube eher, deine Fantasie geht mit dir durch. 2300 garantierte Schreibzugriffe pro Zelle implizieren mit Sicherheit *keine* "langfristige Haltbarkeit", zumindest nicht bei mir. > Über die tatsächliche Lebensdauer des Mediums unter realen > Nutzungsbedingungen sagt das jedoch rein gar nichts aus. Sofern du mit "Lebensdauer" eine Zeitangabe meinst (und nicht die Angabe der möglichen Schreibzyklen), hast du recht. Das liegt aber einzig daran, dass "reale Nutzungsbedingungen" in keinster Weise definiert sind. Nur der Nutzer selbst kann seine Nutzungsbedingungen kennen, wie ich dir bereits zu erklären versuchte. Sobald der Hersteller einfach irgendwelche Nutzungsbedingungen als "reale Nutzungsbedingungen" annimmt, um eine Zeitangabe statt der Angabe der möglichen Schreibzyklen tätigen zu können, wird die Angabe automatisch subjektiv und verfälscht (= "Werbeaussage"). Auch das habe ich bereits zu erklären versucht. > Labortests und Hochrechnungen können reale Erfahrungswerte nicht > ersetzen. Doch, hier schon. Wenn ein SSD-Medium x-Mal langsamer/seltener beschrieben wird, dann hält es (mindestens?) x-Mal länger. > 10 Millionen ist ein rein hypothetischer Wert Ist mir bekannt. Du schriebst aber, dass es "spätestens bei einem Server relativ Banane" sei, selbst *wenn* dieser Wert tatsächlich zuträfe. Darauf bezieht sich meine Bitte an dich, dieses Szenario mit diesem Wert beispielhaft vorzurechnen. > Es müsste insfofern erst mal bewiesen werden, ob 10 Millionen > Lösch- und Schreibzugriffe überhaupt möglich sind. Das ist wieder eine ganz andere Frage. Mir ging es um deine Aussage, was (bzw. was nicht) wäre, *wenn* dieser Wert zuträfe. > ...dass dem Betreiber eines Server die Tatsache, dass die Zahl der > möglichen Lösch- und Schreibzugriffe überhaupt begrenzt ist, mehr > interessiert als die Frage, wie hoch die Messlatte dabei tatsächlich > liegt. So ein Quatsch. Die Zahl der möglichen Schreibzugriffe ist für einen Server-Betreiber genauso interessant wie die MTBF einer HDD. Und wie hier im Thread bereits erwähnt wurde, kann mit kaputter HDD-Laufwerksmechanik nicht mal mehr lesend zugegriffen werden. ...oder, um dir die Absurdität deiner Argumentation vor Augen zu führen: "...dass dem Betreiber eines Server die Tatsache, dass die Zahl der möglichen Betriebsstunden einer HDD überhaupt begrenzt ist, mehr interessiert als die Frage, wie hoch die Messlatte dabei tatsächlich liegt". > Zumal die Hersteller selbst dazu offenbar keine absoluten Aussagen > machen wollen. No. 4: Doch, tun sie. > Jetzt müsstest Du noch erklären, was die Schreibgeschwindigkeit für > eine Rolle spielt. Sehr gern: Je höher die Schreibgeschwindigkeit (beim Dauerschreiben!), desto mehr Schreibzugriffe pro Zeit und Zelle, desto kleiner wiederum die Zeitspanne, bis die Zahl der möglichen Schreibzugriffe erreicht ist. Bei "natürlicher" Benutzung (wie z. B. der im Thread diskutierten Herstellerangabe mit willkürlich gewählter, aber konstanter Datenmenge pro Zeit) spielt die echte Schreibgeschwindigkeit natürlich keine Rolle. Wer will, kann aber natürlich auch die Herstellerangabe "100 GB pro Tag" als Dauerschreibgeschwindigkeit von 1,16 MB/s (was natürlich weit unterhalb der echten "Momentanschreibgeschwindigkeit" des Mediums liegt) interpretieren. Einen tieferen Sinn sehe ich darin allerdings nicht, zumal sie nur mit der Angabe der Mediengröße ("80 GB") und der Haltbarkeitsdauer ("5 Jahre lang") Aussagekraft besitzt. > Um das vorzeitige Aussfallen einzelner Zellen möglichst zu vermeiden, > wird die Gesamtheit aller Zugriffe möglichst gleichmäßig auf alle > Zellen verteilt. ...womit automatisch das nachzeitige Ausfallen der anderen Zellen vermieden wird. Oder wie du es bereits zuvor richtig schriebst: "Das erhöht [...] nicht [...] die Lebensdauer des gesammten Mediums". Welche Relevanz hat das also für die hiesige Diskussion? > Eine höhere Schreibgeschwindigkeit führt höchstens zu frühzeitigeren > Ausfallerscheinungen weil das Maximum der Zugriffe schneller erreicht > wird. Beim labormäßigen Dauerschreiben, vollkommen richtig. Genau das ist die Grundlage dafür, dass "man [...] von einem Kurzzeiteinsatz unter Extremstbedingungen auf die Haltbarkeit unter Alltagsbedingungen umrechnen kann", was du vorhin noch in Abrede gestellt hast. [ Dieser Beitrag wurde von Andreas_Wolf am 12.12.2008 um 02:39 Uhr geändert. ] [ - Answer - Quote - Direct link - ] |
2008-12-12, 03:13 h Murmel Posts: 1459 User |
Cool Besserwisser trifft noch mehr Besserwisser. Wo das nur endet ? [ Dieser Beitrag wurde von Murmel am 12.12.2008 um 03:14 Uhr geändert. ] [ - Answer - Quote - Direct link - ] |
2008-12-12, 03:34 h Andreas_Wolf Posts: 2980 User |
> Cool Besserwisser trifft noch mehr Besserwisser. Wo das nur endet ? Noch cooler: Dummschwätzer trifft Diskussion, zu der er nichts beizutragen hat. Wo das endet, sieht man an deinem Beitrag. [ - Answer - Quote - Direct link - ] |
2008-12-12, 07:47 h rbn Posts: 2001 User |
Zitat: Das ist mir schon klar. Zitat: Die Anwendungen werden zum Rechnerstart einmal geladen, danach stehen sie im Speicher und fordern - sofern ich keine Daten (wie im Falle von Photoshop z. Bsp. Bilder) mehr nachlade - von der Festplatte nichts mehr an, also wird auch nicht gelesen. Davon ausgeschlossen sind natürlich die Torrents bei denen verteilt wird (Linux Live CDs erfreuen sich einer großen Beliebtheit . Im Großen und Ganzen bedeutet das doch, dass die Festplatte, die restliche Zeit ununterbrochen am Schreiben ist, oder habe ich da einen grundlegenden Denkfehler? Zitat: Wie gesagt, die Torrents richten sich Ihren Speicherbereich auf der Festplatte nicht vorher ein, es wird also kein Platz reserviert, in den dann geschrieben wird. Es wird der Platz genommen der gerade frei ist (sehr zu empfehlen fürs zielgerichtete fragmentieren . Zitat: Ist die Anzahl der Schreibzugriffe von den Herstellern tatsächlich ernst gemeint (Ich habe jetzt nicht selbst nachgeforscht)? --- Das ist ja garnichts ... Wenn das tatsächlich die zugesicherte Anzahl der Schreibzugriffe sein soll, dann erübrigt sich eigentlich jede weitere Diskussion über den Praxiseinsatz von SSDs für normalen Desktopbetrieb. Da ist man ja mit DVD-RAM besser beraten ... rbn -- Marketing. Modern. Mittelständisch. http://www.rhein-sieg-design.de [ - Answer - Quote - Direct link - ] |
2008-12-12, 08:41 h DrNOP Posts: 4118 User |
Zitat:Wenn's dort wenigstens geendet hätte - aber es geht ja immer noch weiter... -- Signaturen mit mehr als zwei Zeilen gehen mir auf den Wecker [ - Answer - Quote - Direct link - ] |
2008-12-12, 10:35 h Holger Posts: 8116 User |
Zitat:Eine Zelle ist nicht ein Bit. Trotzdem wirst Du niemals mehr als eine Datei in einer Zelle speichern, so etwas unterstützt ja schon das Dateisystem gar nicht. Nur als kleiner Hinweis: schon beim A500 betrug die Blockgröße mindestens 512 byte, das heißt mit der Notwendigkeit, auch die Metainformationen zu speichern, benötigte eine Datei mindestens 1kB. Auf heute üblichen Datenträgern beträgt die Blockgröße zwischen 4kB und 32kB. Eine Datei benötigt immer mehr als eine Zelle. Aber vor allem ging es in der Diskussion, wenn Du mal zurückguckst, um die Frage, ob die Datei 4MB oder 40MB groß ist, bei einem Traffic von 360GB. Also, dass eine Zelle keine 4MB groß ist, dürfte wohl klar sein, oder? Außerdem sollten inzwischen alle (bis auf eine Person) verstanden haben, dass der Sinn des "Wear Levelling" ja gerade darin besteht, selbst dann, wenn man softwareseitig immer den gleichen Block beschreiben würde, hardwareseitig unterschiedliche Blöcke belastet werden. Zitat:Nicht nur gerade, sondern schon seit Jahren. Zitat:Aber Du hast doch gerade den Torrents so eine große Bedeutung beigemessen, obwohl gerade diese eine drastische Reduzierung des Schreibaufkommens bedeuten, wenn sie zwischendurch in die andere Richtung übertragen müssen. Warum willst Du genau das, was eben noch eine besondere Belastung darstellen sollte, jetzt plötzlich ausschließen? Zitat:Offenbar schon. Dass die Torrents keine höhere Schreibbelastung darstellen, hast Du offenbar schon eingehen, weil Du sie jetzt sogar schon aus Deiner Betrachtung ausschließen willst. "Dann wird während dessen Internetradio gestreamt" Internet -> Soundkarte . . keine Belastung der SSD "oder TV gestreamt" Dito. ", oder Video von Platte geschaut, oder MP3 von der Platte gehört." Ausschließlich Lesezugriffe "Natürlich wird auch noch gesurft, " Primär Netzwerkzugriffe oder Lesezugriffe, wenn Datei schon im Cache, Schreibzugriffe ausschließlich wenn eine Datei noch nicht im Cache ist, Löschzugriff findet aber erst statt, wenn der Cache voll ist -> Schreibbelastung weit von der maximalen Transferrate einer SSD entfernt. "Email abgerufen, " Schreibzugriff nur bei neuen Mails, andernfalls ausschießlich Lesezugriffe. "und dann arbeitet man ja auch tatsächlich auch noch mit dem Rechner, werden also leicht mal pro Stunde mehrmals mehrere Hundert MB große PSD Dateien gesichert und geladen." Den User möchte ich sehen, der permanent neue Bilder in der maximalen Transferrate einer SSD produziert. Wenn dazwischen keine Pausen zum Lesen der Ausgangsdateien oder zum eigentlichen Bearbeiten des Bildes sind, können ja eigentlich nur einfarbige oder durchgängig transparente Bilder dabei rauskommen. Zitat:Na gut, wenn Du keine Sparse-Files verwenden, sondern bewusst Deine Festplatte quälen willst, trifft das zu. Allerdings trifft trotzdem die Aussage zu, dass jede Datei in einen anderen Bereich geschrieben wird, andernfalls wären sie hinterher wohl kaum zu gebrauchen Falls Du also davon absiehst, eine SSD zu defragmentieren, was keinerlei Nutzen bringt, ist die Belastung nicht höher als bei jeder anderen Festplattenfülloperation. mfg -- Good coders do not comment. What was hard to write should be hard to read too. [ - Answer - Quote - Direct link - ] |
1 2 3 -4- 5 6 7 | [ - Post reply - ] |
amiga-news.de Forum > Andere Systeme > kann mann Festplatten leiser tunen? | [ - Search - New posts - Register - Login - ] |
Masthead |
Privacy policy |
Netiquette |
Advertising |
Contact
Copyright © 1998-2024 by amiga-news.de - all rights reserved. |