200 TB medium von collosal (zum zweiten)

Im Unterforum Off-Topic - Beschreibung: Alles andere was nirgendwo reinpasst

Elektronik Forum Nicht eingeloggt       Einloggen       Registrieren




[Registrieren]      --     [FAQ]      --     [ Einen Link auf Ihrer Homepage zum Forum]      --     [ Themen kostenlos per RSS in ihre Homepage einbauen]      --     [Einloggen]

Suchen


Serverzeit: 28 3 2024  09:56:09      TV   VCR Aufnahme   TFT   CRT-Monitor   Netzteile   LED-FAQ   Osziloskop-Schirmbilder            


Elektronik- und Elektroforum Forum Index   >>   Off-Topic        Off-Topic : Alles andere was nirgendwo reinpasst


Autor
200 TB medium von collosal (zum zweiten)

    







BID = 360307

djtechno

Inventar



Beiträge: 4955
Wohnort: beutelsbach
Zur Homepage von djtechno ICQ Status  

der original thread ging verloren, hier eine quote des urposts


Zitat :

EinarN hatte vor dem roßen Datengau geschrieben:
Kaufen wir nun eine CD-in MD Format auf Lebenszeit?

http://www.physorg.com/news785.html

Bild eingefügt

Ist das der Ende der CD-R?

Um das dind voll zu Bekommen mit MP3's sind auch die Uhrenkeln noch am Brennen :D


alternativthread (bis roiginal wiede rhergesellt: http://www.minidiscforum.de/forum/viewtopic.php?p=165741#165741

meine Gedanken dazu:

Es gibt einen technnischen grund, warum man dieses Medium NICHT am markt verkaufen kann: Es würde heutige pcs überfordern.

Wenn ich meinen 2 gb usb stick einstecke, friert widnoof für eine zehntelsekudne ein, anch 2 weitren sekunden kann ich auf die dateien zugreifen.

wenn ic dei einegschaltete und hochgefahrene 300 gb usb hdd einstecke friert windoof 3 sekunden komplett ein, und es dauefr wietre 10 sekunden, bis ich drauf zugreifen kann. grund.

windoof muß erstmal teile des dateisystems in den arbeitsspeicher lesen, um zu wissen welche laufgwrksbuchstaben es anlegen muß, welche dateisysteme, wieviel partitionen drauf sind, u.s.w.

Erdst dann kannd rauf zugegriffen werden.

Noch schlimmer: je größer die medienkapazität, desto mehr muß windows im arbeisspeicher cachen, um halbwegs effizient auf die platte zugreifen zu müssen, denn wenn windows nur einen kleinen teild er verzeichnisstruktur cachen kann, muß es bei ejden dir-befehl oder klick i explorer oder jedem scrollen im verzeichnis wieder den cache leeren und erneut daten nachladen, schlimmer noch: greif ein hitnergrundprogramm, google desktop, virenscanner, ms office indexer im hitnergrund auf ein völlig andren dateieintrag zu, fliegt schlimmstenfalls das egrade in einemd ialog angezeigte verzeichnis aus dem ache, und dann klönnen sich diee beiden progzeesse konkurieren, a greift zu ...>cache flush, b greift zu - cahce flush, a greift wieder zu....

ergebnis. pc 100% ausgelastet, der benutzer warten minutenkang nach einem klick, bis sich was tut,das laufwerk rotiert udn rotioert sich blöd.

Es muß also genug cache da sein.
ist zu wenig cache da, erhöht sich das transferaufkommen extrem, das ram im rechenr und die cpu müsse flink genug sein, um dieses nachladen schnell genug zu amchen, und das laufwerk muß die daten schnell genug liefern können.

Auch je mhr kapazität ein medium hat, desto größer sind die tabellen, in denen steht, was wo gespeichert ist, und welcher dateiname zu welchen sektoren gehört, oder wo steht, was konkret in einem verzeichnis drin ist.

nun kann man auf diesem medium 100 terrabyte speichern. der pc hat im vergleich zu dieser datenmenge gerade zu mickrig wenig ram, und während das medium praktisch eine gigantische transferrate hat und hudnert mal schnelle rist, als das ram und die cpu, ist de rpc halt die reinste schnecke dagegen, das laufwerk kann also nur mit angezogener handbremse laufen, bis windoof sich da durhc die verzeichnisstruktur gewustelt hast, bis es weiß, wo deine datei konkret liegt......


evtl könnte mand ei probleme lindern, indem amn ein komplett neues datesystem erfindet das quasi alle anse lang von jedem eintrag eine kopie hat, so,daß man nicht lang suchen kann, und von ejdem puntk schnell an alles kommt, udn häufig gebrauchte dateien z.b. dicht beieinander gespeichert werden, udn deren einträge in gemeinsamen evrwaltugnstabellen stehen. So könnte man die probleme lidnern dummerweise würde die "nachführung" und konsistenthaltung eines solchen cached smart filesystems nicht nur mathematisch udn rpogrammiertechnisch höchst komplex werden, nein, es besteht die gefahr, daß es mit der zeit derart "fragmentiert", daß es quasi unbrauchbar, da zu komplex und aufgrund der begrenzten cpu udn ram kapazitt undverwaltbar oder schlicht unerträglich träge würde, die gefahr, das durch fehler ind er strategie situationen entstehen, in denen der overhead sich ver-x-facht wäre sehr groß.

so ein teil könnte man evtl. an einem supercomputer betreiben, der hat genug ram udn rechenleistung, aber nciht an eienm nromalen pc

wollte man es dann gar ncit wie eien wechselplatte addressieren,sondern wie eine cd-r, hätte mand as problem, wo speichert man das cd-image, bzw die quelldateien zwischen, die man auf das 200 tb medium brennen wollte?

oder man amch extreme multisession. fragt sich, wie lange es anchd em einlegen dauert, bis windoof alle 20000 sessions durchgeeiert hat

man könnte das medium nun freilich zwecks lösung dieser probleme"kastrieren, z.b. ein medium in 200 logische einzelmedien mit autonomen filesystemen splitten, und man wählt nach dem einlegen aus dem emdnü, welches der 200 virtuellen medien man "einlegen" will.

ob sowas ein ntuzer kauft? eine 2 seitige dvd-ram verwirrt schon so manchen nutzer "auf welcher seite war gleich nochmal meine powerpoint präsentation"? aber ein quasi "200 seitiges" medium... :hair:

oder man formatiert vond en 200 TB nur 1 tb, dann reicht die transferrate heutiger pcs und der cache und heutige dateisysteem locker aus.

frage ist halt, ob sich die herstellung olch eienr aufwändigen technik nach so einer radikalen kastration noch lohnt ......

is ja nicht so,daß man die medien für 2€ oder auch nur 10€ das stück in bestehenden fertigungsstätten fertigen könnte ......

Marcus


_________________
Ehemaliger forennutzer (ausgetreten)

BID = 361177

Tom-Driver

Inventar



Beiträge: 8792
Wohnort: Berlin-Spandau
Zur Homepage von Tom-Driver

 

  

Wo ist das Problem?

An einem PC mit 128 GHz - 16fach Prozessor (z.B. Intels Hoptany, Baujahr 2007) und 600 GB RAM läuft Windows XXP'08 auch problemlos mit der 200TB-Wechselplatte...


Und ein Dateisystem, das mit solcherlei Datenmengen hervorragend umgehen kann, ist schon lange im Einsatz.
Nennt sich Ontap und arbeitet mit snapshots. Wird in NetApp-Filern (Network Appliances) eingesetzt. Stichwort: SAN.


http://www.netapp.com/products/filer/fas6000_ds.html


Gruß, Tom.

_________________
[x] <= Hier Nagel einschlagen für neuen Monitor!

BID = 361235

Gilb

Urgestein



Beiträge: 16262
Wohnort: Gardine (Gardinenhof)
Zur Homepage von Gilb

Ja, genau,

aus meiner Anfangszeit mit (Home-)Computern (VC20, C 64, TI99/4A, Apple 2e) weiß ich schon, dass man solche "Probleme" mit Indizierung (oder heißt es Indexierung) und Mapping löst.

2 Terabytes würden mir momentan aber sicher noch reichen.

Meint nett
der Gilb


Zurück zur Seite 0 im Unterforum          Vorheriges Thema Nächstes Thema 


Zum Ersatzteileshop


Bezeichnungen von Produkten, Abbildungen und Logos , die in diesem Forum oder im Shop verwendet werden, sind Eigentum des entsprechenden Herstellers oder Besitzers. Diese dienen lediglich zur Identifikation!
Impressum       Datenschutz       Copyright © Baldur Brock Fernsehtechnik und Versand Ersatzteile in Heilbronn Deutschland       

gerechnet auf die letzten 30 Tage haben wir 23 Beiträge im Durchschnitt pro Tag       heute wurden bisher 2 Beiträge verfasst
© x sparkkelsputz        Besucher : 180675114   Heute : 3672    Gestern : 13317    Online : 365        28.3.2024    9:56
13 Besucher in den letzten 60 Sekunden        alle 4.62 Sekunden ein neuer Besucher ---- logout ----viewtopic ---- logout ----
xcvb ycvb
0.0421800613403