der original thread ging verloren, hier eine quote des urposts
Zitat :
|
EinarN hatte vor dem roßen Datengau geschrieben:
Kaufen wir nun eine CD-in MD Format auf Lebenszeit?
http://www.physorg.com/news785.html
Bild eingefügt
Ist das der Ende der CD-R?
Um das dind voll zu Bekommen mit MP3's sind auch die Uhrenkeln noch am Brennen :D |
alternativthread (bis roiginal wiede rhergesellt:
http://www.minidiscforum.de/forum/viewtopic.php?p=165741#165741
meine Gedanken dazu:
Es gibt einen technnischen grund, warum man dieses Medium NICHT am markt verkaufen kann: Es würde heutige pcs überfordern.
Wenn ich meinen 2 gb usb stick einstecke, friert widnoof für eine zehntelsekudne ein, anch 2 weitren sekunden kann ich auf die dateien zugreifen.
wenn ic dei einegschaltete und hochgefahrene 300 gb usb hdd einstecke friert windoof 3 sekunden komplett ein, und es dauefr wietre 10 sekunden, bis ich drauf zugreifen kann. grund.
windoof muß erstmal teile des dateisystems in den arbeitsspeicher lesen, um zu wissen welche laufgwrksbuchstaben es anlegen muß, welche dateisysteme, wieviel partitionen drauf sind, u.s.w.
Erdst dann kannd rauf zugegriffen werden.
Noch schlimmer: je größer die medienkapazität, desto mehr muß windows im arbeisspeicher cachen, um halbwegs effizient auf die platte zugreifen zu müssen, denn wenn windows nur einen kleinen teild er verzeichnisstruktur cachen kann, muß es bei ejden dir-befehl oder klick i explorer oder jedem scrollen im verzeichnis wieder den cache leeren und erneut daten nachladen, schlimmer noch: greif ein hitnergrundprogramm, google desktop, virenscanner, ms office indexer im hitnergrund auf ein völlig andren dateieintrag zu, fliegt schlimmstenfalls das egrade in einemd ialog angezeigte verzeichnis aus dem ache, und dann klönnen sich diee beiden progzeesse konkurieren, a greift zu ...>cache flush, b greift zu - cahce flush, a greift wieder zu....
ergebnis. pc 100% ausgelastet, der benutzer warten minutenkang nach einem klick, bis sich was tut,das laufwerk rotiert udn rotioert sich blöd.
Es muß also genug cache da sein.
ist zu wenig cache da, erhöht sich das transferaufkommen extrem, das ram im rechenr und die cpu müsse flink genug sein, um dieses nachladen schnell genug zu amchen, und das laufwerk muß die daten schnell genug liefern können.
Auch je mhr kapazität ein medium hat, desto größer sind die tabellen, in denen steht, was wo gespeichert ist, und welcher dateiname zu welchen sektoren gehört, oder wo steht, was konkret in einem verzeichnis drin ist.
nun kann man auf diesem medium 100 terrabyte speichern. der pc hat im vergleich zu dieser datenmenge gerade zu mickrig wenig ram, und während das medium praktisch eine gigantische transferrate hat und hudnert mal schnelle rist, als das ram und die cpu, ist de rpc halt die reinste schnecke dagegen, das laufwerk kann also nur mit angezogener handbremse laufen, bis windoof sich da durhc die verzeichnisstruktur gewustelt hast, bis es weiß, wo deine datei konkret liegt......
evtl könnte mand ei probleme lindern, indem amn ein komplett neues datesystem erfindet das quasi alle anse lang von jedem eintrag eine kopie hat, so,daß man nicht lang suchen kann, und von ejdem puntk schnell an alles kommt, udn häufig gebrauchte dateien z.b. dicht beieinander gespeichert werden, udn deren einträge in gemeinsamen evrwaltugnstabellen stehen. So könnte man die probleme lidnern dummerweise würde die "nachführung" und konsistenthaltung eines solchen cached smart filesystems nicht nur mathematisch udn rpogrammiertechnisch höchst komplex werden, nein, es besteht die gefahr, daß es mit der zeit derart "fragmentiert", daß es quasi unbrauchbar, da zu komplex und aufgrund der begrenzten cpu udn ram kapazitt undverwaltbar oder schlicht unerträglich träge würde, die gefahr, das durch fehler ind er strategie situationen entstehen, in denen der overhead sich ver-x-facht wäre sehr groß.
so ein teil könnte man evtl. an einem supercomputer betreiben, der hat genug ram udn rechenleistung, aber nciht an eienm nromalen pc
wollte man es dann gar ncit wie eien wechselplatte addressieren,sondern wie eine cd-r, hätte mand as problem, wo speichert man das cd-image, bzw die quelldateien zwischen, die man auf das 200 tb medium brennen wollte?
oder man amch extreme multisession. fragt sich, wie lange es anchd em einlegen dauert, bis windoof alle 20000 sessions durchgeeiert hat
man könnte das medium nun freilich zwecks lösung dieser probleme"kastrieren, z.b. ein medium in 200 logische einzelmedien mit autonomen filesystemen splitten, und man wählt nach dem einlegen aus dem emdnü, welches der 200 virtuellen medien man "einlegen" will.
ob sowas ein ntuzer kauft? eine 2 seitige dvd-ram verwirrt schon so manchen nutzer "auf welcher seite war gleich nochmal meine powerpoint präsentation"? aber ein quasi "200 seitiges" medium... :hair:
oder man formatiert vond en 200 TB nur 1 tb, dann reicht die transferrate heutiger pcs und der cache und heutige dateisysteem locker aus.
frage ist halt, ob sich die herstellung olch eienr aufwändigen technik nach so einer radikalen kastration noch lohnt ......
is ja nicht so,daß man die medien für 2€ oder auch nur 10€ das stück in bestehenden fertigungsstätten fertigen könnte ......
Marcus
_________________
Ehemaliger forennutzer (ausgetreten)