Freie NAS Betriebssysteme gibt es ja mittlerweile einige, die bekanntesten sind wohl FreeNAS, NAS4Free und OpenMediaVault. Mit [link ziel=“https://rockstor.com/“]Rockstor[/link] ist seit einiger Zeit ein auf Linux basierter Ableger hinzugekommen. Dabei setzt Rockstor nicht wie OpenMediaVault auf Debian Linux sondern auf CentOS 7.
Das größte Alleinstellungsmerkmal von Rockstor ist die Benutzung des noch jungen Dateisystems Btrfs welches eine große Ähnlichkeit zu ZFS aufweist. Durch die hohe Frequenz der Weiterentwicklung und Fehlerbehebung sollte man bei Btrfs möglichst auf den aktuellsten Linux Kernel setzen was Rockstor auch tut.
So läuft auf Rockstor aktuell der Linux Kernel 4.2.5, während etwa OpenMediaVault (Debian 7) noch auf den Linux Kernel 3.2 aus dem Jahr 2012 setzt. Laut diversen Quellen ist Btrfs mittlerweile „Production stable“, zu Deutsch „Einsetzbar auch für Produktivzwecke“.
Rockstor unterstützt die Protokolle/Features AFP, Active Directory, LDAP, NIS, NTP, NUT-UPS, SFTP und SNMP. Freigaben können via NFS und Samba (Smb/CiFS) zur Verfügung gestellt werden. Die S.M.A.R.T. Funktion bei Festplatten wir seit neustem auch unterstützt.
[title]Einfache und moderne Installation[/title] Rockstor ist nur auf einem 64bit System lauffähig und benötigt mindestens 2GB Arbeitsspeicher. Empfehlenswert sind 4-8GB Arbeitsspeicher, je nach Anzahl der verwenden Datenfestplatten.Nach dem Download der ISO-Datei von Rockstor kann diese mit dem [link ziel=“https://sourceforge.net/projects/win32diskimager/“]Win32DiskImager[/link] auf einen USB-Stick kopiert werden, das ISO ist etwas über 700MB groß. Als Systemdatenträger kann man beruhigt zu einem USB-Stick greifen, Rockstor erkennt den Datenträgertyp und reduziert bei USB-Sticks die Schreibzugriffe auf den Stick. Die Log-Datei hat auf unserem Testsystem allerdings trotzdem eine recht hohe Aktivität auf dem Systemdatenträger angezeigt.
Hier eignet sich eine kleine SSD wie die Transcend SSD370 32GB SSD oder eine Kingston SS200S3 30GB SSD die man mit einem USB 3.0 auf SATA Adapter anschließt. Alternativ kann man auch zu einem SLC-Stick wie dem Mach Xtreme Technology ES Ultra greifen, der deutlich mehr Schreibzugriffe als ein herkömmlicher MLC-USB-Stick verkraftet ([ilink=anleitung-252-usb_mit_slc_speicherzellen_als_systemfestplatte__ein_ssd_ersatz_]mehr Infos zu SLC vs. MLC Sticks findet ihr hier[/ilink]).
Die Installation selbst ist dann sehr einfach gehalten und dauert in etwa 10 Minuten. Der optisch hübsche Installationsassistent ist übersichtlich und einfach zu bedienen. Nach der Installation hat unser Testsystem zunächst keine IP-Adresse zugeteilt bekommen. Nach einem erneuten Neustart funktionierte dann aber alles.
[gallery_1] [title]CentOS[/title] CentOS zielt eigentlich auf den Unternehmenbereich und nutzt die RHEL (Red Hat Enterprise Linux) Paketquellen zu denen es vollkompatibel ist. Normalerweise ist RHEL nämlich kostenpflichtig. Die Linux Lizenzierung sieht hingegen vor das alle Paketquellen frei verfügbar sein müssen.Das nutzt CentOS aus, indem es die RHEL Paketquellen legal anzapft. Mittlerweile sind auch Entwickler von Red Hat an der Entwicklung von CentOS beteiligt. In Rockstor kommt die aktuelle Version CentOS 7 zum Einsatz. CentOS zeichnet sich durch seine langen Supportfenster aus. Während die LTS (Long-Therm-Support) Versionen von Ubuntu Linux z.B. Updates und Support für 4 Jahre garantieren, sind es bei CentOS 10 Jahre.
[title]Btrfs[/title] Btrfs wird als DAS zukünftige Linux Dateisystem gehandelt. Branchengrößen wie Facebook oder Intel beteiligen sich aktiv an der Weiterentwicklung von Btrfs.Btrfs ist ein so genanntes CoW (Copy-On-Write) Dateisystem. Während Dateisysteme wie Ntfs oder Ext bei einer Änderung die Datenblöcke auf dem Datenträger überschreiben, schreibt Btrfs diese stets an einem anderen Ort damit alle Datenblöcke einer Datei in unmittelbarer Nähe zueinander liegen. Das bedeutet, dass der Lesekopf des Datenträgers die zusammenhängenden Datenblöcke schneller lesen und schreiben kann was in einer höheren Performance resultiert.
Zusätzlich erhält man dadurch eine Versionierung, denn die vorherige Version der Datei wurde ja nicht überschrieben, sondern ist noch vorhanden. Diese Version lässt sich dann so lange wiederherstellen bis der Speicherplatz von einer anderen Datei belegt wird (sofern kein freier Speicherplatz mehr vorhanden ist).
Nachteilig ist, dass zusätzlich zu den wirklichen Daten immer auch so genannte Metadaten abgelegt werden müssen, die Informationen über Verweise aber auch z.B. über die Prüfsummen der Dateien enthalten. Anhand dieser Prüfsummen kann sich Btrfs (wie auch ZFS) selbstständig reparieren und die Dateien so gegen schleichende Datenkorruption (auch Silent-Data-Corruption bzw. Bit-Rot) schützen. Während ZFS Metadaten erst nach den Originaldaten schreibt (was mehr Zeit kostet), kann Btrfs die Metadaten zeitgleich mit den Originaldaten schreiben.
Schleichende Datenkorruption kann beim Schreiben der Datei auf den Datenträger z.B. durch Fehler im Arbeitsspeicher oder auf der Festplatte entstehen. Auch elektromagnetische Impulse, Gammastrahlung oder fehlerhafte Firmware/Treiber können eine Korruption der Daten auslösen. Der CERN hatte bereits im Jahr 2007 festgestellt, dass bei herkömmlichen Dateisystemen statistisch in einer von 1.500 Dateien korrupte Daten vorkommen.
Ein Problem ist, dass eine Datenkorruption in vielen Fällen gar nicht auffällt, bei einigen Dateitypen ist die Datenkorruption meist auch zu vernachlässigen, z.B. bei Video und Musikdateien die meist aus Milliarden Bits bestehen, fällt ein fehlerhaftes Bit kaum auf. Kritischer sind Daten die z.B. Transaktionen oder kritische Werte (z.B. einen Kontostand) enthalten.
Je mehr Speicherebenen zum Einsatz kommen, desto höher ist die Wahrscheinlichkeit das korrupte Daten entstehen. Ist eine Festplatte direkt an das Mainboard angeschlossen, gibt es etwa 3 Ebenen (Storage Management (Raid), Volume Management und Dateisystem). Benutzt man einen Raid-Controller, erhöht sich die Anzahl auf 4 Ebenen. Jede Ebene kann für sich nicht erkennen ob die gelieferten Daten in der vorherigen Ebene verfälscht wurden.
Btrfs (und auch ZFS) bietet für den ersten Fall (3 Ebenen) kompletten Schutz, denn es kombiniert Storage Management, Volume Management und Dateisystem und reduziert die Ebenenanzahl so auf 1. In den Metadaten legt Btrfs nun die Original-Prüfsumme der Datei ab. Durch regelmässige Überprüfungen (so genannte „Scrubs“) kann eine Datenkorruption damit faktisch ausgeschlossen werden, weil korrupte Daten erkannt und repariert werden können.
Aber auch beim Featureset merkt man Btrfs an, dass es ein modernes Dateisystem ist. So liegt die maximal mögliche Größe einer Datei bei wahnsinnigen 9.223.368 Terrabytes. Dateien können unabhängig voneinander unterschiedlich stark komprimiert werden. Die Komprimierung (zlib und LZO) ist zudem auch bei kleinen Dateien sehr effizient. Standardmässig werden Dateien aber unkomprimiert abgelegt.
Wie auch bei ZFS lassen sich unter Btrfs so genannte Momentaufnahmen (Snapshots) anlegen, auf die später jederzeit wieder zurückgewechselt werden kann. Ungewollte Dateiänderungen können so mit einem Klick rückgängig gemacht werden. Die Snapshots sind dabei inkrementell, d.h. es werden in einem Snapshot nur Änderungen abgespeichert und nicht noch einmal alle Dateien.
Neben Festplatten werden auch SSDs (z.B. TRIM) voll unterstützt. Im Vergleich zu ZFS benötigt Btrfs deutlich weniger Arbeitsspeicher (ZFS: 1GB pro 1TB Speicherplatz, Btrfs: 1GB pro 5TB Speicherplatz). Festplatten lassen sich einzeln oder als Raid 0,1,10,5 und 6 in einem Pool zusammenfassen.
Ein Pool darf aus unterschiedlich großen Festplatten bestehen, zudem lässt sich der Verbund jederzeit verkleinern oder vergrößern. Danach muss die Parität mit dem „Balancing“ wieder neu hergestellt werden. Während die Dateisystemüberprüfungen (Scrub) regelmässig durchgeführt werden sollten, muss man nur nach einer Änderung des Raids neu Balancen.
Btrfs bringt keine eigene Verschlüsselungsfunktion mit, unterstützt aber die Verschlüsselung der Partitionen (luks/dm-crypt). Mit Grub 2 sind Btrfs Partitionen bootbar und werden z.B. in Rockstor auch für das System benutzt.
[title]ECC vs. Non-ECC Arbeitsspeicher bei Btrfs[/title] Ein Diskussionspunkt bei NAS Systemen, insbesondere bei FreeNAS, ist die Verwendung von ECC-Arbeitsspeicher. ECC-Arbeitsspeicher kann 1-Bit (Single-Bit) Fehler erkennen und reparieren. Generell ist ECC-Arbeitsspeicher in einem NAS immer normalen Arbeitsspeicher vorzuziehen.ECC-Arbeitsspeicher selbst ist kaum teurer als normaler Arbeitsspeicher, benötigt allerdings ein Mainboard mit ECC-Unterstützung (bei Intel nur bei Server-Chipsätzen), außerdem muss auch der Prozessor ECC-Arbeitsspeicher unterstützen (bei Intel alle Prozessoren bis auf Core i5 und Core i7). Daher kann ein ECC-fähiges NAS gut 150 Euro teurer als ein normales NAS sein.
Btrfs ist nicht so Speicherintensiv wie ZFS, was etwas mehr Freiraum bei der Arbeitsspeicherplanung lässt. Privatanwender, die ein kleines NAS mit 2-6 Festplatten aufbauen möchten um darauf unkritische Daten wie Videos, Musik oder Bilder abzulegen, benötigen unserer Meinung nach nicht unbedingt ECC-Arbeitsspeicher.
Sollen kritische Daten oder sehr große Datenmengen abgelegt werden, ist ECC-Arbeitsspeicher empfehlenswert. In Unternehmensumgebungen ist ECC-Arbeitsspeicher sowieso obligatorisch.
[title]Bedienung über Weboberfläche[/title] Wie alle gängigen NAS-Betriebssysteme wird auch Rockstor komplett über die Weboberfläche (gesichert über https) bedient. Linux Fachwissen ist nicht erforderlich. Sobald man sich zum ersten Mal mit der Weboberfläche verbindet, erstellt Rockstor einen Benutzerlogin. [gallery_2] [title]Vorteile von Rockstor[/title] Durch die Benutzung von Btrfs ist Rockstor gezwungen sehr aktuelle Linux Kernel zu verwenden. So hat man schnell Zugriff auf neue Features. Da das System noch sehr jung ist, ist es trotz Btrfs einfach zu bedienen und sehr übersichtlich. Es sind nur die notwendigsten Funktionen zur Verwaltung der Pools und Freigaben sowie ein paar System und Benutzereinstellungen vorhanden.Rockstor bietet die Möglichkeit Plugins über Docker einzubinden. Die Plugins liegen dabei als Container vor, den Docker auf dem Hostsystem virtualisiert. Dadurch sind die Plugins isoliert und haben nur Zugriff auf die freigegebenen Host-Ressourcen. Zudem sind alle benötigten Pakete im Container enthalten was eine hohe Kompatibilität garantiert. Das Docker eingesetzt wird, liegt auch daran das Red Hat die Kernel Erweiterung SELinux in CentOS implementiert hat.
[title]Nachteile von Rockstor[/title] Rockstor ist ein noch recht junges Projekt und verfügt noch nicht über eine so große Community wie z.B. FreeNAS. Da Btrfs noch recht neu ist, finden sich kaum Erfahrungsberichte über das neue Dateisystem. Auch Langzeittests sind so gut wie nicht vorhanden, dies ist bei etablierten Dateisystemen wie ZFS oder Ext4 natürlich deutlich besser.Die Benutzung von neuen Linux Kerneln bedeutet auch, dass es eventuell kleinere Bugs in den Kernel schaffen. Updates sind bei Rockstor in „Stable“ und „Testing“ unterteilt. Während „Testing“ Updates in recht kurzen Zeitabständen von einigen Tagen veröffentlicht werden werden die „Stable“ Updates nur 1-2 Mal im Monat ausgerollt.
Die „Testing“ Updates können unentdeckte Fehler enthalten, was für Produktivserver natürlich ein No-Go ist. Die „Stable“ Updates erfordern hingegen ein aktives Abo (15 USD pro Jahr oder 35 USD für 5 Jahre). „Testing“ bedeutet immer auch ein Risiko auf Datenverlust oder andere Probleme. Wer also ernsthaft Rockstor einsetzen möchte, kommt um ein „Stable“ Abo nicht herum. Um sich in das System einzuarbeiten reichen die „Testing“ Updates aus.
[bild 11]Damit ist Rockstor das einzige der hier aufgezählten NAS-Betriebssysteme welches kostenpflichtig sein kann. Beim 5 Jahres-Abo sind dies umgerechnet 6,30 Euro pro Jahr bzw. 50 Cent pro Monat.
Aktuell fehlt zudem die Möglichkeit Festplatten in den Standby zu schicken, das können Systeme wie FreeNAS oder insbesondere OpenMediaVault mit AutoShutDown und WOL deutlich besser.
[title]Bugs[/title] Rockstor wird aktuell noch von einigen kleineren Bugs geplagt, so wird z.B. die Pool-Kapazität nicht aktualisiert. Da man allerdings auf jedem Pool sowieso eine Freigabe (Share) anlegt (hier funktioniert die Kapazitätsberechnung) ist dies aktuell nicht tragisch. Die Kapazität des Pools ist auch nur im Webinterface fehlerhaft, das Dateisystem gibt die Kapazität korrekt aus.Ein Meldesystem bei Fehlern ist in einem NAS Pflicht. Auch Rockstor verfügt über so ein Meldesystem bei den ein beliebiger E-Mail SMTP-Server zum Postversand benutzt wird. Eine Testnachricht wurde bei uns auch korrekt versandt. Als wir allerdings ein Festplattenausfall durch Trennung des SATA-Kabels simulierten passierte nichts, es wurde keine Warnung per E-Mail versandt. Laut Forum wird bereits an einer Lösung gearbeitet.
Die Parität unseres Pools (Raid5, 3 Festplatten) war hingegen gewährleistet, einen Datenverlust haben wir nicht erlitten. Wäre aber eine zweite Festplatte unbemerkt ausgefallen, hätten wir unter Umständen Daten verloren.
Ein weiterer Bug ist, dass unser Pool (3 Festplatten a 2,7TiB netto = 5,5TiB netto nutzbar) uns zwar in Rockstor als 5,5TiB Pool angezeigt wird, auf unserem Windows 10 Client allerdings mit 8,16 TB (was nicht stimmt da eine Festplatte als Parität genutzt wird).
[title]Fazit[/title] Rockstor ist ein junges NAS System mit enorm viel Potenzial. Alleine die Tatsache das hier Btrfs zum Einsatz kommt macht Rockstor interessant. Die Installation und Bedienung ist einfach und übersichtlich.Das System ist schnell und erreicht Dank des aktuellen Linux Kernels (4.2.5) den aktuell besten Standby-Verbrauch den wir in einem Selbstbau-NAS gemessen haben (9,8W zu 10,0W OpenMediaVault bei unserem Braswell System mit ASRock N3700-ITX Mainboard).
Allerdings fehlen viele Grundfunktionen, so existiert beispielsweise kein Energiemanagement. Auch die fehlerhafte Benachrichtigungsfunktion empfiehlt Rockstor noch nicht für den Produktivgebrauch. Wir finden Rockstor aber trotz der kostenpflichtigen „Stable“ Updates schon ziemlich gut.
Leider fehlt noch die Möglichkeit Shares per iSCSI zur Verfügung zu stellen, außerdem sind nur wenige Plugins (Plex, Owncloud, OpenVPN, ein BitTorrent Server und ein BitTorrent Client sowie ein Plugin für die Synchronisierung von Dateien) verfügbar.
Wer gerne mit neuen Technologien in Berührung kommt und auch mit dem einen oder anderen Rückschlag leben kann, dem sei Rockstor schon jetzt ans Herz gelegt. Alle die einfach nur ein zuverlässiges NAS mit wenig Aufwand einrichten möchten, sind mit den etablierten Lösungen wie FreeNAS oder OpenMediaVault noch besser bedient.
Wir bleiben bei Rockstor auf jeden Fall am Ball und werden bald auch eine detaillierte Schritt-für-Schritt Anleitung für euch anbieten, wie wir es schon für [ilink=anleitung-255-installation_und_konfiguration_von_openmediavault_inkl._wake_on_lan]OpenMediaVault[/ilink] und [ilink=anleitung-268-freenas__komplette_installation_schritt_fuer_schritt_erklaert]FreeNAS[/ilink] tun.
Es gibt keine Festplatten mit 2,7TB, nur welche mit 2,7TiB und da die Festplattenhersteller Dezimalpräfixe verwenden, sind die als 3TB Platten bekannt und werden auch so vermarktet. Nur weil Windows zwar mit Binärpräfixen rechnet, dann aber die Einheiten von Dezimalpräfixen verwendet, muss man deren Fehler ja nicht auch noch kopieren.
Bzgl. Silent-Data-Corruption: Ist zu 99% der RAM Schuld, denn HDDs und SSDs sichern die Daten mit einer ECC pro Sektor / Page ab, auch SATA sichert jedes FIS (maximal 8kiB) mit einer CRC32 ab, da sind Bitfehler also praktisch ausgeschlossen. Ohne ECC RAM holt man sie sich schon beim Kopieren oder Erstellen der Daten, wobei dies ja immer im RAM liegen. Weiter kommt bei Consumer Platten noch eine Korruption auf den internen Datenpfade in Betracht, die sind nur bei den Enterprise Platten davor geschützt, bestenfalls haben einige Consumer Platten eine Erkennung solche Fehler als Ende-zu-Ende Fehler in den S.M.A.R.T. Werten.
Dann kann Datenkorruption noch im Puffer des SATA/SAS Host Controllers entstehen, da hat ebenfalls nur die Enterprise HW einen Schutz vor solche Datenkorruption. ECC RAM und vernünftige Enterprise-HW sind also die Voraussetzungen für die Datenintegrität und eine Filesystem mit Prüfsummen ist die Kirsche auf dem Kuchen, der Wetterhahn auf dem Dach, der ersetzt aber nicht das Fundament des Hauses. Zumal man bei jedem normalen RAID, also einem mit Redundanz (sonst ist es ja auch nur ein AID), ebenfalls ein Scrubbing machen kann, wobei defekte Daten auffallen und normalerweise korrigiert werden können.
@Holt: Bei den Festplatten war mit 2,7TB die netto zur Verfügung stehende Kapazität gemeint, habe dies nochmal hinzugefügt.
Laut Btrfs Dokumentation hat ein HW-Raid eben keine Vorteile bei der Dateisicherheit gegenüber einem Btrfs Software-Raid, weil Btrfs alle 3 Ebenen verwaltet und so eine Verfälschung der Prüfsumme sofort mitbekommen würde. Den einzigen Vorteil den ich bei einem HW-Raid sehe ist der zusätzliche Write-Cache Schutz durch eine BBU.
Es sind ja aber nicht 2,7TB netto, auch wenn Windows das so anzeigt, es sind nun einmal 2,7TIB, also Tebibyte und nicht Terabyte. Bei den heute üblichen Kapazitäten ist der Unterschied ja nun einmal groß, bei TB zu TiB fast 10% und da muss man schon auf die korrekten Einheiten achten, um die Verwirrung nicht weiter zu erhöhen.
@Holt: Du hast recht, ich habs in TiB geändert. Die Anzeige in Rockstor selbst ist dann aber ebenso „falsch“ wie unter Windows, auch hier werden 2,7 TB angezeigt.
@Holt
„ECC RAM und vernünftige Enterprise-HW sind also die Voraussetzungen für die Datenintegrität“
Was wären denn solche vernünftige Enterprise-HW Komponenten? Worauf sollte man deiner Meinung nach achten und was zählt genau dazu? Enterprise Festplatten, ok (gilt das auch für normale NAS Festplatten?) – aber was noch?
Hallo
schön das es was neues gibt
ich wollte auch schon meine NAS (OMV) neu aufsetzen, auf Debian testing oder Stretch
oder auf centOs bzw. Fedora oder Univention 4.1 (teste ich grad in einer VM, aber xfs ist zu alt, basiert aber auf debian)
mein Interesse ist ein aktueller Kernel 4.x
und XFS und da XFSPROGS ab ver. 3.2 und snapraid
ab XFS v5 wird auch CRC bei XFS unterstützt und noch einige verbesserungen
Ich nutze seit Jahren XFS ohne Probleme oder Datenverluste
(N40L mit 8GB ECC RAM), 5 WD red
nun könnte ja ein upgrade auf einen aktuellen Prozessor anstehen
na mal sehen…ob Skylake oder Haswell
ECC ram und mehr als 6 Sata sinnvoll
(notfalls PCIe slot)
könnt ihr mal schauen, welche version der xfsprogs bei rockstor benutzt wird ?
snapraid möglich ?
danke
Gruß Ingo
@Ingo: [link=https://distrowatch.com/table.php?distribution=rockstor&pkglist=true&version=3.8-9]xfsprogs-3.2.1-6.el7.x86_64.rpm[/link]. Denke schon das SnapRaid möglich ist, aber die Oberfläche von Rockstor unterstützt nur Btrfs.
Sehr schön, dass auch interessante Neuprojekte bei Euch ausführlich publiziert werden.
Btrfs wird -imho- ziemlich sicher DIE Alternative zu ZFS darstellen, insbesondere bei Storage-Konzepten.
Einzig die „preiswerten“ Raid-Levels 5/6, was vermutlich auch auf die 50/60-Varanten zutrifft,
sind (noch?) für einige Zeit mehr kritisch zu sehen, insbesondere für produktiven Einsatz.
Im Forum von Rockstor -> https://forum.rockstor.com/t/question-about-raid5-6-stability/56
gibt es vom Entwickler selbst eine entsprechende Interpretation zur Thematik.
Vlt. ist eine generelle Überlegung über den idealen Raid-Level bei massiven Storage-Solutions sowieso angesagt, die am besten VOR Auswahl des Dateisystems getroffen wird.
Die Diskussion über die Verwendung von ECC-RAM sollte -imho- prinzipiell unabhängig vom Dateisystem geführt werden und nach Möglichkeit sollte eigentlich immer zu Gunsten der Datenintegrität entschieden
werden – BEVOR aus Terabytes „Terrorbytes“ werden.
Auch bei einem innovativen Rockstor mit btrfs wird eine solide Planung
von Raid oder nicht, ECC-Ram oder nicht, stinknormalen gewöhnlichen „Desktop-Speicherplatten“ oder nicht,
einem „wie auch immer Backup-Konzept“ und um so „Kleinigkeiten“ wie Skalierfähigkeiten höchst sinnvoll sein oder es wird zur „ewigen“ Frickelei.
Windoofe mit ReFS wissen wieder ein Lied zu singen,
wenn Dateisysteme viel zu früh auf Speicherplätze losgelassen werden.
Jedenfalls ist für die DIY-Storage-Bastler mit Rockstor und Butter, feine Sache aka btrfs
eine weitere ernsthaft zu prüfende Alternative am Start und das ist generell gutso.
Letzter Hinweis für Interessierte:
Die im o.g. Beitrag gen. Supportkosten sind auf der Rockstor-Website
ziemlich versteckt unter Dokumentation und Update Channel zu finden.
-> https://rockstor.com/docs/update-channels/update_channels.html#update-channels
Ich gehe inzwischen mal in den Keller zum Basteln an „exotischen Teilen“.^^
LG
vom local horst
Habe ebenfalls Rockstor mit exakt diesem Board im Einsatz. Ein paar Anmerkungen:
„außerdem sind nur wenige Plugins (Plex, Owncloud, OpenVPN, ein BitTorrent Server und ein BitTorrent Client sowie ein Plugin für die Synchronisierung von Dateien) verfügbar.“
-BitTorrent kennt das Prinzip Client-Server eigentlich nicht. In Rockstor gibt es einen BitTorrent-Client, und DEN BitTorrentSync-Client
Ersterer ist ein Filesharing-Client (Transmission), letzterer ist ebenso wie das im Artikel leider nicht namentlich genannte offene „Syncthing“ ein kommerzielles Programm zur Dateisynchronisierung. Die Namensgebung bei BitTorrent ist verwirrend, aber das sind zwei gänzlich unterschiedliche Paar Schuhe.
Die Dateideduplizierung ist zwar ein Feature von BTRFS aber im Prinzip von Rockstor derzeit nicht unterstützt. Das Kopieren von Dateien innerhalb von Rockstor-SHares von einem samba-client wird mit hoher Wahrscheinlichkeit doppelten Speicherplatz belegen. Das zur (nachträglichen) Deduplizierung notwendige Programm „duperemove“ befindet sich nicht in den repos (es gibt noch bedup, dass aber m.W. nicht mehr weiterentwickelt wird). Lediglich ein „cp“ Befehl legt seit einiger Zeit automatisch reflinks auf BTRFS an.
Gibt es eigendlich auch einen wirklichen Vorteil bei BTRFS und NFS gegenüber von ext4 wenn ich nur eine Platte benutze?
@Brecht: Ja die Datenintegrität ist durch die Möglichkeit der Prüfung höher.
Danke
für snapraid reicht console
und n kleines script
super
Deine Erklärung, was ein Copy-On-Write-Dateisystem sein soll ist sehr kreativ, formal bestimmt richtig, aber im Endeffekt schmeist du Copy-On-Write mit Deduplizierung gemeinsam in eine Erklärung.
Dein CoW-Erklärung stimmt, wenn es um den Arbeitsspeicher geht. Solange 2 Prozesse die gleichen Daten im Arbeitsspeicher benutzen, macht es keinen Sinn 2x den Speicherplatz der Datei im RAM zu belegen. Allerdings ist CoW keine aktive Deduplizierung, d.h. die Speicherplatz-Ersparnis gibt es erst dann, wenn der Kernel dies erkennen kann z.B. wenn ein Unterprozess erstellt wird der auf die gleiche Bibliothek laden möchte, die schon im RAM ist. Eine Deduplizierung ist ein Feature, was oft in Kombination mit CoW kommt, aber nicht zwingend damit zu tun hat.
Ein CoW-Dateisystem, ob ZFS oder Btrfs, ist aber meiner Meinung etwas ganz anderes. Hier ist der zentrale Punkt, dass beim Schreiben (write) der alte Block nicht überschrieben wird, sondern die neuen Daten in einen freien Datenblock geschrieben werden. Damit beim Lesen auch der neue Block mit ausgelesen wird, muss das Inhaltsverzeichnis, also in welchen Blöcken eine Datei gespeichert ist (= Referenz), aktualisiert werden. Danach wiederholt man das Ganze mit dem Inhaltsverzeichnissen der übergeordneten Verzeichnissen bis zum Wurzelverzeichnis des Pools.
Nach dem CoW werden die alten Datenblöcke wieder zum Überschreiben freigegeben. Genauer gesagt werden die Referenzzähler der alten Blöcke um 1 reduziert. D.h. wenn diese Datenblöcke in keinem Snapshot referenziert werden, werden diese tatsächlich gelöscht, ansonsten belegen diese weiterhin Speicherplatz obwohl sie „gelöscht“ wurden. Das machen allerdings fast alle modernen Dateisysteme so; auch NTFS. Allerdings kommt es dort selten dazu, dass ein Datenblock mehrmals im Dateisystem aufgelistet wird. Bei NTFS wird dieses Feature Hardlink genannt.
Da ich diese Weisheit nicht selbst erfunden habe, hier eine meiner Quellen:
https://www.youtube.com/watch?v=2iCLaFaMzJw&t=1023
In diesem Video erklärt ein ZFS-Entwickler ganz anschaulich wie ZFS arbeitet. Grundlegend macht Btrfs auch nichts anderes; die Details und vor allem die Lizenz machen hier den entscheidenden Unterschied.
@Alexander: Danke für dein Feedback, ich habe das Wissen selbst aus diversen Artikeln „zusammengelesen“, z.B. hier bei [link=https://de.wikipedia.org/wiki/Copy-On-Write]Wikipedia[/link]. Du hast Recht das ich im ersten Abschnitt das CoW nicht korrekt erklärt habe, ich habe den Abschnitt bearbeitet.