Gedistribueerd bestandssysteem (DFS): de basis. Record-georiënteerde bestandssystemen. DFS-domein root

Een bestandssysteem met een niet-gefragmenteerde bestandsindeling. Gebruikt op persoonlijke computers BC in besturingssystemen MKDOS, AO-DOS, NORD, MicroDOS, NORTON-BK, PascalDOS, enz. Alleen ondersteund voor lezen in ANDOS. Verschillende besturingssystemen ondersteunden vaak verschillende, niet altijd volledig compatibele aanpassingen. Een geavanceerd journaling-bestandssysteem beschikbaar voor de AmigaOS-besturingssystemen, evenals MorphOS en AROS. Een van de kenmerken van dit systeem is de mogelijkheid om zelfs tijdens het werken met bestanden te defragmenteren. Notities (bewerken)
  1. Martijn Marshall. Intel-Architecture Unix: nog steeds een bewegend doelwit // InfoWorld. - 1989. - P. 64. - “De nieuwe SCO-release voegt ook een snel bestandssysteem toe dat is ontworpen door Acer Counterpoint<…>Volgens SCO Xenix-productmanager Bill Brothers kunnen de prestaties van Acer Fast File System oplopen tot 600 tot 800 kilobytes per seconde, vergeleken met ongeveer 100 kilobytes per seconde voor standaard Unix-bestandsformaten.
  2. 1.3 release bevestigd op 16 september 1988 door Carolyn Scheppner van CATS in amiga.dev in. Kopie van BIX-aankondiging van USENET
  3. (niet gespecificeerd) .
  4. Voor het eerst geïntroduceerd in NTFS 3.0
  5. Rob Radez. 2.4.15-finale (niet gespecificeerd) . Linux-kernel mailinglijst(23 november 2001). Ontvangen 30 november 2010. Gearchiveerd 26 augustus 2011.
  6. Microsoft's verzet tegen Datel's Motion for Partial Summary Judgment (PDF-bestand op de website van de Electronic Frontier Foundation) - " FatX is een niet-gepubliceerde, eigen indeling die niet leesbaar is met standaardhulpmiddelen die beschikbaar zijn op een Macintosh-, Windows- of Linux-computer. ", Veel tekst is overschilderd.
  7. Sergey Ptashnick. "Open source Next3 - bestandssysteem voor Linux met ondersteuning voor FS snapshots" (niet gespecificeerd) ... (09 juni 2010). Ontvangen op 17 februari 2011. Gearchiveerd op 26 augustus 2011.
  8. ReFS-bestandssysteem van binnenuit Vrijgegeven (niet gespecificeerd) ... R.Lab (16 maart 2012). Gearchiveerd 31 mei 2012.
  9. "Btrfs en Squashfs samengevoegd tot Linux-kernel"(Engels) (10 januari 2009). Ontvangen op 4 januari 2011. Gearchiveerd op 26 augustus 2011.
  10. Help - IBM AIX-compilers
  11. VERITAS Foundation Suite en Foundation Suite HA 3.5 (niet gespecificeerd) (niet beschikbare link)... VERITAS. Ontvangen 21 november 2007. Gearchiveerd 25 oktober 2003.

Bestandssystemen voor flashdrives / solid-state media[ | ]

Solid-state media zoals flashdrives zijn qua gegevensinterface vergelijkbaar met conventionele harde schijven, maar ze hebben hun eigen problemen en nadelen. Hoewel de tijd voor het ophalen van gegevens praktisch tot nul is teruggebracht, zijn speciale algoritmen, zoals en, vereist om het schrijven en verwijderen van gegevens te optimaliseren.

Record-georiënteerde bestandssystemen[ | ]

De bestanden worden opgeslagen als een verzameling records (niet als een ongestructureerde set bytes). Deze bestandssystemen worden voornamelijk geassocieerd met oudere mainframes en besturingssystemen voor minicomputers. Programma's worden gelezen en geschreven in hele records in plaats van bytes die in een specifieke volgorde worden geschreven; deze manier van werken met bestanden komt tot uiting in de I/O-statements in oudere versies van de FORTRAN-taal.

Bestandssystemen voor netwerkopslag[ | ]

Bestandssystemen voor gedeelde schijven (ook bekend als Bestandssystemen voor (gedeelde) netwerkopslag ( bestandssysteem SAN) of geclusterde bestandssystemen) worden voornamelijk gebruikt in netwerkopslag, waar alle knooppunten op het netwerk directe toegang hebben tot het blokopslagapparaat waarop het bestandssysteem zich bevindt. Dergelijke bestandssystemen werken zelfs als een van de knooppunten uitvalt. Deze bestandssystemen worden meestal gebruikt in clusters met hoge beschikbaarheid, samen met hardware-RAID. Bestandssystemen voor netwerkopslag zijn doorgaans niet groter dan 64 of 128 nodes.

Ze kunnen symmetrisch zijn, wanneer metadata wordt verdeeld tussen knooppunten, of asymmetrisch, met gecentraliseerde opslagplaatsen van metadata.

  • (XFS voor Cluster) is een bestandssysteem dat XFS uitbreidt voor gebruik op een netwerk met SGI-servers. Het toepassingsgebied is typisch voor Silicon Graphics-oplossingen - videobewerking, verwerking van arrays van videomateriaal.
  • van EMC. Beschikbaar voor AIX, HP-UX, IRIX, Solaris en Windows. Asymmetrisch.
  • (Engels)- een gedistribueerd bestandssysteem ontwikkeld door IBM
  • Files-11 is een bestandssysteem voor VMS-clusters, uitgebracht door DEC in 1983, nu een bedrijf. Symmetrisch.
  • (GFS) is een Red Hat-bedrijf. Uitgebracht op Linux onder de GNU GPL-licentie. Symmetrisch () en asymmetrisch ().
  • (CFS) (TruCluster) is een bedrijf. Beschikbaar voor Tru64 UNIX.
  • - bedrijf. Beschikbaar voor Windows. Symmetrisch.
  • - bestandssysteem van het bedrijf. Beschikbaar op Linux en Solaris. Asymmetrisch.
  • OCFS staat voor Oracle Cluster File System, een clusterbestandssysteem van Oracle. GNU GPL-licentie. Symmetrisch
  • (PSFS) - een bedrijf - dat in het hunne wordt gebruikt, dat zich richt op export naar klanten via CIFS of NFS, evenals Microsoft SQL Server en Oracle 9i RAC en 10g. Beschikbaar op Linux en Windows. Symmetrisch.
  • (Engels) van. Asymmetrisch. Beschikbaar op AIX, HP-UX, IRIX, Linux, Mac OS, Solaris en Windows. Compatibel met Xsan.
  • QFS door Sun Microsystems. Beschikbaar op Linux (alleen client) en Solaris (volledig). Asymmetrisch.
  • (CFS) - Ontwikkeld door Symantec. Beschikbaar op AIX, HP-UX, Linux en Solaris. Asymmetrisch.
  • Xsan is een geclusterd bestandssysteem gemaakt door Apple Computer, Inc. Asymmetrisch, beschikbaar op Mac OS. Compatibel met.
  • - ontwikkeld door VMware / EMC Corporation. Beschikbaar op VMware ESX Server. Symmetrisch.

Gedistribueerde bestandssystemen[ | ]

Gedistribueerde bestandssystemen worden ook wel netwerkbestandssystemen genoemd.

  • Andrew File System (AFS) is een schaalbaar en locatieonafhankelijk bestandssysteem, heeft een sterke cacheclient en gebruikt Kerberos voor autorisatie. Diverse implementaties maken gebruik van originele onderdelen van IBM (voorheen), Arla en OpenAFS.
  • - vrij herdistribueerbare server en client met AFS-ondersteuning
  • Apple Filing Protocol (AFP) - FS van Apple Computer. AFP kan het Kerberos-protocol gebruiken voor autorisatie.
  • CIFS is een gedistribueerd bestandssysteem op basis van SMB met ondersteuning voor UNIX-rechten en -vergrendelingen, terwijl DNS-machinenamen worden gebruikt, niet NetBIOS, in tegenstelling tot SMB.
  • (/ DFS) - FS van IBM (voorheen) is vergelijkbaar met AFS en voldoet volledig aan POSIX en systeemstandaarden hoge beschikbaarheid... Beschikbaar voor AIX- en Solaris-besturingssystemen onder een propriëtaire licentie.
  • NetWare Core Protocol (NCP) - FS van Novell. Gebruikt op NetWare-gebaseerde netwerken.
  • Network File System (NFS), oorspronkelijk van Sun Microsystems, is nu de standaard op UNIX-achtige netwerken. NFS kan het Kerberos-protocol gebruiken voor autorisatie en clientcache.
  • (Bestandsdeling op afstand) - Netwerkbestandssysteem alleen voor UNIX System V, te beginnen met release 3. Maakt gebruik van het TLI-transportlaaginterfaceprotocol.
  • (Engels)- One File System, een volledig gelogd gedistribueerd bestandssysteem ontwikkeld door. Hiermee kunt u meer dan 150 TB aan gegevens opslaan.
  • is een open source implementatie van het AFS gedistribueerde bestandssysteem.
  • (SFS), Global Network File System, ontworpen voor veilige toegang tot bestanden in verschillende administratieve domeinen.
  • Server Message Block (SMB) - oorspronkelijk ontwikkeld door IBM (de meeste gemeenschappelijke versies sterk gewijzigd door Microsoft) is een standaard in op Windows gebaseerde netwerken. MKB is ook bekend als Gemeenschappelijk internetbestandssysteem (CIFS)- Gemeenschappelijk bestandssysteem op internet. SMB kan het Kerberos-protocol gebruiken voor authenticatie.
  • - gedistribueerd bestandssysteem voor OS Plan 9 en Inferno.

Gedistribueerde parallelle bestandssystemen met crashbeveiliging[ | ]

Gedistribueerde bestandssystemen, die parallel en fouttolerant zijn, splitsen en repliceren gegevens over meerdere servers voor hoge prestaties en gegevensintegriteit. Zelfs als de server crasht, gaan er geen gegevens verloren. Deze bestandssystemen worden gebruikt in high-speed computing en high-availability clusters.

Alle hier vermelde bestandssystemen zijn gericht op hoge beschikbaarheid, schaalbaarheid en hoge prestaties, tenzij anders vermeld.

  • Ceph is een gratis gedistribueerd bestandssysteem dat kan worden gebruikt op systemen die uit meerdere machines of duizenden knooppunten bestaan. Vereist geen speciale ondersteuning van de kernel. Het kan bovenop blokapparaten werken, in een enkel bestand of met een bestaand bestandssysteem.
  • Coda is een FS gecreëerd aan de Carnegie Mellon University en is gericht op capaciteitsadaptieve operaties (inclusief on-mode operaties). Gebruikt een cache aan de clientzijde voor mobiele computers. Deze FS is een afstammeling van AFS-2 en is beschikbaar voor Linux onder de GNU GPL-licentie.
  • - FS van Fermilab en DESY. Is gratis software (maar niet gratis) software vanwege licentiebeperkingen).
  • - gedistribueerde FS van. Komt als onderdeel, gebaseerd op Linux NAS-oplossing draait op Intel-hardware, bedient NFS v2 / v3, SMB / CIFS en AFP voor Microsoft Windows, Mac Os, Linux en andere UNIX-clients. Beschikbaar onder een eigen licentie.
  • - FS met behulp van

Pr0grammer 29 oktober 2009 om 01:31

Gedistribueerd bestandssysteem GFS (Google-bestandssysteem)

  • Website ontwikkeling

Momenteel zijn er, in de context van de groei van informatie, problemen met het opslaan en verwerken van zeer grote gegevens. Daarom worden deze gegevens op meerdere servers tegelijk verwerkt, die clusters vormen. Om het werken met data op clusters te vereenvoudigen, worden gedistribueerde bestandssystemen ontwikkeld. We zullen een voorbeeld van een gedistribueerd bestandssysteem nader bekijken. Google-bestandssysteem gebruikt door het bedrijf Google... (Het artikel is in feite een losse en ingekorte vertaling van het originele artikel).

GFS is waarschijnlijk het meest bekende gedistribueerde bestandssysteem. Betrouwbare, schaalbare gegevensopslag is essentieel voor elke toepassing die met zo'n grote hoeveelheid gegevens werkt als alle documenten op internet. GFS is het belangrijkste platform voor het opslaan van informatie in Google. GFS is een groot gedistribueerd bestandssysteem dat enorme hoeveelheden informatie kan opslaan en verwerken.
GFS werd gebouwd op basis van de volgende criteria:

  • Het systeem is opgebouwd uit een groot aantal veelvoorkomende goedkope apparatuur, die vaak niet goed werkt. Er moet toezicht zijn op storingen en de mogelijkheid om de werking van het systeem te herstellen in het geval van een storing van apparatuur.
  • Het systeem moet veel grote bestanden opslaan. Meestal enkele miljoenen bestanden, elk 100 MB of meer. Ook is het vaak nodig om met multi-gigabyte bestanden om te gaan, die ook nog eens efficiënt moeten worden opgeslagen. Er moeten ook kleine bestanden worden opgeslagen, maar het systeem is er niet voor geoptimaliseerd.
  • Doorgaans zijn er twee soorten lezen: het lezen van een groot opeenvolgend stuk gegevens en het lezen van een kleine hoeveelheid willekeurige gegevens. Tijdens het lezen grote stroom gegevens, is het gebruikelijk om een ​​brok van 1 MB of meer aan te vragen. Dergelijke opeenvolgende bewerkingen van één client lezen vaak opeenvolgende delen van hetzelfde bestand. Het lezen van een kleine gegevensomvang heeft in de regel een volume van enkele kilobytes. Tijdkritische toepassingen moeten een bepaald aantal van dergelijke verzoeken verzamelen en ze sorteren op offset vanaf het begin van het bestand. Dit voorkomt heen-en-weer weergaven tijdens het lezen.
  • Vaak zijn er bewerkingen voor het schrijven van een groot opeenvolgend stuk gegevens, dat aan een bestand moet worden toegevoegd. Doorgaans is de hoeveelheid gegevens die moet worden geschreven in dezelfde volgorde als die om te lezen. Opnamen kleine volumes maar op willekeurige plaatsen in het bestand worden ze in de regel niet efficiënt uitgevoerd.
  • Het systeem moet strikt gedefinieerde semantiek van parallelle werking van meerdere clients implementeren, als ze tegelijkertijd proberen gegevens aan hetzelfde bestand toe te voegen. In dit geval kan het voorkomen dat honderden verzoeken om naar één bestand te schrijven tegelijkertijd worden ontvangen. Om hiermee om te gaan, wordt de atomiciteit van de bewerkingen van het toevoegen van gegevens aan het bestand gebruikt, met enige synchronisatie. Dat wil zeggen, als een leesbewerking wordt ontvangen, zal deze worden uitgevoerd, hetzij vóór de volgende schrijfbewerking, hetzij daarna.
  • Hoge bandbreedte heeft de voorkeur boven lage latentie. Dus de meeste applicaties in Google werken het liefst met grote hoeveelheden data, op hoge snelheid, en de uitvoering van een enkele lees- en schrijfbewerking kan in het algemeen worden uitgebreid.
Bestanden in GFS zijn hiërarchisch georganiseerd met behulp van mappen zoals elk ander bestandssysteem, en worden geïdentificeerd door hun eigen pad. U kunt de gebruikelijke bewerkingen op bestanden in GFS uitvoeren: maken, verwijderen, openen, sluiten, lezen en schrijven.
Bovendien ondersteunt GFS back-ups, of momentopnamen. Het is mogelijk om dergelijke back-ups voor bestanden of directorystructuren te maken, en tegen lage kosten.

GFS-architectuur

De tekening is overgenomen uit het originele artikel.

Er zijn masterservers en chunkservers in het systeem die daadwerkelijk gegevens opslaan. Gebruikelijk, GFS het cluster bestaat uit één mastermachine (master) en vele machines die fragmenten van bestanden chunk-servers (chunkservers) opslaan. Klanten hebben toegang tot al deze machines. Bestanden in GFS worden opgesplitst in brokken (brokken, je kunt een fragment zeggen). Chunk heeft vaste maat dat kan worden aangepast. Elk van deze chunks heeft een unieke en globale 64-bits sleutel, die door de master wordt uitgegeven bij het maken van een chunk. Chunk-servers slaan chunks op als normaal Linux-bestanden, op uw lokale harde schijf. Voor betrouwbaarheid kan elke chunk worden gerepliceerd naar andere chunk-servers. Drie replica's worden vaak gebruikt.
De master is verantwoordelijk voor het werken met metadata voor het gehele bestandssysteem. Metagegevens omvatten naamruimten,, het toewijzen van bestanden aan chunks en de huidige positie van chunks. De master bestuurt ook alle wereldwijde systeemactiviteiten, zoals het beheren van gratis chunks, het verzamelen van afval (meer onnodige chunks verzamelen) en het verplaatsen van chunks tussen chunk-servers. De master wisselt voortdurend berichten (HeartBeat-berichten) uit met chunk-servers om instructies te geven en hun status te bepalen (zoek uit of ze nog in leven zijn).
De client communiceert alleen met de wizard om metagegevensgerelateerde bewerkingen uit te voeren. Alle bewerkingen met de gegevens zelf worden rechtstreeks met chunk-servers uitgevoerd. GFS- het systeem ondersteunt geen POSIX API, dus ontwikkelaars hoefden niet te knoeien met VNode op Linux-niveau.
Ontwikkelaars gebruiken geen gegevenscaching, hoewel klanten metagegevens in de cache opslaan. Op chunk-servers slaat het Linux-besturingssysteem al de meest gebruikte blokken in het geheugen op. Over het algemeen stelt het afwijzen van caching u in staat om niet na te denken over het probleem van cache-validiteit (cache-coherentie).

Meester

Het gebruik van een enkele wizard vereenvoudigt de systeemarchitectuur aanzienlijk. Hiermee kunt u complexe bewegingen van chunks uitvoeren, replicatie organiseren met behulp van globale gegevens. Het lijkt erop dat het hebben van slechts één meester zou moeten zijn knelpunt systeem, maar dat is het niet. Klanten lezen of schrijven nooit gegevens via de wizard. In plaats daarvan vragen ze de master met welke chunk-server ze contact moeten opnemen, en dan communiceren ze rechtstreeks met de chunk-servers.
Laten we eens kijken hoe de klant gegevens leest. Ten eerste, de brokgrootte kennen,
bestandsnaam en offset ten opzichte van het begin van het bestand, bepaalt de client het stuknummer in het bestand. Vervolgens stuurt het een verzoek naar de master met daarin de bestandsnaam en het chunknummer in dat bestand. De master geeft chunk-servers uit, één in elke replica, die de chunk opslaan die we nodig hebben. De master geeft ook de chunk-ID aan de client.
Vervolgens beslist de client welke van de replica's hij het leukst vindt (in de regel degene die het dichtst in de buurt is), en stuurt een verzoek dat bestaat uit een chunk en een offset ten opzichte van het begin van de chunk. Verdere gegevensuitlezing vereist geen tussenkomst van de wizard. In de praktijk neemt de client in de regel meerdere chunks op in één leesverzoek en geeft de master de coördinaten van elk van de chunks in één antwoord.
De grootte van de brok is een belangrijk kenmerk van het systeem. Meestal is het ingesteld op 64 megabytes, wat veel groter is dan de blokgrootte in een gewoon bestandssysteem. Het is duidelijk dat als u veel bestanden moet opslaan, waarvan de grootte kleiner brok, zullen we veel extra geheugen uitgeven. Maar de keuze voor zo'n grote brok is vanwege de taken die moeten Google beslissen over hun clusters. In de regel moet er iets worden geteld voor alle documenten op internet en daarom zijn de bestanden in deze taken erg groot.

Metagegevens

De wizard slaat drie belangrijke typen metagegevens op: bestands- en chunk-naamruimten, toewijzing van bestanden naar chunks en de positie van chunk-replica's. Alle metadata wordt opgeslagen in het geheugen van de master. Doordat de metadata in het geheugen wordt opgeslagen, is de wizard snel. De master leert eenvoudig en efficiënt de stand van zaken in het systeem. Het scant chunk-servers op de achtergrond. Deze periodieke scans worden gebruikt voor het verzamelen van afval, extra replicaties, in het geval van detectie van een niet-beschikbare chunk-server en verplaatsing van chunks, om de belasting en vrije ruimte op harde schijven chunk-servers.
De master houdt de positie van de chunks bij. Wanneer een chunk-server start, onthoudt de master zijn chunks. Tijdens het werk controleert de master alle bewegingen van chunks en de status van chunk-servers. Zo heeft hij alle informatie over de positie van elk stuk.
Een belangrijk onderdeel van de metadata is het activiteitenlogboek. De wizard slaat een reeks bewerkingen op voor het doorbreken van wijzigingen in metagegevens. Aan de hand van deze markeringen in het bewerkingslogboek wordt de logische tijd van het systeem bepaald. Het is deze logische tijd die de versies van bestanden en chunks bepaalt.
Aangezien het activiteitenlogboek een belangrijk onderdeel is, moet het veilig worden opgeslagen en moeten alle wijzigingen erin alleen zichtbaar worden voor klanten als de metagegevens veranderen. Het bewerkingslogboek wordt gerepliceerd naar verschillende externe machines en het systeem reageert pas op de clientbewerking nadat dit logboek is opgeslagen op de hoofdschijf en de schijven van de externe machines.
De wizard herstelt de status van het systeem door een logboek met bewerkingen uit te voeren. Het bewerkingslogboek wordt relatief klein gehouden, waarbij alleen de laatste bewerkingen worden bewaard. Tijdens het werk maakt de wizard controle punten wanneer de grootte van het logboek een bepaalde waarde overschrijdt, en het systeem alleen kan worden hersteld naar het dichtstbijzijnde controlepunt. Verderop in het logboek kunt u enkele bewerkingen herhalen, zodat het systeem terug kan keren naar een punt dat tussen het laatste controlepunt en de huidige tijd ligt.

Interacties binnen het systeem

Hierboven werd de architectuur van het systeem beschreven, waardoor de tussenkomst van de wizard bij het uitvoeren van bewerkingen tot een minimum wordt beperkt. Laten we nu eens kijken hoe de client-, master- en chunkservers samenwerken om gegevens te verplaatsen, atomaire schrijfbewerkingen uit te voeren en een back-up te maken (snapshot).
Elke chunk-wijziging moet op alle replica's worden gedupliceerd en de metagegevens worden gewijzigd. V GFS de meester geeft een brok tijdens bezit(lease) een van de servers die deze chunk opslaat. Zo'n server wordt een primaire replica genoemd. De rest van de replica's wordt secundair verklaard. De primaire replica verzamelt opeenvolgende chunk-wijzigingen en alle replica's volgen die volgorde wanneer die wijzigingen optreden.
Mechanisme bezittingen chunk is zo ontworpen dat de belasting van de master wordt geminimaliseerd. Bij het toewijzen van geheugen wacht het eerst 60 seconden. En dan kan de primaire replica desgewenst de master verzoeken dit interval te verlengen en krijgt in de regel een positief antwoord. Tijdens deze wachttijd kan de master de wijzigingen ongedaan maken.
Laten we het gegevensregistratieproces eens nader bekijken. Het wordt stap voor stap getoond in de figuur, terwijl dunne lijnen controlestromen komen overeen en gegevensstromen zijn vetgedrukt.


Dit cijfer is ook overgenomen uit het oorspronkelijke artikel.
  1. De client vraagt ​​de master welke van de chunk-servers eigenaar is van de chunk, en waar deze chunk zich in andere replica's bevindt. Indien nodig geeft de meester de brok aan iemand die in het bezit is.
  2. De master reageert met de primaire replica en de overige (secundaire) replica's. De opdrachtgever bewaart deze gegevens voor: verdere actie... Nu hoeft de client mogelijk alleen met de master te communiceren als de primaire replica niet meer beschikbaar is.
  3. De client stuurt vervolgens gegevens naar alle replica's. Hij kan het in willekeurige volgorde doen. Elke chunk-server bewaart ze in een speciale buffer totdat ze nodig zijn of overbodig worden.
  4. Wanneer alle replica's deze gegevens hebben geaccepteerd, stuurt de client een schrijfverzoek naar de primaire replica. Dit verzoek bevat de identiteit van de gegevens die in stap 3 zijn verzonden. De primaire replica bepaalt nu de volgorde waarin eventuele wijzigingen moeten worden uitgevoerd, mogelijk van meerdere parallelle clients. En dan voert het die wijzigingen lokaal in die specifieke volgorde uit.
  5. De primaire replica stuurt de schrijfaanvraag door naar alle secundaire replica's. Elke secundaire replica brengt deze wijzigingen aan in de volgorde die is opgegeven door de primaire replica.
  6. Secundaire replica's rapporteren het succes van deze bewerkingen.
  7. De primaire replica stuurt een reactie naar de client. Eventuele fouten die in een replica optreden, worden ook naar de client verzonden. Als er een fout optreedt tijdens het schrijven naar de primaire replica, vindt het schrijven naar de secundaire replica's niet plaats, anders vond het schrijven plaats naar de primaire replica en een subset van de secundaire replica's. In dit geval handelt de klant de fout af en beslist hij wat er vervolgens mee gedaan moet worden.
Uit het bovenstaande voorbeeld kunt u zien dat de makers een gescheiden gegevensstroom en controlestroom hebben. Als de besturingsstroom alleen naar de primaire replica gaat, gaat de gegevensstroom naar alle replica's. Dit wordt gedaan om te voorkomen dat er knelpunten in het netwerk ontstaan ​​en in plaats daarvan uitgebreid gebruik te maken van de bandbreedte van elke machine. Om knelpunten en overbelaste verbindingen te vermijden, wordt ook een transmissieschema naar de naaste buur in de netwerktopologie gebruikt. Laten we zeggen dat de client gegevens naar chunk-servers verzendt S1,..., S4... De client stuurt gegevens naar de dichtstbijzijnde server, laten we S1... Hij stuurt dan door naar de dichtstbijzijnde server, let it be S2... Verder S2 stuurt ze door naar de dichtstbijzijnde S3 of S4, enzovoort.
Ook wordt de latentie geminimaliseerd door gebruik te maken van pipelining van verzonden datapakketten over TCP... Dat wil zeggen, zodra de chunk-server een deel van de gegevens ontvangt, begint hij deze onmiddellijk te verzenden. Geen netwerkcongestie, ideale tijd om datavolume te verzenden B byte per R replica's zullen B / T + RL, waar t netwerkbandbreedte, en L- latentie bij de overdracht van één byte tussen twee machines.
GFS ondersteunt bewerkingen zoals het toevoegen van atomaire gegevens aan een bestand. Meestal geven we bij het schrijven van bepaalde gegevens naar een bestand deze gegevens en offset aan. Als meerdere clients een vergelijkbare bewerking uitvoeren, kunnen deze bewerkingen niet worden herschikt (dit kan leiden tot: onjuist werk). Als we alleen gegevens aan het bestand willen toevoegen, dan geven we in dit geval alleen de gegevens zelf aan. GFS zal ze toevoegen met een atomaire operatie. Over het algemeen geldt dat als een bewerking mislukt op een van de secundaire replica's, GFS, retourneert een fout en de gegevens zullen op verschillende replica's anders zijn.
Nog iets geweldigs over GFS- dit zijn back-ups (je kunt ook een momentopname noemen) van een bestand of directorystructuur, die vrijwel onmiddellijk worden gemaakt, terwijl de lopende bewerkingen in het systeem bijna niet worden onderbroken. Dit wordt bereikt door technologie die vergelijkbaar is met: kopiëren op schrijven... Gebruikers gebruiken deze mogelijkheid om datatakken te creëren of als tussenpunt om wat experimenten te starten.

Bewerkingen uitgevoerd door de wizard

De master is een belangrijke schakel in het systeem. Het beheert chunk-replicatie: neemt beslissingen over plaatsing, maakt nieuwe chunks en coördineert verschillende activiteiten binnen het systeem om chunks volledig gerepliceerd te houden, load balance op chunk-servers en ongebruikte bronnen te bouwen.
In tegenstelling tot de meeste bestandssystemen GFS slaat de samenstelling van bestanden niet op in de map. GFS vertegenwoordigt logischerwijs de naamruimte als een tabel die elk pad naar metagegevens toewijst. Zo'n tabel kan effectief in het geheugen worden opgeslagen als een boor (een woordenboek van deze paden). Elk hoekpunt in deze boom (komt overeen met ofwel absoluut pad naar een bestand of naar een map) heeft de juiste gegevens voor de lees- en schrijfvergrendeling (lees-schrijfvergrendeling). Elke bewerking van de wizard vereist het instellen van enkele sloten. Dit is waar lees-/schrijfvergrendelingen in het systeem worden gebruikt. Meestal, als de operatie werkt met: /d1/d2/.../dn/blad, dan stelt het leessloten in op / d1, / d1 / d2, ..., d1 / d2 /.../ dn en blokkeren, hetzij om te lezen of om op te schrijven d1 / d2 /.../ dn / blad... Waarin blad kan een map of een bestand zijn.
Laten we met een voorbeeld laten zien hoe het vergrendelingsmechanisme het aanmaken van een bestand kan voorkomen. / home / gebruiker / foo tijdens back-up / home / gebruiker v / opslaan / gebruiker... De back-upbewerking stelt leesvergrendelingen in op: / huis en / sparen, evenals blokkering voor schrijven op / home / gebruiker en / opslaan / gebruiker... De bewerking voor het maken van bestanden vereist een leesvergrendeling / huis en / home / gebruiker, evenals blokkering voor schrijven op / home / gebruiker / foo... De tweede bewerking wordt dus pas uitgevoerd als de eerste is uitgevoerd, omdat er een conflicterend slot is ingeschakeld / home / gebruiker... Bij het aanmaken van een bestand is een schrijfblokkering van de bovenliggende map niet vereist, een leesblokkering is voldoende om het wissen van deze map te voorkomen.
Clusters GFS zijn sterk verspreid en gelaagd. Meestal heeft zo'n cluster honderden chunk-servers die zich op verschillende racks bevinden. Deze servers zijn over het algemeen beschikbaar voor een groot aantal clients die zich in hetzelfde of een ander rack bevinden. Verbindingen tussen twee machines uit verschillende racks kunnen via één of meerdere switches verlopen. Gelaagde distributie is een zeer moeilijke taak voor betrouwbare, schaalbare en betaalbare gegevensdistributie.
Het replica-layoutbeleid probeert te voldoen de volgende eigenschappen:: Het maximaliseren van de betrouwbaarheid en beschikbaarheid van gegevens en het maximaliseren van het gebruik van netwerkbandbreedte. Replica's moeten niet alleen op verschillende schijven of verschillende machines, maar ook op verschillende stellingen. Dit zorgt ervoor dat het stuk beschikbaar is, zelfs als het hele rek is beschadigd of losgekoppeld. Met deze opstelling kost het lezen ongeveer evenveel tijd als de netwerkbandbreedte, maar de datastroom tijdens het schrijven moet door verschillende racks gaan.
Wanneer de master een chunk maakt, kiest hij waar hij de replica plaatst. Het komt door verschillende factoren:
  • Het is wenselijk om een ​​nieuwe replica te plaatsen op een chunk-server met het laagste gemiddelde schijfgebruik. Dit zal na verloop van tijd het schijfgebruik op verschillende servers gelijkmaken.
  • Het is wenselijk om het aantal nieuw aangemaakte chunks op elke chunk-server te beperken. Ondanks het feit dat het maken van een chunk op zich al een snelle operatie is, impliceert dit het vervolgens schrijven van data naar deze chunk, wat al een moeilijke operatie is, en dit kan leiden tot een onbalans in het volume van het dataverkeer naar verschillende delen van de systeem.
  • Zoals hierboven vermeld, is het wenselijk om brokken over verschillende rekken te verdelen.
Zodra het aantal replica's onder een door de gebruiker opgegeven waarde komt, repliceert de master de chunk opnieuw. Dit kan verschillende redenen hebben: de chunk-server is niet meer beschikbaar, een van de schijven is defect of de waarde die het aantal replica's aangeeft, is verhoogd. Elk stuk dat moet worden gerepliceerd, krijgt een prioriteit toegewezen, die ook van verschillende factoren afhangt. Ten eerste heeft het stuk met het minste aantal replica's een hogere prioriteit. Ten tweede, om de betrouwbaarheid van de uitvoering van applicaties te vergroten, wordt de prioriteit van chunks, die de voortgang van het werk van de klant blokkeren, verhoogd.
De master selecteert de chunk met de hoogste prioriteit en kopieert deze, waarbij hij een van de chunk-servers instrueert om deze van een beschikbare replica te kopiëren. De nieuwe replica bevindt zich om dezelfde redenen als toen deze werd gemaakt.
Tijdens het werk balanceert de meester constant de replica's. Afhankelijk van de distributie van replica's in het systeem, wordt de replica verplaatst om het schijfgebruik gelijk te maken en de belasting te verdelen. De master moet ook beslissen welke replica's moeten worden verwijderd. In de regel wordt de replica die zich op de chunk-server met de minste vrije schijfruimte bevindt, verwijderd.
Nog een belangrijke functie liggend op de master is garbage collection. Bij het verwijderen van een bestand, GFS vereist geen onmiddellijke teruggave van de vrijgekomen schijfruimte. Het doet dit tijdens de reguliere garbagecollection, wat zowel op chunk- als op bestandsniveau gebeurt. De auteurs zijn van mening dat deze aanpak het systeem eenvoudiger en betrouwbaarder maakt.
Wanneer een bestand door een toepassing wordt verwijderd, onthoudt de wizard dit feit in de logboeken, net als vele andere. Echter, in plaats van het onmiddellijke herstel van de vrijgekomen bronnen te vereisen, wordt het bestand eenvoudig hernoemd en wordt de verwijderingstijd toegevoegd aan de bestandsnaam en wordt het onzichtbaar voor de gebruiker. En de wizard verwijdert tijdens het regelmatig scannen van de naamruimte van het bestandssysteem feitelijk al dergelijke verborgen bestanden die meer dan drie dagen geleden door de gebruiker zijn verwijderd (dit interval is configureerbaar). Tot dat moment blijft het bestand als verborgen in het systeem en kan het worden gelezen of hernoemd voor herstel. Wanneer verborgen bestand wordt verwijderd door de master, dan wordt informatie over hem ook verwijderd uit de metadata en worden alle delen van dit bestand ervan ontkoppeld.
De wizard scant, naast het regelmatig scannen van de bestandsnaamruimte, een vergelijkbare scan van de chunk-naamruimte. De wizard bepaalt de chunks die losgekoppeld zijn van het bestand, verwijdert ze uit de metadata en stuurt tijdens regelmatige communicatie met chunkservers een signaal dat het mogelijk is om alle replica's met een bepaalde chunk te verwijderen. Er zijn veel voordelen aan deze benadering van garbagecollection, met één nadeel: als het systeem onvoldoende ruimte heeft en de vertraagde garbagecollection toeneemt ongebruikte ruimte, tot de zeer fysieke verwijdering. Maar er is de mogelijkheid om verwijderde gegevens te herstellen, de mogelijkheid van flexibele taakverdeling tijdens het verwijderen en de mogelijkheid om het systeem te herstellen in geval van storingen.

Fouttolerantie en foutdiagnose

De auteurs van het systeem beschouwen frequente storingen van systeemcomponenten als een van de moeilijkste problemen. De kwantiteit en kwaliteit van componenten maken deze storingen niet alleen de uitzondering, maar eerder de norm. Een defect aan een onderdeel kan worden veroorzaakt door het niet beschikbaar zijn van dat onderdeel of, erger nog, door beschadigde gegevens. GFS houdt het systeem draaiende met twee eenvoudige strategieën: snel herstel en replicatie.
Een snel herstel is in feite een herstart van de machine. Tegelijkertijd is de opstarttijd erg kort, wat leidt tot een kleine hapering, waarna het werk normaal verder gaat. Brokkenreplicatie is hierboven al besproken. De master repliceert een chunk als een van de replica's niet meer beschikbaar is of als de gegevens met de chunk-replica beschadigd zijn. Beschadigde brokken worden bepaald door controlesommen te berekenen.
Een ander type replicatie in het systeem, waarover nog weinig is gezegd, is masterreplicatie. Operation log en checkpoints worden gerepliceerd. Elke wijziging in bestanden in het systeem vindt pas plaats nadat de wizard het bewerkingslogboek naar de schijven heeft geschreven en naar de schijven van de machines waarnaar het logboek is gerepliceerd. Bij kleine problemen kan de wizard opnieuw opstarten. Bij problemen met harde schijf of andere vitale masterinfrastructuur, start GFS een nieuwe master op een van de machines waarop de mastergegevens werden gerepliceerd. Clients verwijzen naar een DNS-wizard die opnieuw kan worden toegewezen nieuwe auto... De nieuwe meester is een schaduw van de oude, geen exacte kopie. Daarom heeft het alleen-lezen toegang tot de bestanden. Dat wil zeggen, het wordt geen volwaardige meester, maar houdt alleen een logboek bij van bewerkingen en andere structuren van de meester.
Een belangrijk onderdeel van het systeem is de mogelijkheid om de gegevensintegriteit te behouden. gebruikelijk GFS het cluster bestaat uit honderden machines waarop er duizenden staan harde schijven, en deze schijven, wanneer ze met benijdenswaardige persistentie werken, falen, wat leidt tot gegevensbeschadiging. Het systeem kan gegevens herstellen met behulp van replicatie, maar hiervoor is het noodzakelijk om te begrijpen of de gegevens zijn verslechterd. Het simpelweg vergelijken van verschillende replica's op verschillende chunk-servers is niet effectief. Bovendien kunnen gegevensinconsistentie tussen verschillende replica's optreden, wat tot gegevensverschillen kan leiden. Daarom moet elke chunk-server onafhankelijk de integriteit van de gegevens bepalen.
Elk stuk is opgesplitst in blokken van lengte 64 kB... Elk blok komt overeen met: 32 -bits controlesom. Net als andere metadata worden deze hoeveelheden in het geheugen opgeslagen, regelmatig opgeslagen in het logboek, gescheiden van gebruikersgegevens.
Voordat de gegevens worden gelezen, controleert de chunk-server de checksums van de chunk-blokken, die de door de gebruiker of een andere chunk-server opgevraagde gegevens kruisen. Dat wil zeggen, de chunk-server verspreidt geen beschadigde gegevens. Als de checksums niet overeenkomen, retourneert de chunk-server de fout naar de machine die het verzoek heeft ingediend en rapporteert deze aan de master. De gebruiker kan gegevens van een andere replica lezen en de master maakt nog een kopie van de gegevens van de andere replica. Daarna instrueert de master deze chunk-server om deze beschadigde replica te verwijderen.
Bij het toevoegen van nieuwe gegevens worden de checksums niet geverifieerd en worden er nieuwe checksums voor de blokken geschreven. Als de schijf beschadigd is, wordt deze gedetecteerd wanneer u deze gegevens probeert te lezen. Bij het schrijven vergelijkt de chunk-server alleen de eerste en laatste blokken die de grenzen kruisen waarbinnen het schrijven plaatsvindt, aangezien sommige gegevens op deze blokken niet worden overschreven en het noodzakelijk is om hun integriteit te controleren.

Tegenwoordig is het al moeilijk om iemand met vertakte netwerken te verrassen met een complexe topologie, de aanwezigheid van externe en mobiele kantoren... Voor een beheerder is het organiseren van een service in dergelijke omstandigheden geen gemakkelijke taak. Maar vergeet onze gebruikers niet - in dit geval zullen ze moeten werken met een groot aantal verschillende apparaten en bronnen die zich op verschillende computers en servers van het netwerk, kan het vinden van de benodigde informatie buitengewoon moeilijk zijn. stelt u in staat dit probleem op te lossen. Laten we eens kijken hoe precies.

Doel en functies van DFS

DFS gedistribueerd bestandssysteem (Gedistribueerd bestandssysteem) verscheen als een standaardcomponent in Win2k. Haar missie is om het beheer van, de toegang tot en het zoeken naar gegevens op het web te vergemakkelijken. Voor deze bestandsbronnen gelegen op verschillende computers, worden gecombineerd tot één logische naamruimte. De gebruiker hoeft niet de namen van alle netwerkshares (Universal Naming Convention, UNC), zoals \\ Server \ Folder, te onthouden, maar verwijst naar een enkele UNC-naamruimte, die alle servers en netwerkshares combineert. En op welke computer het gevraagde bestand zich bevindt, is al een zorg DFS, hoeft de gebruiker zich geen zorgen te maken over de werkelijke locatie van het bestand. Wanneer een klant contact opneemt, wordt hij eenvoudig doorverbonden naar de directory die hij nodig heeft. In plaats van de bron waarnaar wordt verwezen, kan er elk besturingssysteem zijn waarvan de bronnen toegankelijk zijn via UNC (Windows, Linux, xBSD, NetWare). Fysieke objecten gekoppeld door links naar DFS worden doelwit genoemd voorwerpen(doelen) of replica's(replica's).

Maar het gemak voor gebruikers en beheerders is ver weg niet de belangrijkste van de belangrijkste voordelen van DFS... Er kunnen namelijk meerdere gedeelde bronnen aan één logische naam worden gekoppeld, waarin identieke informatie is opgeslagen. Zo'n reeks alternatieve gedeelde bronnen die zijn gekoppeld aan een enkele logische naam DFS wordt een replicaset genoemd. En als de gedeelde bronnen zich in dezelfde hoofdruimte van het domein bevinden DFS en zich op Win2k- of Win2k3-servers bevinden, is het mogelijk om te configureren automatische synchronisatie informatie tussen hen. De gebruiker die contact heeft opgenomen DFS, wordt meestal doorgestuurd naar de dichtstbijzijnde replica en als deze niet beschikbaar is, wordt deze omgeleid naar alternatieve hulpbron... Om de belasting van de server te verminderen DFS aan de clientzijde worden de gegevens in de cache opgeslagen, dus als dezelfde bron vaak wordt gebruikt, wordt elk verzoek om DFS niet geproduceerd. Dus de automatische een back-up maken van belangrijke informatie geïmplementeerd in DFS, verhoogt ook de fouttolerantie van het hele systeem (de uitvoer van één server of schijfapparaat heeft geen invloed op het werk van gebruikers). Hoewel eraan moet worden herinnerd dat DFS is niet gemaakt om te werken met vaak bijgewerkte gegevens, en vooral voor die gevallen waarin een bestand op verschillende plaatsen tegelijkertijd kan worden bijgewerkt (in DFS blijft de versie van het bestand waarin de laatste wijzigingen zijn aangebracht).

in uitvoering DFS in Win2k slechts één naamruimte kan worden ondergebracht, in Win2k3 kunnen er al meerdere zijn. Er is een nieuwe versie van dit systeem in Win2k3 R2 - DFS-naamruimten, waarin al veel problemen zijn opgelost. Verantwoordelijk voor gegevensreplicatie in Win2k3 SP1 en SP2 FRS (Bestandsreplicatieserver), in Win2k3 R2 - DFS-replicatie N. Hun belangrijkste verschil is dat in FRS het kleinste object dat moet worden gerepliceerd is het bestand in DFS-replicatie er wordt meer geavanceerde technologie gebruikt RDC (Differentiële compressie op afstand), die alleen de gewijzigde delen van het bestand kan kopiëren, en de functie voor meerdere bestanden RDC minder belasting van het kanaal bij het kopiëren van nieuwe bestanden. Dus met behulp van DFS het vermindert ook de belasting van het netwerk, wat vooral belangrijk is voor externe kantoren met onvoldoende bandbreedte. In dienst DFS Nee extra geld zorgen voor veiligheid. Bij het benaderen van doelen worden alleen de toegangsrechten van het bestandssysteem en de machtigingen die voor deze objecten in Actieve map Directory.

Deze verschillende wortels

Startpunt voor alle boomnamen DFS dient als de root van het gedistribueerde bestandssysteem. In feite is de root een gedeelde bron die zich op de server bevindt, alle andere Logische namen van DFS-systeem zal worden aangesloten als het volgende hiërarchische niveau. Wortels in DFS kan van twee typen zijn, elk verschilt in methoden en mogelijkheden voor gegevensopslag. Geïsoleerde (zelfstandige) wortel ( Standalone DFS) is niet geassocieerd met Active Directory, en alle links naar netwerkbronnen worden opgeslagen in het register van de server zelf DFS... Deze root gebruikt geen DFS-replicatie, dat wil zeggen, het impliceert geen duplicatie van informatie over andere bronnen en biedt daarom geen fouttolerantie. In geval van storing DFS-server de hele hiërarchie wordt niet meer beschikbaar, hoewel gebruikers rechtstreeks toegang hebben tot bronnen. Trouwens, verschillende zelfstandige DFS-servers in staat zijn om in een cluster te werken, zodat dit probleem kan worden opgelost. Als de server DFS lid is van het domein, wordt de domeinroot gebruikt ( Op domeinen gebaseerde DFS). Met deze optie kunt u meerdere replica's aansluiten en gebruiken DFS-replicatie om zowel de root zelf als de links te repliceren DFS... Als in Op domeinen gebaseerde DFS de wortels zich bevinden op computers met Win2k en Win2k3, dan heet deze root “ Gemengde modus domein DFS“.

Met domein DFS alle informatie over de naamruimte bevindt zich op de domeincontroller waartoe de server periodiek toegang heeft DFS... Gezien de synchronisatie tussen DFS in een domein dat met elke herstructurering complexer wordt, kunnen deze vragen een knelpunt in het systeem vormen, dus ook in dit geval zijn er enkele beperkingen. Dus in Win2k was er een limiet van 16 wortels voor één naamruimte. In Win2k3 is deze beperking verwijderd, aangezien de server DFS heeft nu toegang tot elke DC, niet alleen tot de PDC-emulator. De tweede beperking van domeinwortels is te wijten aan het feit dat de hele structuur is opgeslagen in speciale faciliteit, die ook op alle DC's moet worden gedupliceerd voor elke kleinste wijziging in de structuur DFS... De documentatie beveelt aan om te beperken maximumgrootte object 5 MB, wat ongeveer overeenkomt met 5000 links (directories). Deze waarde is afhankelijk van veel parameters, de lengte van de linknaam, de aanwezigheid en grootte van opmerkingen, die ook in dit object zijn opgeslagen. Maar gemiddeld DFS overschrijdt zelden 50-100 links, en na de initiële configuratie blijft het grotendeels statisch, wat betekent dat het niet vaak zal worden gedupliceerd, en deze limieten kunnen eenvoudigweg niet worden bereikt. Trouwens, in de toekomst Windows 2008 de linklimiet van 5000 is al opgeheven, maar alle servers moeten Longhorn draaien om dit te doen. Voor Standalone DFS aanbevolen linklimiet een orde van grootte hoger en is 50.000 links.

DFS-configuratie

Laten we bijvoorbeeld instellen: DFS op een computer met Win2k3 met SP2 zijn alle instellingen in SP1 hetzelfde. In instellingen DFS in R2 en Win2k zijn er enkele verschillen, maar niet zo globaal dat je er zelf niet uit kunt komen. Al het beheer van het gedistribueerde bestandssysteem wordt centraal uitgevoerd met behulp van de MMC-module " DFS gedistribueerd bestandssysteem", Die kan worden aangeroepen op het tabblad" Systeembeheer "van het Configuratiescherm van Windows. Met zijn hulp kun je wortels maken en verwijderen, verbinding maken met elke root DFS... Handig is dat meerdere wortels op één tabblad kunnen worden weergegeven DFS... Als de root werkt in " Gemengde modus domein DFS", Dat wil zeggen, wanneer signalen en wortels DFS bevinden zich op computers die anders draaien Windows-versies, beheer DFS moet worden gedaan vanaf een computer met Win2k3. Als alternatief kunt u het pakket installeren: Win2k3 Beheertools Pakket(adminpak.msi), die vrij beschikbaar is op de website van het bedrijf. In dit geval kunnen ook computers met WinXP voor de besturing worden gebruikt. Informatie over dit pakket is te vinden op support.microsoft.com/kb/304718. Daarnaast om mee te werken DFS je kunt ook de hulpprogramma's gebruiken opdrachtregel dfscmd.exe en dfsutil.exe. Die laatste heeft meer features, maar wordt niet standaard meegeleverd. besturingssysteem om het te gebruiken, moet u het Win2k3 Support Tools-pakket installeren. Houd er rekening mee dat om de Support Tools met succes te installeren, u twee bestanden moet downloaden: suptools.msi en support.cab.

Om een ​​nieuwe root te maken, roept u de module aan, klikt u op de titel en in contextmenu selecteer "Creëer root" (Nieuwe root), als een optie kunt u selecteren soortgelijke paragraaf in het actiemenu. De New Root Wizard verschijnt, volg de aanwijzingen. Selecteer bij de tweede stap het type root dat moet worden gemaakt (domein of geïsoleerd), specificeer het hostdomein en de server. Nadat u de verbinding met de geselecteerde server hebt gecontroleerd, voert u de naam van de root in. Merk op hoe het UNC-pad naar de nieuwe root eruit zal zien, standaard \\ server \ nameshare. Sinds op dit moment de gedeelde map niet bestaat, is de volgende stap het selecteren van een lokale map die als gedeelde map zal worden gebruikt. Deze map bevat geen echte gegevens, maar bevat links die verwijzen naar de fysieke locatie van de gegevens. De wizard maakt lees- en uitvoerbronnen voor leden van de groep Gebruikers. Pas zo nodig de rechten aan. Nu drukken we op de knop Voltooien, de nieuwe root zal in het consolevenster verschijnen. Als de server Win2k3 draait, maakt u op dezelfde manier andere wortels aan. U kunt de status van een replica controleren met de opdracht Status controleren in het consolemenu of het contextmenu. De status wordt weergegeven in de kolom met dezelfde naam en er verschijnt een cirkel met een markering naast de naam. Als het groen is, is alles in orde. Om dit te controleren, kunt u naar de opgegeven UNC gaan of de opdracht "net share" of "net view computernaam" op de lokale computer vanaf een externe locatie gebruiken. Het commando "dfsutil / Root: \\ server \ share / View" zal tonen DFS-informatie.

> dfsutil /Root:\\server.com\first / View
DFS-hulpprogramma versie 5.2 (gebouwd op 5.2.3790.3959)
Domein root met 0 links
Rootnaam = "\\ SERVER \ first" Comment = "first Root" State = "1" Timeout = "300"
Doelserver = "GRINDERS" Map = "eerste" Status = "2"

Nadat de root is gemaakt, kan deze worden gepubliceerd naar Active Directory. Om dit te doen, selecteert u Eigenschappen in het contextmenu, gaat u naar het tabblad Publiceren en vinkt u het vakje "Publiceer deze root naar Active Directory" aan. Domeinroots worden automatisch en zonder fouten gepubliceerd.

Verwijzingen verzamelen

Zodra de root is gemaakt, kunt u beginnen met het koppelen van shares. Selecteer hiervoor in hetzelfde contextmenu het item Nieuwe link. Voer in het venster "Nieuwe koppeling" dat verschijnt in het veld "Linknaam" de naam in van de koppeling waaronder deze beschikbaar zal zijn in DFS, en dan net onder het UNC-pad naar de doelmap (moet al bestaan). Om gedeelde bronnen te zoeken, kunt u de knop Bladeren gebruiken, net daaronder kunt u de cachetijd van deze link voor klanten wijzigen DFS(standaard 1800 sec). Als u klaar bent, drukt u op de knop OK. De opdracht "dfsutil / view" zou de status van alle verbonden links en hun eigenschappen moeten tonen. Als er meerdere servers op het netwerk draaien, is het mogelijk om een ​​replica toe te voegen die naar een alternatieve link verwijst. Een replica naar de root of een apart object wordt op dezelfde manier gemaakt, alleen in het eerste geval, selecteer in het contextmenu het item "Maak root-doelmap" en in het tweede geval - "Maak map".

Gedeelde bronnen waarmee replicatie wordt uitgevoerd, moeten zich bevinden in partities met het NTFS-bestandssysteem op computers met serverversies van Windows vanaf 2000 (beter dan 2003). In het veld "Pad naar doel gedeelde map" van het venster dat verschijnt, typt u of gebruikt u de knop Bladeren om een ​​gedeelde bron op een andere computer op te geven. Als u van plan bent alternatieve programma's te gebruiken om informatie tussen deze bronnen te synchroniseren (of als de synchronisatie handmatig wordt uitgevoerd), moet u het selectievakje Dit doel toevoegen aan de replicatieset uitschakelen. Klik op OK en de wizard Replicatie configureren verschijnt, die u door de selectie van uw replicamaster en replicatietopologie leidt. Bij de eerste stap specificeren we de map die zal worden gebruikt als het hoofddoel, alle informatie uit deze map wordt vervolgens naar een andere map gekopieerd. De laatste moet leeg zijn, als er bestanden in staan, worden deze gekopieerd naar een tijdelijke map en vervolgens verwijderd. Als een share om wat voor reden dan ook niet geschikt is voor replicatie (deze bevindt zich bijvoorbeeld niet op een partitie met NTFS), wordt deze gemarkeerd met een rood kruis; wanneer u probeert door te gaan naar de volgende stap, biedt de wizard u om een ​​andere koppeling op te geven of de taak te voltooien.

Door op de knop “ Tussenopslag” (Staging-map), kunt u de locatie wijzigen van de map die wordt gebruikt voor tijdelijke opslag van gerepliceerde gegevens. Standaard bevindt deze map zich op een andere partitie dan de share die is gekoppeld aan: DFS... Vervolgens vraagt ​​de wizard u om een ​​replicatietopologie te selecteren. U moet een van de volgende opties opgeven:

  • Ring- alle replica's wisselen informatie uit met twee naburige;
  • Ster (naaf en sprak)- de hoofdlink wordt aangegeven, waarmee alle andere replica's informatie gaan uitwisselen;
  • Volledig gaas- alle replica's worden met elkaar uitgewisseld;
  • Aangepast- later zal de beheerder onafhankelijk replicatie configureren voor elk paar servers.

De ringtopologie is standaard ingesteld en is geschikt voor de meeste situaties. In het ideale geval moet de replicatietopologie die u kiest overeenkomen met uw netwerkontwerp. Als er bijvoorbeeld een centraal kantoor is waar de belangrijkste middelen zich bevinden en er indien nodig meerdere filialen op zijn aangesloten, dan is in dit geval het Star-schema meer geschikt. Als geen van de voorinstellingen geschikt is, moet u het speciale item raadplegen.

Na het maken van een replica voor een link, verandert het bijbehorende pictogram in het snap-in-venster. Er verschijnen ook twee nieuwe items in het contextmenu: Replicatiestatus weergeven/verbergen en Replicatie stoppen. Het replicatiestatusveld kan een van de drie resultaten hebben. Als het replicatieproces normaal is voltooid, hebben de pictogrammen groene vinkjes. Een rood kruis op het replica-pictogram geeft aan dat het momenteel niet beschikbaar is; in het veld Status verandert de handtekening in Offline. Als slechts enkele replica's in de aangevinkte link niet beschikbaar zijn, verschijnt er een geel uitroepteken in het pictogram.

Voordat u een van de alternatieve replica's verwijdert, moet u eerst replicatie uitschakelen. Wanneer de replicatie wordt hervat, wordt u begroet door dezelfde master. Als de server een domeincontroller is, samen met alle DFS-gegevens zal ook de inhoud van het SYSVOL-volume repliceren. Daarom moet er rekening mee worden gehouden dat totdat een volledige replicatie van alle replica's plaatsvindt, u begint met configuratiewijzigingen DFS zeer riskant, kan het de prestaties van het hele domein verstoren.

Als de geselecteerde optie voor replicatietopologie om de een of andere reden niet past, kan de replicatietopologie later eenvoudig worden gewijzigd door het eigenschappenvenster van de bijbehorende koppeling te selecteren en naar het tabblad Replicatie te gaan. Er zijn er nog een paar handige instellingen... Replicatie wordt standaard continu uitgevoerd. Door op de knop Planning te klikken, kunt u het replicatieschema voor alle verbindingen wijzigen. Hieronder staan ​​de filters voor bestanden en submappen die niet worden gerepliceerd. Klik hiervoor op Wijzigen en voer sjablonen voor bestanden of submappen in.

Om replicatie van informatie die op een specifieke server is opgeslagen te forceren, kunt u het hulpprogramma NtfrsUtl.exe gebruiken, dat in het pakket is inbegrepen Ondersteuningstools... De opdracht is eenvoudig: "ntfrsutl poll / now server.com". Voer "ntfrsutl poll" in om de ingestelde tijdsintervallen voor replicatie te zien. Alle instellingen zijn beschikbaar met het commando "ntfrsutl sets server.com".

In het eigenschappenvenster gemeenschappelijke hulpbron vertegenwoordigd in de dienst DFS, er verschijnt een ander tabblad - DFS... Door het te openen, kan de gebruiker zien aan welke openbare mappen deze link is gekoppeld, de status van de replica controleren, de actieve replica selecteren waarnaar hij als eerste wordt doorgestuurd.

Voor controle moet de beheerder vaak in het logboek "Administration - Event Viewer - File Replication Service" kijken, waar u informatie kunt vinden over alle gebeurtenissen die plaatsvinden met de FRS-service.

Wat zijn gedistribueerde bestandssystemen?

De mogelijkheid om schijven, directory's en bestanden via een netwerk te delen, is een van de belangrijkste ontwikkelingen in de informatietechnologie van vandaag. Dit vermogen kan de vereisten voor: schijfruimte computers en de samenwerking van gebruikers te vergemakkelijken. Microsoft Windows en macOS Apple/macOS X computers gebruiken het mechanisme hiervoor. delen schijven en mappen. Linux / Unix-systemen gebruiken traditioneel NFS-netwerk bestandssysteem.

NFS is het meest bekende mechanisme voor het delen van bestanden voor Linux en andere Unix-systemen, omdat het op veel Unix-achtige systemen wordt aangetroffen en zeer eenvoudig te configureren is. NFS wordt ondersteund door de Linux-kernel en NFS-gerelateerde hulpprogramma's worden bij elke distributie meegeleverd. Maar in de Linux-wereld zijn er ook modernere mechanismen voor het delen van bestanden en mappen. Elk van hen heeft bepaalde voordelen om in te stellen of te gebruiken.

OpenAFS gedistribueerd bestandssysteem ( http://www.openafs.org/) is een Open Source-analoog van het bekende commerciële gedistribueerde bestandssysteem AFS. Ondersteuning voor Distributed File Systems InterMezzo (http://www.inter-mezzo.org/) en Coda (http://coda.cs.cmu.edu/) is al aanwezig in de nieuwe 2.4-serie Linux-kernels. Nieuwe op het web gebaseerde mechanismen voor het delen van bestanden (bijv. WebDAV (http://www.webdav.org/)) kunnen ook als bestandssystemen worden gebruikt.

Dit artikel geeft een kort overzicht van de voordelen van gedistribueerde bestandssystemen, bespreekt de meest voorkomende problemen en oplossingen en beschrijft de interessantste gedistribueerde bestandssystemen die momenteel voor Linux beschikbaar zijn.

Inleiding tot gedistribueerde bestandssystemen.

Netwerkbestandssystemen heten nu<<распределенными>>. Deze term weerspiegelt het feit dat veel van deze bestandssystemen veel meer mogelijkheden hebben dan alleen het overbrengen van gegevens via een netwerk. De opslagmedia die aan deze bestandssystemen zijn gekoppeld, bevinden zich mogelijk niet noodzakelijk op één computer, maar kunnen over meerdere computers zijn verspreid.

Gedistribueerde bestandssystemen OpenAFS en Coda hebben hun eigen partitiebeheermechanismen die de mogelijkheid om openbare informatie op te slaan vereenvoudigen. Ze ondersteunen ook de mogelijkheid om partities te dupliceren en op te slaan op andere bestandsservers. Als een bestandsserver niet meer beschikbaar is, hebt u nog steeds toegang tot de gegevens die op de partities zijn opgeslagen met behulp van bestaande back-upkopieën van deze partities.

Het belangrijkste verschil tussen de Windows / MacOS-aanpak (mappen en stations delen) en de Linux, MacOS X en andere Unix-achtige besturingssystemen voor meerdere gebruikers, is de manier waarop deze besturingssystemen partities gebruiken en organiseren. Windows / MacOS exporteren partities als afzonderlijke mappen of stations, en externe systemen die toegang willen tot openbare apparaten, moeten er zeker van zijn dat ze deze met zichzelf verbinden.

Wanneer het hoogste organisatieniveau in het bestandssysteem een ​​schijfpartitie is (bijvoorbeeld, zoals in Windows-bestandssystemen), moeten clientwerkstations verbinding maken met de partitie en er een aparte letter aan toewijzen in hun lokale lay-out (bijvoorbeeld station E, F , G, enz.). Letters kunnen worden toegewezen aan netwerkpartities in Windows-gebruikers- en groepsprofielen (voor standaardisatie). Maar helaas hebben niet alle computers dezelfde letterschikking. Op een computer met een groot aantal harde schijven en partities kunnen de vereiste letters bijvoorbeeld bezet zijn en daarom moet u de netwerkpartities verschillende aanduidingen geven.

Het Unix-bestandssysteem daarentegen is een hiërarchisch bestandssysteem waaraan extra partities worden toegevoegd door ze aan een bestaande map te koppelen. Hierdoor kunt u op een efficiënte manier elke gegevensbron toevoegen aan elk bestaand bestandssysteem. Als u een nieuwe informatiebron koppelt aan een map die deel uitmaakt van een gedistribueerd bestandssysteem, wordt deze onmiddellijk beschikbaar voor alle clients van dat gedistribueerde systeem.

Moderne gedistribueerde bestandssystemen zoals OpenAFS of Coda bevatten speciale services voor het beheren van partities. Hierdoor kunt u partities van verschillende bestandsservers koppelen in een centrale directoryhiërarchie die wordt onderhouden door de bestandssystemen. OpenAFS gebruikt een centrale directory genaamd<> en Coda gebruikt<>. Deze directoryhiërarchieën zijn beschikbaar voor alle DFS-clients en zien er op elk clientwerkstation hetzelfde uit. Hierdoor kunnen gebruikers op elke computer op dezelfde manier met hun bestanden werken. Als uw desktopcomputer niet werkt, kunt u veilig elke andere computer gebruiken, al uw bestanden staan ​​veilig op de server.

Gedistribueerde bestandssystemen, die dezelfde gegevens aan veel verschillende computersystemen leveren, stellen gebruikers in staat om elk besturingssysteem te gebruiken dat het beste bij hun behoeften past. Macintosh-gebruikers kunnen optimaal profiteren van de grafische hulpmiddelen die beschikbaar zijn in Mac OS en tegelijkertijd hun gegevens opslaan op gecentraliseerde bestandsservers. Windows-gebruikers hebben ook toegang tot het persistente globale bestandssysteem. Gedistribueerde bestandssystemen zijn vooral aantrekkelijk bij het coördineren van het werk tussen teams in verschillende steden, staten of zelfs verschillende landen. Het voordeel van gedeelde data is altijd beschikbaar via het netwerk, waar je ook bent.

Beheersproblemen van gedistribueerde bestandssystemen.

Het gebruik van gedistribueerde bestandssystemen geeft systeembeheerders niet alleen nieuwe kansen, maar ook nieuwe uitdagingen. Maar gedistribueerde systemen in staat om veel van de standaard administratieve taken te vereenvoudigen. In een netwerkomgeving moeten gebruikers vanaf elke computer onder hun eigen naam op het netwerk kunnen inloggen. Dit betekent dat het netwerkaanmeldingsmechanisme (of authenticatiemechanisme) ook op het netwerk moet zijn aangesloten. Daarom zijn in een gedistribueerde bestandssysteemomgeving groeps- en wachtwoordbestanden op afzonderlijke computers ondergeschikt aan netwerkverificatiemechanismen (zoals Kerberos of NIS, waarmee gebruikers op elke computer kunnen werken). Maar er moeten nog steeds standaard lokale wachtwoordvalidatiemechanismen bestaan ​​voor beheerders om te kunnen: lokale computers noodzakelijke taken. Het opslaan van gedeelde gegevens op gecentraliseerde bestandsservers (in plaats van op individuele computers) vereenvoudigt administratieve taken zoals het maken van back-ups en het herstellen van bestanden en mappen. Het centraliseert ook veelvoorkomende administratieve taken, zoals het beheer van het gebruik van bestandssystemen, en introduceert nieuwe opslagbeheermogelijkheden, zoals taakverdeling.

Gedistribueerde bestandssystemen zoals OpenAFS en Coda bieden ingebouwde logische partitiesystemen die beheerders de mogelijkheid bieden om veelgebruikte gegevens naar krachtigere of minder gebruikte computers te verplaatsen. Als het gedistribueerde bestandssysteem redundantie ondersteunt, kunnen kopieën van de veelgebruikte gegevens over veel bestandsservers worden verspreid. Dit kan de belasting van het netwerk verminderen en de servers gemakkelijker maken om mee te werken. Gedistribueerde bestandssystemen gebruiken logische partities in plaats van fysieke schijfpartities, en dit maakt het gemakkelijk om nieuw vrij geheugen aan het netwerk toe te voegen terwijl het actief is. (Het zou even duren om een ​​nieuwe schijf aan de lokale computer toe te voegen).

Het gebruik van gedistribueerde bestandssystemen maakt het ook gemakkelijker om software en hardware te delen. Maar eerst moet u ervoor zorgen dat de licenties voor de programma's die u gebruikt de installatie van de software op het gedistribueerde bestandssysteem toestaan. Printserver is een van de oorspronkelijke redenen voor het ontstaan ​​van de omgeving<<клиент-сервер>>. Gedistribueerde bestandssystemen maken het ook gemakkelijker om gespecialiseerde hardware te delen door via een netwerk verbinding te maken met een computer waarop de juiste hardware is geïnstalleerd, terwijl u nog steeds toegang heeft tot uw gegevens.

Het gebruik van een gecentraliseerd gedistribueerd bestandssysteem kan aanzienlijke kosten- en prestatievoordelen opleveren voor clientsystemen. Gedistribueerde bestandssystemen verlagen de hardwarekosten aanzienlijk door de hoeveelheid geheugen op elke desktop of laptop te minimaliseren. Het gebruik van een gedistribueerd bestandssysteem als archief voor gebruikersgegevens betekent meestal snellere opstarttijden voor clientcomputers, omdat een grote hoeveelheid gegevens niet langer lokaal wordt opgeslagen en daarom niet hoeft te worden geverifieerd nadat de client opnieuw is opgestart. De combinatie van een gedistribueerd bestandssysteem en het gebruik van gejournaliseerde bestandssystemen op clientcomputers kan resulteren in een aanzienlijke verhoging van de opstartsnelheid van het systeem.

Ondersteuning voor offline werken met data.

Het gebruik van een gedistribueerd bestandssysteem vergroot de afhankelijkheid van computersystemen op het netwerk. Deze afhankelijkheid van gegevens waartoe mensen alleen toegang hebben via het netwerk, levert een aantal interessante problemen op voor laptop-/mobiele gebruikers die toegang moeten hebben tot hun gegevens, zelfs wanneer netwerktoegang niet mogelijk is. Het heet<<автономная работа>> het systeem zou moeten functioneren als de bronnen die gewoonlijk op het netwerk aanwezig zijn (bijvoorbeeld gebruikersgegevens) om de een of andere reden niet beschikbaar zijn. Zelfs Windows biedt een grafische interface om de bestanden waarmee u wilt werken te kunnen markeren wanneer u offline bent en om die bestanden te synchroniseren wanneer u opnieuw verbinding maakt.

Coda en InterMezzo Distributed File Systems, die momenteel beschikbaar zijn voor Linux, bieden ook geïntegreerde ondersteuning voor offline gebruik. Er wordt ook gewerkt aan het bieden van deze mogelijkheid voor NFS-bestandssystemen. Coda en InterMezzo worden al ondersteund door de Linux-kernel. Intermezzo-ondersteuning is in de kernel ingebouwd sinds 2.4.5 en Coda is sinds het begin geïntegreerd in de 2.4-kernel.

Coda is een gedistribueerd bestandssysteem afkomstig van OpenAFS, dat sinds 1987 in ontwikkeling is aan de Carnegie Mellon University. InterMezzo is een relatief nieuw gedistribueerd bestandssysteem met de nadruk op hoge beschikbaarheid, flexibele mapduplicatie, ondersteuning voor offline bewerkingen en permanente caching. De makers van InterMezzo werden geïnspireerd door CMU Coda, maar dit project is niet gebaseerd op originele tekst Coda. De oorspronkelijke maker van InterMezzo, Peter Braham, was een aantal jaren hoofd van het Coda-project bij CMU, en daarna begon hij zelf InterMezzo en verschillende andere projecten te ontwikkelen.

Bestandssystemen uitbreiden met het web.

Vóór gedistribueerde bestandssystemen was het delen van bestanden via een netwerk beperkt tot eenvoudige bestandsoverdrachten met behulp van het File Transfer Protocol (FTP). De komst van het World Wide Web heeft het proces van werken met FTP aanzienlijk vereenvoudigd, nu u de commando's niet hoeft te kennen, omdat het FTP-protocol in de meeste browsers is geïntegreerd. De mogelijkheid om eenvoudig bestanden via het web over te dragen heeft ook geleid tot de uitbreiding van het web en aanzienlijke verbeteringen aan het onderliggende hypertext-overdrachtsprotocol.

HTTP (HyperText Transfer Protocol), dat nu de basis vormt voor veel systemen voor gedistribueerd bestandsgebruik.

De meest bekende hiervan is WebDAV, wat staat voor<> (Web-enabled Distributed Authoring en Versioning). WebDAV is een reeks uitbreidingen op het HTTP-protocol die gebruikers een samenwerkingsomgeving biedt om bestanden die op webservers zijn opgeslagen te downloaden, te ordenen en te bewerken.

WebDAV-ondersteuning is ingebouwd in veel populaire webservers, zoals Apache, waar het afhankelijk is van serverauthenticatiemechanismen. (Van eenvoudige .htaccess-bestanden tot geïntegreerd NIS-, LDAP- of zelfs Windows-authenticatiemechanisme). Het gebruik van WebDAV voor het openen en wijzigen van bestanden via het web is ingebouwd in Mac OS X-besturingssystemen, nieuwere versies van Microsoft Internet Explorer en is ook beschikbaar op Linux met toepassingen zoals de Nautilus-bestandsbeheerder. Hoewel het geen bestandssysteem in de traditionele zin is, kun je WebDAV zelfs op Linux aankoppelen met behulp van een laadbare kernelmodule genaamd davfs.

WebDAV biedt standaard functies voor gedistribueerde systemen zoals bestandsvergrendeling, het maken, hernoemen, kopiëren en verwijderen van bestanden, en ondersteunt ook geavanceerde functies zoals bestandsmetagegevens (meer details over het bestand, de kop, het onderwerp, de maker, enz.). e). In de nabije toekomst zal WebDAV geïntegreerde ondersteuning voor bronbeheer bevatten, waardoor het voor veel gebruikers gemakkelijker wordt om aan te werken gedeelde bestanden het volgen van wijzigingen, auteurs van die wijzigingen en andere aspecten van het algemene gebruik van het document. Deze revisiecontrolemogelijkheden worden geleverd via het DeltaV-protocol, dat actief wordt ontwikkeld door de DeltaV-werkgroep (http://www.webdav.org/deltav) van de IETF Internet Engineering Task Force. Sommige projecten, zoals Subversion (http://subversion.tigris.org/) (WebDAV- en DeltaV-gebaseerde vervanging van de CVS-standaard) zijn al beschikbaar in alpha. Subversion biedt een versiebeheersysteem en bestandsarchiefopslag op basis van een database die: Taal-API C, en simuleert een bestandssysteem met versiebeheer dat gemakkelijk toegankelijk is via het web.

Het Distributed File System (DFS) biedt de mogelijkheid om netwerkschijven eenvoudig en transparant te beheren. In plaats van de fysieke locatie van de netwerkbron te gebruiken (op servernaam), kunnen gebruikers eenvoudig verbinding maken met de root van het gedistribueerde bestandssysteem.

De DFS-root fungeert als een logisch distributiepunt voor netwerkstations. Dit betekent dat gebruikers eenvoudig naar de root van het gedistribueerde bestandssysteem kunnen navigeren en een lijst met mappen kunnen bekijken die met die root zijn verbonden. Door op een map te klikken, kan de gebruiker de inhoud ervan bekijken. Maar de gebruiker mag niet eens vermoeden dat de inhoud van de map zich op een andere server bevindt.

Dit alles betekent dat het gedistribueerde bestandssysteem een ​​extra niveau van transparantie biedt bij toegang tot de inhoud van netwerkbronnen. Velen noemen dit concept opslagvirtualisatie. Met een gedistribueerd bestandssysteem hoeft de gebruiker niet te weten waar de gegevens zich fysiek bevinden. In plaats daarvan is het voldoende om de locatie van de root van het bestandssysteem te onthouden.

Door de locatie van netwerkschijven logisch te beheren, kunt u gegevens tussen servers op het netwerk transparant voor gebruikers verplaatsen. Vanuit het oogpunt van gebruikers blijven de gegevens zich in de root van het gedistribueerde bestandssysteem bevinden. Het enige dat nodig is, is de gegevens naar een andere locatie te kopiëren en de DFS-referentie naar het gedeelde object bij te werken om de nieuwe locatie weer te geven.

Naast transparante toegang tot datastores, gedeelde mappen beheerd door een gedistribueerd bestandssysteem kunnen worden geconfigureerd als replicatiepartners. Hiermee kunt u een laag fouttolerantie en taakverdeling bieden (automatisch uitgevoerd door middel van een gedistribueerd bestandssysteem).

Gegevensreplicatie bezig Bestandsreplicatieservice (FRS) die ook de SYSVOL-map repliceert met Active Directory-GPO's.

Wanneer u voor het eerst een gedistribueerd bestandssysteem instelt, moet u een startpunt opgeven voor de structuur van het gedistribueerde bestandssysteem. Het staat bekend als de root van een gedistribueerd bestandssysteem. Er zijn twee soorten DFS-root:

  • Geïsoleerde wortel (zelfstandig)- Configuratie en architectuur van de DFS-naamruimte worden lokaal op de rootserver opgeslagen. Het toegangspad (UNC-pad) naar de root begint met de servernaam. Met een geïsoleerde root kan slechts één DFS-root voor een DFS-naamruimte bestaan. Dit betekent dat de root geen fouttolerantie biedt en een enkel storingspunt voor gegevenstoegang vertegenwoordigt.
  • Domein- DFS-naamruimte wordt opgeslagen in Active Directory. Met een DFS-domein kunt u meerdere fouttolerante DFS-roots maken en clients hebben toegang tot de DFS op domeinnaam. Door Active Directory-integratie te gebruiken, kunnen clients automatisch worden omgeleid naar de DFS-root in hun lokale Active Directory-site, wat bepaalde voordelen heeft in grote netwerken waar de DFS-infrastructuur meerdere sites kan omvatten.

Een andere term om te weten is DFS-link... Roots zijn de uitgangspunten van een gedistribueerd bestandssysteem. Het toevoegen van koppelingen bepaalt de namen van de netwerkschijven en de locaties van de netwerkgegevens. Wanneer een gebruiker de DFS-root opent, verschijnen de koppelingen als logische submappen van de root.