RAID-oppretting via Adaptec-kontroller. Tester en RAID6-harddiskarray på tre generasjoner Adaptec-kontrollere

Hei alle sammen, i dag skal vi konfigurere adaptec raid 8885-kontrolleren, som kom til meg for testing. I mitt firma velger vi nå en RAID-kontroller for servere med SSD-disk amy. Jeg har tidligere testet LSI 9361-8i og levert mer enn én artikkel om hvordan og hva jeg måtte møte når jeg kjørte den på HP proliant g7-serveren. Det er turen til adaptec 8885, også en veldig fersk kontroller. Jeg tror det kommer flere artikler, ellers blir det bare et langt innlegg, noe som ikke er praktisk.

Oppgave

  • Installer adaptec raid 8885 i HP ProLiant DL380 G7
  • Merk opp en raid-array fra forskjellige modifikasjoner
  • Installer over VMware ESXi 5.5 hypervisor
  • Fjern ytelsestester på I/O-drift

Installerer adaptec 8885 på HP

La meg minne om at HP er en ganske proprietær leverandør og produserer alt på sine servere selv, og er ikke spesielt vennlig, iht. i det minste offisielt med andre leverandører, et eksempel er en rake med installasjonen av den samme LSI 9361-8i i den, jeg beskrev metoden for å få dem til venner. Når du setter inn adaptec raid 8885, vil den vises i HP BIOS som ukjent enhet, kan du trygt hamre på det, det vil ikke påvirke arbeidet på noen måte. Det eneste jeg umiddelbart vil anbefale er å oppdatere all firmware på hp-serveren slik at alt er så ferskt som mulig.

Lag en raid-array

Så la oss gå videre og lage en raid-array på vår adaptec raid-kontroller... Jeg har i mitt arsenal 2 SAS disk under RAID-1-speilet. for systemet og 6 ssd-disker for RAID-oppretting-5 til RAID-10 lun. For å dele LUN-er (Logical Unit Number), logiske disker på en raid-kontroller, vil det innebygde bios-lignende verktøyet Adaptec RAID Configuration Utility (tidligere kalt Array Configuration Utility (ACU)) hjelpe oss. For å komme inn i RAID Configuration Utility, så reduserer vi det til RCU, du må starte serveren på nytt og vente på et slikt vindu, der du bare trenger å klikke

andre konfigurasjoner er mulige. Noen andre servere, for eksempel, hvordan mine ble lastet og ikke viste dette vinduet, for dette måtte du trykke F8 når du laster, gå til ILO-innstillingsmenyen, gå umiddelbart ut derfra og først da så ønsket skjerm... Hvis du har en UEFI BIOS, kan du lage raid-arrayer fra den, på bekostning av hii (uefi human interface-infrastruktur), hvis det på russisk er et verktøy for folk :)

Til slutt befinner vi oss i RCU-verktøyet

Diskverktøy

Først av alt, la oss gå til menyelementet Diskverktøy, her vil du bli vist alle diskene dine, med deres modeller og leverandører, samt type tilkobling. Jeg har 6 ssd Sansung EVO 850 og to HP sas 600gb.

  • Formater disk> formaterer disken
  • Bekreft diskmedier> sjekk disken for feil
  • Identifiser stasjonen

Velge akseptabel formatering

Bekrefter formateringen

Formatering vil begynne, det tar forskjellig tid, alt avhenger av størrelsen på raid-disken.

Du kan også velge Ferify Disk Media, harddisken vil bli sjekket for dårlige sektorer.

Vi drar fra av denne menyen og vurder innstillingene til selve Adaptec-kontrolleren.

Kontrollerinnstillinger

Vi går til Controller Settings-elementet.

La oss se de grunnleggende innstillingene for kontrollerkonfigurasjonen. Du vil ha følgende alternativer her:

  • Crives Write Cache> Aktiverer cachen på disker, det anbefales å deaktivere den, siden cachingbanen går på nivået til raid-kontrolleren og i systemet. Det er en sjanse for tap av data når du kobler fra. Ved ssd kan du øke hastigheten, spesielt på svake kontrollere.
  • Runtime BIOS> Når den er aktivert, fungerer raid-kontrolleren som en oppstartsenhet, hvis den er deaktivert, så nei.
  • Automatic Failover> Når aktivert, vil kontrolleren automatisk gjenoppbygge arrayet når en stasjon feiler og erstattes med en ny. Når den er deaktivert, må matrisen gjenopprettes manuelt.
  • Array Backgrounf Consistency Check> Når aktivert, kontrollerer kontrolleren hele tiden den redundante arrayen, integriteten til det som spiser ressurser. Vær oppmerksom på at det kan være betydelig ytelsesforringelse. Deaktivert som standard.
  • Enhetsbasert BBS-støtte> Når den er aktivert på systemer som støtter BBS, fungerer kontrolleren som en oppstartsenhet i BIOS.
  • SATA Native Command Queuing> Deaktiver denne funksjonen hvis du vil koble til mer enn 48 SATA II-stasjoner. Kun tilgjengelig for SATA II-stasjoner
  • Fysiske stasjoner vises under POST> Når aktivert, vil kartlagte stasjoner vises mens systemets Power On Self Test (POST)-server starter opp. Disker vises i noen sekunder. Deaktivert som standard
  • Alarmkontroll> Når den er på, lyder alarmen. Aktivert som standard. Merk - Når alarmen er av (deaktivert), vil den automatisk slå seg på igjen etter omstart.
  • Standard Bakgrunnsoppgaveprioritet> Angir standardprioriteten for bakgrunnsoppgaver på kontrolleren (som hvordan du oppretter nye logiske stasjoner) til Høy, Middels eller Lav. Standard er Høy.
    Merk: Denne innstillingen gjelder for nye oppgaver. Dette påvirker ikke gjeldende
  • Bakplanmodus> Når satt til Auto, oppdager adaptec-kontrolleren automatisk om bakplansignalet er I2C eller SGPIO. For å eksplisitt angi bakplanmodus, velg SGPIO, I2C eller Disabled. Standard er Auto.
  • Valgbar ytelsesmodus> Når den er satt til Dynamisk, justeres ytelseskriteriene automatisk basert på kontrollerbruk, RAID-nivå og disktype. Når den er installert på OLTP / DB, er ytelsesberegningen optimalisert for transaksjonsorienterte applikasjoner som dataregistrering og søk. Når satt til big Block bupass, begynner DRAM-skrivebufferen å lese fra størrelsen på IO-skrivingen; Ytelseskriterier er optimalisert for å betjene nettsider, arbeide med filer og finne data. Når satt til Brukerdefinert, vil du bli bedt om å bruke OS-verktøyene til å tilpasse innstillingene (kontakt Adaptec Support for mer informasjon). Standard Dynamisk

  • Kontrollermodus> Adaptec Series 7 og 8 Series kontrollere: Når satt til modus RAID: Utsett RAW alle RAID-kontrollerfunksjoner er aktivert. Installerte stasjoner uten Adaptec vil metadataene bli sett i operativsystemet som RAW Pass Through-enheter (ligner på JBOD-arrays på eldre Adaptec-kontrollere). RAID: skjul RAW modus, er alle RAID-funksjonene til kontrolleren aktivert, men RAW-enheter oppdages ikke i operativsystemet. Når den er installert på HBA-modus installerte stasjoner identifiseres som RAW-enheter. Hensikten med denne modusen er å aktivere adaptec-kontrolleren til å fungere med HBA. Endringer i HBA-modus er kun tillatt hvis det ikke er koblet til Adaptec-metadatastasjoner, inkludert hot spare-stasjoner. Uinitialiserte disker er kompatible med alle HBA og kan brukes med disker SATA grensesnitt på hovedkortet.
    Når satt til Autovolum, vil installerte stasjoner uten Adaptec-metadata, men med en OS-partisjon, vises i operativsystemet i RAW-formatet til enheten. Installerte stasjoner uten Adaptec-metadata og uten OS-partisjoner konfigureres automatisk som enkle volumer. I volumautomatisk modus kan du lage maksimalt 128 enkle volumer; Ingen andre RAID-typer støttes. Automatisk modus tillater caching
    Når du installerer Simple Volume, kan du bare lage enkle volumer (maksimalt 128 volumer); Ingen andre RAID-typer støttes.
    Merk: Før du kan endre i Automatisk eller Volume Simple Volume-modus, må du fjerne eksisterende RAID-arrays, maxCache-beholdere og hot spares (hvis noen). Standard RAID: Vis RAW-modus.

Avansert konfigurasjon

I avansert konfigurasjonsmodus kan følgende verdier konfigureres for adaptec raid-kontrollere:

  • Tidssone> Tidssone for stedet der systemet er plassert. Innstillingstider for strømstyring utføres basert på den innstilte tidssonen. Som standard er den satt til 00:00. Det gyldige området for innstilling av tidssoner er -12:00 til +12:00
  • Hold deg våken Start> Tiden systemet skal kjøre på full kraft, uavhengig av andre strømstyringsinnstillinger, daglig. Som standard er den satt til 00:00. Det gyldige området er 00:00 til 23:59.

Kontroll RAID-arrayer Adaptec 6405 inkluderer ikke bare opprettelse og fjerning av arrays, men også oppgaver knyttet til vedlikehold av mislykkede disker eller med deres planlagte erstatning. I denne artikkelen vil jeg dekke de daglige oppgavene til en serveradministrator.

Hvis du er interessert i raid-teknologier og oppgavene med å administrere raid-kontrollere, anbefaler jeg å henvise til delen på bloggen min.

Opprette en Adaptec 6405 RAID-array

Når du laster serveren, trykk CTRL + A og gå til kontrollermenyen. Vi må velge Array Configuration Utility:

Først må du gå til menyelementet Initialiser stasjoner for å fortelle kontrolleren hvilke stasjoner som skal brukes.

Hver disk skal merkes med et mellomrom:

Etter at diskene er valgt, trykk Enter og vi får en advarsel:

Som et resultat lærte jeg følgende innstillinger:

Merk: noen få ord om partisjoner større enn 2TB - hvis den endelige størrelsen på arrayet er mindre enn denne verdien, bør du ikke bekymre deg. Hvis volumet er større, vil systemet ditt nekte å se noe større enn omtrent 2 TB. Dette skyldes MBR-partisjonering, som ikke tillater partisjonering mer enn 2TB. Utveien er å bruke GPT-markering, men i dette tilfellet må hovedkortet ditt støtte UEFI, som ikke er tilgjengelig på eldre hovedkort. For å omgå dette kan du tilordne en mindre størrelse til arrayet, og deretter bruke den gjenværende størrelsen til en annen RAID av samme type..

Igjen får vi en advarsel om bruk av latskriv-funksjonen.

Erstatter en defekt disk

dette stadiet Jeg vil prøve å simulere feilen til en av harddisk array. Siden jeg tidligere opprettet en rekke av typen Raid1, lar den deg fortsette å jobbe i tilfelle feil på halvparten av diskene. I mitt tilfelle er halvparten 1 disk (det er to totalt).

Fremgangsmåte:

  • Jeg slår av serveren helt;
  • Jeg tar ut en av skivene og monterer en annen i kurven ved siden av.

Ideelt sett bør matrisen etter det være i en degradert tilstand, men fortsette å fungere. Når den tredje stasjonen er tilkoblet, skal den ikke automatisk gripe inn i arrayet. For det første fordi den ikke er initialisert; for det andre fordi den ikke var oppført som hotspare(hot spare) når du oppretter en matrise.

Så la oss komme i gang.

Etter å ha slått på serveren får vi følgende advarsler i bios:

I prinsippet er det slik det skal være, fordi én disk i arrayet er borte. Forresten, etter "forsvinningen" av disken fra arrayet, kontrolleren begynte å pipe veldig høyt og ekkelt og kollegene mine begynte til og med å komme til meg og advare om den merkelige støyen fra serverrommet.

Vi går inn i array management-verktøyet, ser på tilstanden til arrayet i Administrer arrays:

Som du kan se, er det ingen disk i arrayet, selve arrayet er i en degradert tilstand. Alt er som forventet.

Etter det må vi initialisere ny plate... I skjermbildet ovenfor kan du se at den eksisterende matrisen bruker én disk i spor 31, noe som betyr at den nye disken vil være i en annen. Gå til menypunktet Initialiser stasjoner, initialiser disken i spor 29:

Vi mottar en advarsel (på en minnelig måte, på dette tidspunktet bør du allerede ha sikkerhetskopier av all relevant informasjon, og serveren er tatt opp for planlagt vedlikehold, hvis dette selvfølgelig er mulig):

Nå må vi fortelle kontrolleren at den skal bruke den nye disken for å inkludere den i arrayet i stedet for den mislykkede. Du må gjøre dette gjennom menyelementet Administrer arrays- trykk Enter, velg med pil opp/ned ønsket array(hvis det er flere av dem), trykk CTRL + S og gå til kontrollsiden Global Hotspare:

Du kan bare velge disker som ikke er inne dette øyeblikket i alle arrays. Velg ønsket disk med et mellomrom:

Trykk enter. En dialogboks vises for å bekrefte endringen, skriv inn Y... Siden vi gjorde disken til en hot-swap-disk, bør kontrolleren automatisk gjøre den til en del av arrayet og umiddelbart starte gjenoppbyggingsprosessen ( gjenoppbygge array), kan du også sjekke alt fra menyelementet Administrer arrays:

Fra nå av kan du starte serveren normalt og jobbe videre. En fullstendig gjenoppbygging er en ganske lang prosess og avhenger av mange parametere - ytelsen til kontrolleren / diskene, gjeldende belastning på kontrolleren / diskene, etc. stor side hvis du begynner å bruke arrayet rett etter at du har lagt til disken. Hvis det er mulig, er det bedre å gi kontrolleren tid til å rolig fullføre gjenoppbyggingen av arrayet og først etter det gi den en reell belastning (dette gjelder spesielt for RAID5-arrays).

Gjenoppbygg prosessen fysisk vil bli ledsaget av en blinkende rød LED på bøtten til disken som nettopp ble lagt til matrisen.

I nytte Adaptec lagringsbehandler gjenoppbygging av arrayet ser slik ut:

Forresten, verktøyet ble lansert fra samme server. Dette fullfører gjennomgangen av administrasjonsoppgavene for Adaptec 6405 RAID-matriser.

Hvis artikkelen hjalp deg, legg igjen kommentarer, del opplevelsen din.

Merkelig nok, men i dag er RAID-stabler proprietære løsninger som ikke overholder standardene. Du kan fjerne alle fysiske disker med RAID-volumer opprettet på dem, for eksempel fra en Adaptec 6805-kontroller og flytte dem til en 8885-kontroller, og volumene vil være synlige. Men hvis du prøver å overføre volumer til en kontroller fra en annen produsent på denne måten, vil ikke et mirakel skje, og det vil ikke være noen måte å se dataene og disse RAID-volumene. Hvorfor skjer det? Fordi tredjepartskontrolleren støtter sin egen stack, som ikke er kompatibel med Adaptec-stabelen.

Hvert RAID-volum vises for operativsystemet til datamaskinen som en "SCSI-disk", som vil bli sett på som et eget objekt i diskverktøy type disk manager. Det ser slik ut.

I diskbehandlingen kan du således se 4 virtuelle disker: RAID0, RAID1 og to RAID5-disker.

Når du lager volumer, fungerer hvert nivå.

Oppgave på fysisk disknivå- Lag et spesielt område på disker hvor informasjon om volumene som opprettes vil bli lagret. Et slikt område kalles et metadataområde og er en kompleks lagringsbeholder der tjenesteinformasjon lagres. Bare operativsystemet til kontrolleren har tilgang til dette området og ingen andre. I Adaptec-stakken kalles denne prosessen for opprettelse av tjenesteområde - initialisering og utføres via kommandoen - initialisere.

I RAID-kontrollere som støtter HBA-modus, er det også en omvendt kommando - avinitialisere(disse er kontroller i 7- og 8-serien). Denne kommandoen fjerner denne datastrukturen fullstendig fra den fysiske disken og setter den gitte disken i HBA-modus. Det vil si at for at en kontroller i 7- eller 8-serien skal begynne å fungere som en vanlig HBA, er det nok å deinitialisere alle diskene på den. Da vil de alle være synlige i det sentrale operativsystemverktøyet som DISK MANAGER og ingen andre operasjoner kreves.

På det fysiske nivået utføres en annen velkjent funksjon, kalt - tvang... I Adaptec-stakken gjøres det samtidig med initialisering. Denne funksjonen "kutter" kapasiteten på harddisken litt. Faktum er at disker med samme kapasitetskategori fra forskjellige produsenter fortsatt har forskjellig kapasitet. Slik at en disk fra en produsent kan erstattes i fremtiden med en disk fra en annen produsent, og tvangsfunksjonen utføres. Den avskårne beholderen er ganske enkelt "tapt" for alltid og brukes ikke på noen måte.

På det fysiske nivået er det mulig å plassere ulike tjenestefunksjoner - sjekke disken med en destruktiv eller ikke-destruktiv metode, formatering, fullstendig sletting data, fylle disken med nuller osv.

Logisk nivå er nødvendig av to grunner:

For det første reduserer det granulariteten til kapasitetene du velger for å lage volumer betydelig. Dette gjøres gjennom muligheten til å lage flere logiske disker (bare kutte av en del av kapasiteten) på en fysisk eller lage en logisk disk ved å bruke to eller flere fysiske. I dette tilfellet vil kapasiteten til forskjellige fysiske ganske enkelt legge seg opp. Først vil data fylle ett område på en fysisk disk, deretter en annen på en annen fysisk disk, og så videre. Denne metoden for å kombinere disker kalles Kjede(noen andre stabler bruker ordet Spenn).

For det andre, når slike objekter opprettes, kommer informasjon om dem inn i metadataene, og de er ikke lenger knyttet til fysiske koordinater. Du kan deretter flytte diskene fra en kontrollerport til en annen, flytte volumer fra en kontroller til en annen, og det vil fortsatt fungere utmerket.

Deretter kommer turen til RAID-nivået... Vanligvis har moderne stabler to undernivåer på dette nivået. På hvert undernivå er det elementære RAID-er, for eksempel: kjede eller span (dette er egentlig ikke en RAID, det er bare en "summering" av kapasiteter med forskjellige disker), RAID0, RAID1, RAID1E, RAID5, RAID6, etc.

Det laveste underlaget tar logiske stasjoner, for eksempel LD1, LD2, LD3, som vist i figuren, og "baker" et RAID5-volum fra dem. Det samme skjer med LD4, LD5, LD6. Fra dem får vi den andre RAID5. To RAID5-volumer forfremmes til et enda høyere nivå der RAID0-funksjonen brukes på dem. Utgangen er et komplekst volum kalt RAID50 (hvor 5 står for RAID-typen som brukes på det nedre undernivået og 0 står for typen RAID-funksjon som brukes på det øvre nivået). Det eneste som mangler i definisjonen er hvor mange RAID5 (in i dette tilfellet 2) ble brukt til å lage RAID50. I Adaptec-stabelen kalles dette enheten på andre nivå. Denne parameteren vil være nødvendig hvis du skal lage komplekse volumer som 50 eller 60.

Mest toppnivå er nødvendig for å gi et slikt virtuelt objekt for operativsystemtilgang. Ved overføring til dette nivået tilbys en rekke servicefunksjoner. De to viktigste i Adaptec-stabelen er bygget og klart.

  • Clear skriver nuller til hele det nye volumet som sendes til operativsystemet.
  • Bygg "bygger" et nytt volum. For eksempel, hvis det er RAID1, vil alt innholdet i den første beholderen bli kopiert til innholdet i den andre. Og så for alle containere.


Figuren viser en virtuell beholder av typen RAID1. Byggeoperasjonen.

Hvis du har nye disker fra fabrikken, skrives nuller i deres sektorer. Derfor vil resultatet av handlingen til begge funksjonene være det samme.

Forskjellen mellom SimpleVolume og HBA-modus.

Disse to modusene er veldig like hverandre. Begge kan brukes til å lage Software RAID-løsninger.

Når en disk er i HBA-modus, genereres ingen metadata på den. Og det er ingen "beskjæring" av kapasiteten ved tvangsfunksjonen. Dette kan forårsake et problem hvis du må erstatte platen med en plate fra en annen produsent. Disken sendes direkte til operativsystemet. I dette tilfellet vil ikke kontrollerbufferen fungere med den!

I tilfelle av å lage et enkelt volum gjennom konfigurasjon av volumer, opprettes et metadataområde på disken, kapasiteten "trimmes" av tvangsfunksjonen. Deretter, gjennom konfigurasjonsverktøyet, opprettes et enkelt volum som bruker hele den ledige diskkapasiteten. Og etter det dette objektet overføres til det sentrale operativsystemet.

I dag er RAID-kontrollerstabler i stadig utvikling. I sin MaxCache plus-funksjon la Adaptec enda et lag på stabelen, den såkalte tier, med undernivåer. Dette tillot oss å ta ett RAID5-volum opprettet på SSD-disker og et annet volum, for eksempel RAID60, opprettet på SATA-stasjoner med 7200 rpm og samle fra dem et komplekst, virtuelt volum, der de mest populære dataene ble lagret på RAID5, og de minst etterspurte dataene på RAID60. Samtidig kunne volumer tas fra forskjellige kontrollere... Denne funksjonen støttes for øyeblikket ikke på grunn av migrering av slike funksjoner til serveroperativsystemer. Naturligvis står ikke kontrollerstakken, som en virtualiseringsmekanisme, stille og blir stadig forbedret både på virtualiseringsnivå og på nivå med grunnleggende funksjoner og servicefunksjoner.

Moderne RAID-kontrollerenhet.

En moderne RAID-kontroller er et informasjonssystem (forenklet - en datamaskin), som på grunn av hovedfunksjonene: å lage en virtuell beholder, plassere og behandle informasjon i beholdere (faktisk LESE - SKRIVE informasjon) utveksler data med to andre typer informasjonssystemer:
1. Med et operativsystem;
2.Med HDD eller SSD-disker.

Fra synspunktet til intern arkitektur består en moderne RAID-kontroller av følgende sett med grunnleggende undersystemer:

  • RoC-brikke (RAIDonChip);
  • RAM;
  • Cache "beskyttelse" (vanligvis et eget datterkort, men i nyere implementeringer for den åttende Adaptec-kontrollerserien er denne modulen innebygd i RoC-brikken);
  • Superkondensator, som strømkilde for bufferbeskyttelsesmodulen, brukes i tilfelle hovedstrømbrudd;
  • Flash-minne og nvSRAM (minne som ikke mister informasjon når strømmen slås av);
  • SAS-kontakter, hvor hver enkelt fysisk kontakt er satt sammen etter prinsippet om fire SAS-porter i én fysisk kontakt;
  • PCI-E spor.

Tabell - Hovedundersystemene til RAID-kontrolleren.

Hovedfunksjonene til moderne Adaptec RAID-kontrollere.

Støtte for HBA-modus.

Vi har allerede diskutert ovenfor hvilke modeller av RAID-kontrollere som støtter HBA-modus. Det er viktig å merke seg at dette gjøres uavhengig for hver stasjon. Det vil si at på kontrolleren, hvis du ikke initialiserer noen av diskene på det fysiske nivået, vil de automatisk gå til et program som "diskbehandler" og vil være synlige og tilgjengelige for å jobbe med dem der. Du kan bruke en del av slike disker i HBA-modus som enkeltdisker, og bruke den andre delen til å lage programvare-RAID ved å bruke operativsystemet. De initialiserte diskene vil bli brukt til å lage RAID-volumer ved hjelp av RAID-kontrolleren.

Hybride volumer.

siste versjoner fastvare, oppretter Adaptec-kontrolleren automatisk en Hybrid RAID-array når du lager en RAID 1/10 fra samme antall SSD og HDD (men i eldre firmware var det viktig at i RAID1-par med SSD var disken "masteren", og HDD-disk"Slave"). Hvis du ikke vet hvordan du sjekker det, kontakt teknisk service. Adaptec-støtte. Adaptec-kontrolleren tar opp samtidig til HDD og SSD. I hybrid volummodus utføres avlesninger kun fra SSD-en! (for et volum på to HDD-disker når en viss terskel for I/O-operasjoner overskrides, skjer lesing fra to disker. Dette er hovedforskjellen hybridmodus RAID1 / 10). Resultat - pålitelig array med utmerket leseytelse. Leser som en enkelt SSD-stasjon. Dette er flere størrelsesordener høyere enn HDD-en. Denne funksjonen leveres som standard med alle Adaptec Series 2, 5,6, 7, 8 kontrollere.

Støtte for volumtyper som erstatter RAID5.

Jeg håper du kjenner godt til RAID5-beholderen - dette er en ganske klassisk løsning.

Rød viser lagringsbeholderen opprettet av RAID-kontrolleren. Det er en RAID5-beholder. Selve RAID5-volumet består av et stort antall slike virtuelle beholdere, stablet i en "bunt". En RAID5-beholder består av et sett med sektorer med individuelle fysiske disker. Det særegne med en RAID5-beholder er at den kan "overleve" problemer i en rekke harddiskbeholdere den er sammensatt av, dvs. sektorer av hardt disker som er en del av en RAID5-beholder mister informasjonen, men RAID5-beholderen lagrer den selv. Dette skjer opp til en viss grense. Med et visst antall "dårlige" sektorer vil ikke RAID5-beholderen i seg selv lenger kunne garantere 100 % informasjonslagring. På grunn av overgangen fra SCSI-teknologi til SAS-teknologi, har den tilbudte grunnleggende lagringskvaliteten til RAID5-beholderen blitt svært dårligere, bokstavelig talt med flere størrelsesordener.

Dette skjedde på grunn av en rekke objektive årsaker:
1. På grunn av støtten til SATA-stasjoner, spesielt av skrivebordsklassen, har kvaliteten på informasjonslagring i en "disksektor"-beholder falt merkbart (SCSI-kontrollere støttet kun SCSI-stasjoner av høy kvalitet);
2. Antall disker på kontrolleren har vokst mange ganger (2-kanals SCSI-kontroller - maksimalt 26 disker, tatt i betraktning ytelsen på 8-10 (4-5 per kanal));
3. Diskkapasiteten har vokst betydelig. Dette betyr at et RAID 5-volum kan romme mange flere RAID5-beholdere (maks. kapasitet SCSI-disker 400 GB, maks kapasitet moderne SATA-harddisk - 8 TB).

Alt dette øker sannsynligheten for at problemer oppstår i en enkelt RAID5-beholder, noe som i stor grad reduserer sannsynligheten for å lagre informasjon på et RAID5-volum. Av denne grunn har løsninger blitt lagt til moderne RAID-kontrollerstabler som eliminerer bruken av RAID5. Disse er RAID1E, RAID5EE og RAID6.

Tidligere var det eneste alternativet til RAID5 RAID10. Støtte for RAID 10 forblir selvfølgelig den samme.

RAID5 erstatningsalternativer:

Dårlig stripe

Tidligere, hvis til og med én kontrollerbeholder (stripe) mistet informasjon eller ikke kunne garantere sikkerheten, førte dette til en situasjon der hele volumet ble tatt offline av RAID-kontrolleren (stopp av tilgang betydde bokstavelig talt at kontrolleren ikke kunne garantere 100 % integritet til brukerdata om volumet).

En moderne kontroller "håndterer" denne situasjonen på en annen måte:
1. Tilgang til volumet stopper ikke;
2. En spesiell "bad stripe"-markør settes på volumet, som betyr at det er spesielle beholdere i RAID-volumet som har mistet informasjon;
3. Slike «ødelagte beholdere» rapporteres til operativsystemet slik at det kan vurdere mulige tiltak for å hindre tap av informasjon eller gjenopprette den.

Markør dårlig stripe kan ikke slettes fra volumet. Du kan bare slette og gjenskape et slikt volum. Utseendet til et volum med det dårlige stripeflagget indikerer ALVORLIGE feil eller problemer under designfasen av lagringssystemet eller under driftsfasen. Som regel ligger alvorlig inkompetanse hos designeren eller systemadministratoren bak en slik situasjon.

Hovedkilden til denne typen problemer er feil utformet RAID5.

Noen implementeringer av RAID 5 (for eksempel RAID5 på stasjonære stasjoner) er ikke tillatt for brukerdatavolumer. Krever minst RAID5 + Hot Spare, noe som ikke gir mening med RAID6. Det viser seg at der det var nødvendig å lage RAID6, ble RAID5 opprettet, som etter flere års drift førte til utseendet til BAD STRIPE-markøren.

SSD-bufring

SSD-bufringsfunksjon er en av de mest etterspurte optimaliseringsfunksjonene RAID-ytelse volumer kraftige systemer lagring fra stort beløp brukere uten betydelig kostnadsøkning, antall løsningsenheter, uten tap av lagringskapasitet og sikre optimalt strømforbruk.

For å bruke SSD-skrivebufring, må du sørge for at to betingelser er oppfylt:
1. Applikasjonen fungerer i "tilfeldig lesing"-modus;
2. Forespørsler om data er av ujevn karakter - det er containere på RAID-nivået som man får tilgang til oftere for å lese data derfra, og det er de som man får tilgang til sjeldnere.

Det skal bemerkes at jo flere brukere systemet har, jo mer sannsynlig er det at forespørsler til individuelle containere vil ha form av en standard statistisk distribusjon. I henhold til parameteren "antall forespørsler per tidsenhet", er det mulig å skille betinget "varme data" (antall anrop til dem vil være mer enn den angitte parameteren) og "kalde data" (antall anrop til dem er mindre enn den angitte parameteren).

SSD-drift read cache består i å kopiere «hot data» til SSD-stasjoner og videre lesing fra SSD, noe som fremskynder prosessen betraktelig. Siden dette er kopiering har lese-cachen naturlig beskyttelse, hvis SSD-disken som danner SSD-cache-området feiler, fører dette kun til tap av ytelse, men ikke tap av data.

Grunnleggende innstillinger for SSD-bufringsfunksjon for 7Q, 8Q kontrollere:
1. Først av alt, sørg for at du har varme data og hvilken størrelse det er. Dette gjøres best eksperimentelt ved å plassere en stor nok SSD i cache-området og konfigurere den i Simple Volume-modus. Integreringsselskaper kan gjøre dette arbeidet for deg. Etter omtrent en uke, gjennom administrasjonsfunksjonen, kan du fjerne SSD-caching-statistikken. Den vil vise deg om du har "hot data" og hvor mye de tar opp.
2. Det er tilrådelig å legge til 10-50 % av kapasiteten til dette volumet og, basert på disse dataene, justere hurtigbufferskjemaet i tilfelle en økning i volumet av "hot data" i fremtiden, hvis det er en slik trend.

Innstillingene lar deg "kutte av" den nødvendige kapasiteten fra kapasiteten til SSD-diskene dine, ta den til RAID-volumet riktig type og den gjenværende kapasiteten kan konverteres til et vanlig RAID-volum.

Deretter bør du vurdere om det er fornuftig å bruke en SSD-skrivebuffer. Som regel fungerer Internett-applikasjoner for lesing. Skrivebufferen brukes hovedsakelig i tillegg til lesebufferen hvis applikasjonen bruker skriving i tillegg til lesing. Og i tilfelle du bruker en skrivebuffer, må du sikre beskyttelsen av hurtigbufferen. Hvis noe skjer med cache-området, vil dataene som er plassert der under skrivebufring gå tapt. For beskyttelse er det nok å bruke et RAID-volum som gir redundans på tvers av disker, for eksempel RAID1.

Mulige konfigurasjonsmoduser for SSD-bufferområdet.

For individuelle volumer på kontrolleren kan du uavhengig aktivere eller deaktivere SSD-lese- og skrivebufferen avhengig av behovene og typene applikasjoner som fungerer med hvert volum.

UEFI-støtte.

Alle kontrollere og HBA-er i den gjeldende Adaptec-produktlinjen støtter hovedkortets uEFI BIOS-modus. Overgangen fra MBR til uEFI tillot for eksempel å lage system- og oppstartsvolumer større enn 2 TB, noe som var umulig på hovedkort med MBR BIOS (merk at alle Adaptec-produkter fullt ut støtter volumer > 2 TB, dette problemet eksisterer ikke fra kontrollere og HBA). Det er mange andre fordeler ved å bruke uEFI-modus. For eksempel når du støtter disker med 4K-sektorstørrelse. Alle gjeldende Adaptec-produkter støtter 4K-sektorstasjoner, bortsett fra serie 6-kontrollere.

Det er viktig å huske at hvis hovedkortet bruker MBR-modus, aktiveres kontrollerkonfigurasjonsverktøyet via Cntrl + A.

På bildet standard verktøy Adaptec-konfigurasjon, påkalt med tastekombinasjonen Cntrl + A.

Ved uEFI-modus er kontrolleren og HBA-konfiguratoren integrert i BIOS hovedkort... Dette verktøyet er lett å finne ved linjer som inneholder ordene "Adaptec" eller "PMC". Og, som du kan se i eksemplet nedenfor, har uEFI-verktøyet mer avansert funksjonalitet enn verktøyet som kalles via Cntrl + A.

Hot Spare-funksjoner.
En Hot Spare-disk fungerer som et passivt element i et RAID-volum, og "tas" inn i et RAID-volum hvis noe skjer med noen av diskene i volumet og den ikke lenger er tilgjengelig for å utføre arbeidet sitt. En HOT SPARE er en disk som er installert på en kontroller, spunnet opp og tilordnet ett eller flere volumer.

Når det gjelder den siste delen av HOT SPARE-definisjonen, kan 3 typer plater lages:

Hot Spare-disker brukes i ADaptec-stakken for manuell "reparasjon" av volumer, som har ulike årsaker en disk har feilet. For eksempel har RAID5-volumet ditt mistet én disk og gått inn i "degradert" tilstand. Du setter inn en ny disk i stedet for den gamle eller i et annet ledig spor, klikker på rescan-funksjonen og nå ser du den nye disken på nivå med de fysiske diskene i stabelen. Deretter erklærer du den som HOT SPARE (uansett hvilken type, for eksempel Global Hot Spare) og venter på at denne disken er 100 % "innebygd" i volumet. Volumet går inn i Optimal tilstand. Etter det velger du kommandoen - slett hot spare. Denne kommandoen fjerner HOT SPARE-statusen fra denne disken, og den blir et fullverdig medlem av dette RAID-volumet.

Strømstyringsfunksjon.

RAID-volumer fungerer annerledes. For eksempel kan volumer opprettet for sikkerhetskopiering av data brukes til å flytte data, for eksempel to til tre dager i en måned. Spørsmålet oppstår: hvor godt er det å levere strøm til harddisk og holde skivene i sving hvis de ikke blir brukt resten av tiden?

Strømstyringsfunksjonen tar seg av dette problemet. Filosofien er at hvis diskene ikke er i bruk, kan de bremses (hvis en slik funksjon støttes av diskene), og deretter stoppes helt og holdes av til de trengs. Innstillingene for denne funksjonen er ekstremt enkle.

Først blir hele kontrolleren tildelt klokkeslettet etter ukedager når denne funksjonen er aktivert og når ikke. Denne innstillingen er knyttet til arbeidet til et typisk selskap. Parametrene for å sette de interne og eksterne diskene i drift er satt - i par, tre, fire, etc., for å fordele belastningen på strømforsyningene. I tillegg er tre timerverdier satt. Etter at den første utløper, hvis det ikke er noen I / O-operasjoner på diskene til dette volumet, vil disse diskene gå inn i "stand by"-tilstand, dvs. vil redusere omsetningen med 50 %. Ikke alle disker støtter denne modusen, hvis den ikke støttes, vil ingenting skje med disken. Etter at den andre timeren utløper, vil diskene stoppe helt og gå inn i "strøm av"-tilstand. Den tredje timeren brukes til periodisk å sjekke disker som har slått seg av i lang tid. Kontrolleren slår på diskene, utfører deres ikke-destruktive sjekk og, hvis alt er i orden, slår de dem tilbake til "strøm av"-tilstand.

Etter disse innstillingene kan du aktivere strømstyringsskjemaet for hvert volum der det er nyttig. Slike volumer vil fremheves med grønt i styringssystemet. Maksimal fordeler denne funksjonen Gir bruk av datasenter, og tillater ikke bare direkte strømsparing ved å stoppe stasjoner, men også ekstra besparelser ved å redusere hastigheten til viftene som blåser stasjonene når de er slått av.

Adaptec lagringsadministrasjon.

Administrasjonsverktøyene som er inkludert i Max View Storage Manager (MSM)-pakken er bygget etter de mest avanserte standardene og bruker de nyeste trendene for å forbedre administrasjonsprinsippene og forbedre effektiviteten. Derfor kan vi enkelt bruke Adaptec Max View Storage Manager som basismodellå se på de grunnleggende funksjonene og teknikkene for lagringshåndtering. En RAID-kontroller brukes som hovedkontrollelement, som kan utveksle tjenesteinformasjon med disker, utvidere og kurver og dermed støtte administrasjonsfunksjoner for hele lagringsundersystemet som helhet.

Nøkkelegenskaper moderne systemer administrasjon av lagringssystemer:

  • Som klientapplikasjon en standard nettleser brukes.
  • CIM-leverandør for arbeid i virtuelle miljøer. CIM-leverandøren fra MSM-pakken tillater full administrasjon av RAID-kontrolleren fra under enhver virtuelt miljø... For eksempel når du bruker vmware.
  • Bruke CLI-verktøy (kommandolinjegrensesnitt). I MSM-pakken, i tillegg til det grafiske administrasjonsverktøyet, som bruker en nettleser som klientdel, er det et CLI-verktøy - ARCCONF.EXE. For en liste over kommandoer, se dokumentasjonen på Adaptec-nettstedet. Ved å bruke CLI kan du lage ulike skript (miniprogrammer) som kan brukes av integratorer for å automatisere produksjon, innstillinger, endre fastvare osv. og i selskaper som bruker RAID-kontrollere for å automatisk polle lagringssystemer for unormale situasjoner.
  • Evnen til å administrere hele infrastrukturen fra én klientapplikasjon. Ved å bruke MSM i Enterprise View-vinduet kan du ta kontroll over alle servere med en eller flere RAID-kontrollere installert i dem. For å gjøre dette, angir du enten direkte IP-adressen til slike systemer, eller bruker Auto Discovery-funksjonen.

Høy level detaljering, visualisering og nesting av kontrollobjekter. Administratoren kan se at hele nettverkssegmentet blir rødt, noe som betyr at det er et problem. Hvis du utvider nettverkssegmentikonet, vil alle servere være synlige. Problemserveren vil være uthevet i rødt. Hvis du klikker med musen på denne serveren, vil du se RAID-kontrollerne installert i dette systemet. Den røde fargen på en av dem betyr et slags problem. Ytterligere detaljer vil vise volumene som er opprettet på denne kontrolleren og problemvolum... Og så videre opp til den problematiske fysiske disken. Nå vet administratoren nøyaktig hva som skjedde, hvilke konsekvenser det førte, og hvilken disk som må byttes ut.
Høyt sikkerhetsnivå for kontrollsystemer som bruker standard nettverksprotokoller. Lagringsstyringsmekanismer må åpenbart beskyttes. Faktisk, med uautorisert tilgang eller åpen kanal kontrollbrukerdata kan ødelegges permanent. Til dette formål bruker MSM en database med brukere og passord fra selve operativsystemet. I tillegg brukes trafikkkryptering på kanalen mellom nettleseren og administrasjonsserveren. HTTPS-protokoll... I andre komponenter i styringssystemet tas også sikkerhetsspørsmål opp på høyeste nivå.
Evne til å sende viktige meldinger fra lagringssystemet til administratoren. For ikke å «nagle» administratorens øyne for alltid til skjermen med MS i Nettleser, kan kontrollsystemet konfigureres til å sende meldinger via e-post. MSM har muligheten til å sende alle typer meldinger, inkludert testmeldinger. De viktigste meldingene er advarsels- og feilmeldinger, som er direkte relatert til overgangen av RAID-volumer til tilstandene Degradere og Mislykket. Slike meldinger gjennom e-postapplikasjoner kan enkelt overføres til administratorens mobiltelefon. Legg til merkelapper

Tidligere publisert den første delen, som beskrev generell informasjon om RAID-kontrollere (), det var spørsmål og interesse, jeg sprer allerede "kjøtt"-biten. Alt er veldig spesifikt her - detaljert klassifisering av Adaptec-kontrollere, funksjoner til hver kontrollerserie, tabeller, bilder, etc.

Adaptec RAID-kontrollere utvalg.

Adaptec-kontrollere klassifisering.

Du kan prøve å representere forbedringen av stabelfunksjonene i forhold til prosjektklassen i denne tabellen grafisk for å gjøre tabellen mer beskrivende.

Modellsøknadstabell mht SSD-støtte disker.


De neste generasjonene av RAID-kontrollere og HBA-er vil gi enda kraftigere støtte for bruk av et stort antall SSD-disker på kontrolleren. Antallet disker vist i tabellen er omtrentlig. Mer nøyaktige beregninger ytelse er ikke angitt i denne artikkelen, de kan utføres av selskaper - integratorer.

Trinity Server er en sikker investering

  • Operativ montering og høy tilgjengelighet nødvendige komponenter... Trinity har 2 produksjonssteder med en kapasitet på opptil 15 000 servere per år (OEM: Supermicro, Intel)
  • Høy byggekvalitet - mindre enn 2 % av garantitilfellene.
  • Obligatorisk testing: alle maskinvare- og programvarekomponenter; lage matriser; installasjon av operativsystemer (Windows, Linux); testing av utstyr under høy belastning.
  • Garanti fra 3 år med service i 42 byer i Russland og CIS.
  • Levering over hele Russland og CIS... Henting er mulig.
Bygg din server! Trinity Server Configurator.

Avhengighet av valget av RAID-kontrollermodell av antall brukere serversystem gitt i tabellen nedenfor (angitt aktive brukere). Tallene er omtrentlige og er gitt for å forstå trenden i bruken av enkelte modeller.

Og en til viktig poeng... Som alle lærebøker om kompleks systemdesign anbefaler sterkt, må designet ta hensyn til ikke bare dagens, men fremtidige krav til systemet.

Det er også en avhengighet av søknader. SSD-bufring øker for eksempel leseorienterte applikasjoner. Heldigvis er dette mer enn 90 %. Internett-applikasjoner... Caching er også mulig for skriving, men dette er mer som et "fint tillegg" til lesing på grunn av applikasjonenes natur.




La oss nå se på kontrollermodellene mer detaljert.

6. serie Adaptec RAID-kontrollere.

Generelle egenskaper for 6-serie kontrollere:
Basert på RoC (RAID on Chip) PM8013 8x SAS2-porter (6Gb/s) PMC-Sierra ( Ytterligere informasjon kan sees på www.pmcs.com;
Modeller med maksimalt antall porter - 8 SAS 2.0-porter (6Gb/s), og et 8x PCI-express Gen 2.0-spor;
Bufferminne - 512MB DDR2-667 DRAM.
Alternativt kan du bruke Adaptec Flash Module Cache Protection Kit (AFM-600 Kit), som inkluderer:


Adaptec RAID 6805 med AFM-600 Flash-modul.

Støtte for 6-seriekontrollere på stabelnivå:
Enkelt volum, JBOD, RAID 0, 1, 10, 1E, 5, 6, 50, 60 Hybrid RAID 1, 10.
Maksimal ytelse for kontrollerkjernen er 50 000 IOPS (4 KB-blokker, tilfeldig avlest).
Ytelsen for sekvensielle mønstre er vist i tabellen nedenfor.

Familie 6T.
Hovedformålet med utseendet til slike kontrollere i 6T-familien er å utelukke situasjoner der den ubøyelige delen av kabelen (en del, ca. 2 cm lang etter kontakten) hviler på dekselet eller serverdekselet, på prosessorens kjøleribbe eller andre deler av serveren. For å gjøre dette, på den sjette serien av kontrollere, er portene plassert slik at den ufleksible delen av kabelen ikke går utover de geometriske grensene til kontrolleren. Merket med grønn pil på bildet. Det blå rektangelet er den stive delen av kabelen.




Adaptec RAID 6805T med AFM-600 Flash-modul.

Familie 6E

RAID-kontrollere for prosjekter på startnivå. Redusert RAM, sammenlignet med konvensjonelle kontroller i 6-serien er stabelen forenklet, det er ingen støtte for bufferbeskyttelse og utvidere. De har en forenklet stack, støtter kun Simple Volume, JBOD, RAID 0,1, 10, 1E, dvs. det er ingen støtte for RAID 5,5EE, 6, 50, 60, men de støtter Hybrid RAID 1, 10 (se avsnittet " Hybridvolumer "i kapitlet" Grunnleggende funksjoner for RAID-kontrollere "nedenfor.
6405E støtter maksimalt 4 plater. Modell 6805E - 8 disker (siden det ikke er støtte for SAS-utvidere). Modell 6405E har PCI-E spor 1x, modell 6805E - PCI-E 4x ver. 2.

6-serie kontrollerportkoblinger.
Alle RAID-kontrollere i 6-serien støtter kun Mini-SAS-porter.
For interne porter brukes en kontakt - SFF 8087 (intern mini-SAS),

for ekstern - SFF-8088 (ekstern mini-SAS).

Sammendragstabell for 6-serie kontrollere.

7. serie Adaptec RAID-kontrollere.


Adaptec RAID 71605.

Første PCIe 3.0 LP MD2-kontroller med 16 SAS/SATA 6Gb/s-porter.
Første 24-ports halvlengde PCIe 3.0-kontroller.
Den første løsningen for å dra full nytte av PCIe 3.0-bussen.
Den første løsningen gir 450 tusen IOPS og 6600 MB / s.
Den første løsningen fokuserte på å lage volumer basert på SSD.
For første gang er eksterne RBOD-rack, båndstasjoner og autoloadere fullt aktivert.

Generelle egenskaper for 7-serie kontrollere:

Basert på SRCv RoC (RAID on Chip) PM8015 SRCv 24x SAS2-port (6Gb/s) PMC-Sierra (mer informasjon finnes på www.pmcs.com);
Modeller med maksimalt antall porter - 24 SAS 2.0-porter (6Gb/s), og et 8x PCI-express Gen 3.0-spor;
Bufferminne - 1024 MB DDR3-1333 DRAM.

o Datterkort med flashminne;
o Ekstern blokk av superkondensator.

7-seriekontrollere på stabelnivå støtter: Enkelt volum, JBOD, RAID 0, 1, 10, 1E, 5, 6, 50, 60, Hybrid RAID 1, 10 og HBA-modus.
Fra og med den 7. serien støtter RAID-kontrollerne HBA-modus, dvs. faktisk er det egentlig ikke en RAID-kontroller, det er en RAID-kontroller og en HBA på samme kort. Se HBA-modus for produktfunksjonsbeskrivelser.
Støtte for RAID 5EE er avviklet (grunnen er at ytelsen til RAID6 på grunn av styrkingen av arkitekturen til RoC-brikken tilsvarte RAID5EE, og i alle andre parametere - pålitelighet, enkelt vedlikehold, etc., RAID 6 eller lignende eller bedre enn RAID5EE, som fratar betydningen eksistensen av RAID 5EE i en moderne RAID-kontrollerstabel).

Maksimal ytelse for kontrollerkjernen er 600 000 IOPS.


Alle 7-seriens RAID-kontrollere støtter kun miniSAS-HD-porter.
For interne porter brukes en kontakt - SFF-8643 (intern mini-SAS HD),

for ekstern - SFF-8644 (ekstern mini-SAS HD).



Legg merke til den balanserte båndbredden mellom SAS og PCI-E med 71605-kontrolleren, den eneste 16-porters SAS2-lavprofilløsningen i bransjen.

Familie 7E
RAID-kontrollere for prosjekter på startnivå. Redusert RAM sammenlignet med konvensjonelle kontroller i 6-serien, forenklet stabel, ingen støtte for bufferbeskyttelse. De har en forenklet stack, støtter kun Simple Volume, JBOD, RAID 0,1, 10, 1E, dvs. det er ingen støtte for RAID 5,5EE, 6, 50, 60, men de støtter Hybrid RAID 1, 10 (se avsnittet " Hybridvolumer "i kapittelet" Grunnleggende funksjoner til RAID-kontrollere "nedenfor).
I motsetning til 6E, støtter 7E-familien utvidere og har samme 8X PCI-E-spor som kontrollere uten "E"-indeksen.

Familie 7Q
7Q-familien med RAID-kontrollere har SSD-bufringsfunksjonalitet. Tildeling av cache på logisk disknivå støttes. Den gjenværende kapasiteten kan brukes som et vanlig RAID-volum. Både lese- og skrivebuffere støttes. Mer detaljert informasjon se delen SSD-bufring i delen Grunnleggende funksjoner for RAID-kontrollere nedenfor.

Sammendragstabell for kontroller i 7-serien.

8. serie Adaptec RAID-kontrollere.


Generelle egenskaper for kontrollere i den åttende serien.

Den åttende serien med RAID-kontrollere er flaggskipgruppen av RAID-kontrollere i begynnelsen av 2015. Og den er allerede basert på SAS3-teknologi (12 Gb/s). Familien inkluderer bransjens eneste 16-porters 12Gb/s SAS RAID-kontroller med innebygd flash-cache-redundans – alt i LP/MD2-formfaktoren – ASR-81605ZQ. Bransjeledende 700 000 input-output-operasjoner per sekund (IOPS) for RAID-kontrollere. Max Cache 3.0 - Unik for industrien programvare lagdeling og caching, gir lagring den beste kostnadseffektiviteten og ytelsen.

ASR-8885 har 8 interne / eksterne 12 Gb / s SAS3-porter i en lavprofil LP / MD2-formfaktor:
Basert på SRCv RoC (RAID on Chip) PMC PM8063 16x SAS3-porter (12 Gb/s) PMC-Sierra (mer informasjon finnes på www.pmcs.com);
Modeller med maksimalt antall porter - 12 SAS 3.0-porter (12 Gb/s) og et 8x PCI-express Gen 3.0-spor;
Bufferminne - 1024 MB DDR3-1600 DRAM;
HD miniSAS-kontakter.
o Eventuelt kan de bruke Adaptec Flash Module Cache Protection Kit (AFM-700), som inkluderer:
o Datterkort med flashminne;
o Ekstern blokk av superkondensator.
AFM-700 Cache Guard er kompatibel med Adaptec Series 7 og 8 kontrollere.

Familie 8Q
8Q-familien med RAID-kontrollere støtter SSD-bufring. Tildeling av cache på logisk disknivå støttes. Den gjenværende kapasiteten kan brukes som et vanlig RAID-volum. Både lese- og skrivebuffere støttes. For mer informasjon, se delen "SSD-bufring" i kapittelet "Grunnleggende funksjoner for RAID-kontrollere" nedenfor.

Sammendragstabell for 8-serie kontrollere.

Adaptec RAID 81605ZQ med superkondensatorboks festet.

6. serie HBA Adaptec


Adaptec SAS HBA 6805H.

Generelle egenskaper for HBA 6H-serien:
Ekstremt kostnadseffektive HBA-løsninger som gir 4/8 interne SAS-porter (6Gb/s SAS2-teknologi);
Ytelse 250 000 IOPS med blokkstørrelse. 512 byte og 200 000 IOPS med en blokkstørrelse på 4K byte;
Alle modellene har lavprofil LP / MD2-størrelse og bruker MiniSAS-kontakter;
Familien bruker 4x PCI-express Gen 2.0.

Sammendragstabell for HBA 6-serien.

7. serie HBA Adaptec.


Adaptec SAS HBA 71605H.

Generelle egenskaper for HBA 7H-serien:
Ekstremt kostnadseffektive HBA-løsninger som gir 16/8 interne eller eksterne SAS-porter (6Gb/s SAS2-teknologi);
Ytelse 1 million IOPS med blokkstørrelse. 512 byte og 800 000 IOPS med 4KB blokkstørrelse;
Støtter ikke-diskenheter;
Alle modellene har lav profil LP / MD2 størrelse og bruker MiniSAS-HD kontakter;
Familien bruker 8x PCI-express Gen 3.0.

Sammendragstabell for HBA 7-serien.

En generell titt på kjernen i produktlinjen når det gjelder RAID- og HBA-støtte.

Informasjon gitt av Adaptec av PMC (Russland). Full tekst artikler kan bli funnet

Merkelig nok, men i dag er RAID-stabler proprietære løsninger som ikke overholder standardene. Du kan fjerne alle fysiske disker med RAID-volumer opprettet på dem, for eksempel fra en Adaptec 6805-kontroller og flytte dem til en 8885-kontroller, og volumene vil være synlige. Men hvis du prøver å overføre volumer til en kontroller fra en annen produsent på denne måten, vil ikke et mirakel skje, og det vil ikke være noen måte å se dataene og disse RAID-volumene. Hvorfor skjer det? Fordi tredjepartskontrolleren støtter sin egen stack, som ikke er kompatibel med Adaptec-stabelen.

Hvert RAID-volum vises for operativsystemet til datamaskinen som en "SCSI-disk", som vil bli sett på som et eget objekt i diskverktøy som diskbehandler. Det ser slik ut.

I diskbehandlingen kan du således se 4 virtuelle disker: RAID0, RAID1 og to RAID5-disker.

Når du lager volumer, fungerer hvert nivå.

Oppgave på fysisk disknivå- Lag et spesielt område på disker hvor informasjon om volumene som opprettes vil bli lagret. Et slikt område kalles et metadataområde og er en kompleks lagringsbeholder der tjenesteinformasjon lagres. Bare operativsystemet til kontrolleren har tilgang til dette området og ingen andre. I Adaptec-stakken kalles denne prosessen for opprettelse av tjenesteområde - initialisering og utføres via kommandoen - initialisere.

I RAID-kontrollere som støtter HBA-modus, er det også en omvendt kommando - avinitialisere(disse er kontroller i 7- og 8-serien). Denne kommandoen fjerner denne datastrukturen fullstendig fra den fysiske disken og setter den gitte disken i HBA-modus. Det vil si at for at en kontroller i 7- eller 8-serien skal begynne å fungere som en vanlig HBA, er det nok å deinitialisere alle diskene på den. Da vil de alle være synlige i det sentrale operativsystemverktøyet som DISK MANAGER og ingen andre operasjoner kreves.

På det fysiske nivået utføres en annen velkjent funksjon, kalt - tvang... I Adaptec-stakken gjøres det samtidig med initialisering. Denne funksjonen "kutter" kapasiteten på harddisken litt. Faktum er at disker med samme kapasitetskategori fra forskjellige produsenter fortsatt har forskjellig kapasitet. Slik at en disk fra en produsent kan erstattes i fremtiden med en disk fra en annen produsent, og tvangsfunksjonen utføres. Den avskårne beholderen er ganske enkelt "tapt" for alltid og brukes ikke på noen måte.

På det fysiske nivået er det mulig å plassere ulike tjenestefunksjoner - sjekke disken ved hjelp av en destruktiv eller ikke-destruktiv metode, formatering, fullstendig sletting av data, fylling av disken med nuller, etc.

Logisk nivå er nødvendig av to grunner:

For det første reduserer det granulariteten til kapasitetene du velger for å lage volumer betydelig. Dette gjøres gjennom muligheten til å lage flere logiske disker (bare kutte av en del av kapasiteten) på en fysisk eller lage en logisk disk ved å bruke to eller flere fysiske. I dette tilfellet vil kapasiteten til forskjellige fysiske ganske enkelt legge seg opp. Først vil data fylle ett område på en fysisk disk, deretter en annen på en annen fysisk disk, og så videre. Denne metoden for å kombinere disker kalles Kjede(noen andre stabler bruker ordet Spenn).

For det andre, når slike objekter opprettes, kommer informasjon om dem inn i metadataene, og de er ikke lenger knyttet til fysiske koordinater. Du kan deretter flytte diskene fra en kontrollerport til en annen, flytte volumer fra en kontroller til en annen, og det vil fortsatt fungere utmerket.

Deretter kommer turen til RAID-nivået... Vanligvis har moderne stabler to undernivåer på dette nivået. På hvert undernivå er det elementære RAID-er, for eksempel: kjede eller span (dette er egentlig ikke en RAID, det er bare en "summering" av kapasiteter fra forskjellige disker), RAID0, RAID1, RAID1E, RAID5, RAID6, etc.

Det laveste underlaget tar logiske stasjoner, for eksempel LD1, LD2, LD3, som i figuren, og "baker" et RAID5-volum fra dem. Det samme skjer med LD4, LD5, LD6. Fra dem får vi den andre RAID5. To RAID5-volumer forfremmes til et enda høyere nivå der RAID0-funksjonen brukes på dem. Utgangen er et komplekst volum kalt RAID50 (hvor 5 står for RAID-typen som brukes på det nedre undernivået og 0 står for typen RAID-funksjon som brukes på det øvre nivået). Det eneste som mangler i definisjonen er hvor mye RAID5 (i dette tilfellet 2) som ble brukt til å lage RAID50. I Adaptec-stabelen kalles dette enheten på andre nivå. Denne parameteren vil være nødvendig hvis du skal lage komplekse volumer som 50 eller 60.

Det øverste nivået er nødvendig for å gi et slikt virtuelt objekt for operativsystemtilgang. Ved overføring til dette nivået tilbys en rekke servicefunksjoner. De to viktigste i Adaptec-stabelen er bygget og klart.

  • Clear skriver nuller til hele det nye volumet som sendes til operativsystemet.
  • Bygg "bygger" et nytt volum. For eksempel, hvis det er RAID1, vil alt innholdet i den første beholderen bli kopiert til innholdet i den andre. Og så for alle containere.


Figuren viser en virtuell beholder av typen RAID1. Byggeoperasjonen.

Hvis du har nye disker fra fabrikken, skrives nuller i deres sektorer. Derfor vil resultatet av handlingen til begge funksjonene være det samme.

Forskjellen mellom SimpleVolume og HBA-modus.

Disse to modusene er veldig like hverandre. Begge kan brukes til å lage Software RAID-løsninger.

Når en disk er i HBA-modus, genereres ingen metadata på den. Og det er ingen "beskjæring" av kapasiteten ved tvangsfunksjonen. Dette kan forårsake et problem hvis du må erstatte platen med en plate fra en annen produsent. Disken sendes direkte til operativsystemet. I dette tilfellet vil ikke kontrollerbufferen fungere med den!

I tilfelle av å lage et enkelt volum gjennom konfigurasjon av volumer, opprettes et metadataområde på disken, kapasiteten "trimmes" av tvangsfunksjonen. Deretter, gjennom konfigurasjonsverktøyet, opprettes et enkelt volum som bruker hele den ledige diskkapasiteten. Og etter det blir dette objektet overført til arbeidet til det sentrale operativsystemet.

I dag er RAID-kontrollerstabler i stadig utvikling. I sin MaxCache plus-funksjon la Adaptec enda et lag på stabelen, den såkalte tier, med undernivåer. Dette gjorde det mulig å ta ett RAID5-volum opprettet på SSD-disker og et annet volum, for eksempel RAID60, opprettet på SATA-disker med 7200 rpm, og sette sammen et komplekst virtuelt volum fra dem, der de mest populære dataene ble lagret på RAID5, og det minst etterspurte på RAID60. Samtidig kunne volumer tas fra forskjellige kontrollere. Denne funksjonen støttes for øyeblikket ikke på grunn av migrering av slike funksjoner til serveroperativsystemer. Naturligvis står ikke kontrollerstakken, som en virtualiseringsmekanisme, stille og blir stadig forbedret både på virtualiseringsnivå og på nivå med grunnleggende funksjoner og servicefunksjoner.

Moderne RAID-kontrollerenhet.

En moderne RAID-kontroller er et informasjonssystem (forenklet - en datamaskin), som på grunn av hovedfunksjonene: å lage en virtuell beholder, plassere og behandle informasjon i beholdere (faktisk LESE - SKRIVE informasjon) utveksler data med to andre typer informasjonssystemer:
1. Med et operativsystem;
2.Med HDD eller SSD-disker.

Fra synspunktet til intern arkitektur består en moderne RAID-kontroller av følgende sett med grunnleggende undersystemer:

  • RoC-brikke (RAIDonChip);
  • RAM;
  • Cache "beskyttelse" (vanligvis et eget datterkort, men i nyere implementeringer for den åttende Adaptec-kontrollerserien er denne modulen innebygd i RoC-brikken);
  • Superkondensator, som strømkilde for bufferbeskyttelsesmodulen, brukes i tilfelle hovedstrømbrudd;
  • Flash-minne og nvSRAM (minne som ikke mister informasjon når strømmen slås av);
  • SAS-kontakter, hvor hver enkelt fysisk kontakt er satt sammen etter prinsippet om fire SAS-porter i én fysisk kontakt;
  • PCI-E spor.

Tabell - Hovedundersystemene til RAID-kontrolleren.

Hovedfunksjonene til moderne Adaptec RAID-kontrollere.

Støtte for HBA-modus.

Vi har allerede diskutert ovenfor hvilke modeller av RAID-kontrollere som støtter HBA-modus. Det er viktig å merke seg at dette gjøres uavhengig for hver stasjon. Det vil si at på kontrolleren, hvis du ikke initialiserer noen av diskene på det fysiske nivået, vil de automatisk gå til et program som "diskbehandler" og vil være synlige og tilgjengelige for å jobbe med dem der. Du kan bruke en del av slike disker i HBA-modus som enkeltdisker, og bruke den andre delen til å lage programvare-RAID ved å bruke operativsystemet. De initialiserte diskene vil bli brukt til å lage RAID-volumer ved hjelp av RAID-kontrolleren.

Hybride volumer.

På de nyeste fastvareversjonene oppretter Adaptec-kontrolleren automatisk en Hybrid RAID-array når du lager en RAID 1/10 fra samme antall SSD-er og HDD-er (men i eldre fastvare var det viktig at i RAID1-par var SSD-en "masteren" og HDD-en var "slaven"). Hvis du ikke vet hvordan du sjekker det - kontakt teknisk service. Adaptec-støtte. Adaptec-kontrolleren tar opp samtidig til HDD og SSD. I hybrid volummodus utføres avlesninger kun fra SSD-en! (for et volum på to HDD-disker, når en viss terskel for I/O-operasjoner overskrides, skjer lesing fra to disker. Dette er hovedforskjellen mellom hybrid RAID1/10-modus). Resultatet er en robust serie med utmerket leseytelse. Leser som en enkelt SSD-stasjon. Dette er flere størrelsesordener høyere enn HDD-en. Denne funksjonen leveres som standard med alle Adaptec Series 2, 5,6, 7, 8 kontrollere.

Støtte for volumtyper som erstatter RAID5.

Jeg håper du kjenner godt til RAID5-beholderen - dette er en ganske klassisk løsning.

Rød viser lagringsbeholderen opprettet av RAID-kontrolleren. Det er en RAID5-beholder. Selve RAID5-volumet består av et stort antall slike virtuelle beholdere, stablet i en "bunt". En RAID5-beholder består av et sett med sektorer med individuelle fysiske disker. Det særegne med RAID5-beholderen er at den kan "overleve" problemer i en rekke harddiskbeholdere som den består av, dvs. harddisksektorene som er en del av RAID5-beholderen mister informasjonen, men selve RAID5-beholderen lagrer. Dette skjer opp til en viss grense. Med et visst antall "dårlige" sektorer vil ikke RAID5-beholderen i seg selv lenger kunne garantere 100 % informasjonslagring. På grunn av overgangen fra SCSI-teknologi til SAS-teknologi, har den tilbudte grunnleggende lagringskvaliteten til RAID5-beholderen blitt svært dårligere, bokstavelig talt med flere størrelsesordener.

Dette skjedde på grunn av en rekke objektive årsaker:
1. På grunn av støtten til SATA-stasjoner, spesielt av skrivebordsklassen, har kvaliteten på informasjonslagring i en "disksektor"-beholder falt merkbart (SCSI-kontrollere støttet kun SCSI-stasjoner av høy kvalitet);
2. Antall disker på kontrolleren har vokst mange ganger (2-kanals SCSI-kontroller - maksimalt 26 disker, tatt i betraktning ytelsen på 8-10 (4-5 per kanal));
3. Diskkapasiteten har vokst betydelig. Dette betyr at et RAID 5-volum kan romme mange flere RAID5-beholdere (maks. 400GB SCSI-disker, maksimal kapasitet på en moderne SATA-harddisk er 8TB).

Alt dette øker sannsynligheten for at problemer oppstår i en enkelt RAID5-beholder, noe som i stor grad reduserer sannsynligheten for å lagre informasjon på et RAID5-volum. Av denne grunn har løsninger blitt lagt til moderne RAID-kontrollerstabler som eliminerer bruken av RAID5. Disse er RAID1E, RAID5EE og RAID6.

Tidligere var det eneste alternativet til RAID5 RAID10. Støtte for RAID 10 forblir selvfølgelig den samme.

RAID5 erstatningsalternativer:

Dårlig stripe

Tidligere, hvis til og med én kontrollerbeholder (stripe) mistet informasjon eller ikke kunne garantere sikkerheten, førte dette til en situasjon der hele volumet ble tatt offline av RAID-kontrolleren (stopp av tilgang betydde bokstavelig talt at kontrolleren ikke kunne garantere 100 % integritet til brukerdata om volumet).

En moderne kontroller "håndterer" denne situasjonen på en annen måte:
1. Tilgang til volumet stopper ikke;
2. En spesiell "bad stripe"-markør settes på volumet, som betyr at det er spesielle beholdere i RAID-volumet som har mistet informasjon;
3. Slike «ødelagte beholdere» rapporteres til operativsystemet slik at det kan vurdere mulige tiltak for å hindre tap av informasjon eller gjenopprette den.

Markør dårlig stripe kan ikke slettes fra volumet. Du kan bare slette og gjenskape et slikt volum. Utseendet til et volum med det dårlige stripeflagget indikerer ALVORLIGE feil eller problemer under designfasen av lagringssystemet eller under driftsfasen. Som regel ligger alvorlig inkompetanse hos designeren eller systemadministratoren bak en slik situasjon.

Hovedkilden til denne typen problemer er feil utformet RAID5.

Noen implementeringer av RAID 5 (for eksempel RAID5 på stasjonære stasjoner) er ikke tillatt for brukerdatavolumer. Krever minst RAID5 + Hot Spare, noe som ikke gir mening med RAID6. Det viser seg at der det var nødvendig å lage RAID6, ble RAID5 opprettet, som etter flere års drift førte til utseendet til BAD STRIPE-markøren.

SSD-bufring

SSD-bufringsfunksjonen er en av de mest etterspurte funksjonene for å optimalisere ytelsen til RAID-volumer av kraftige lagringssystemer med et stort antall brukere uten vesentlig økning i kostnader, antall løsningsenheter, uten å kaste bort lagringskapasitet og sikre optimalt strømforbruk.

For å bruke SSD-skrivebufring, må du sørge for at to betingelser er oppfylt:
1. Applikasjonen fungerer i "tilfeldig lesing"-modus;
2. Forespørsler om data er av ujevn karakter - det er containere på RAID-nivået som man får tilgang til oftere for å lese data derfra, og det er de som man får tilgang til sjeldnere.

Det skal bemerkes at jo flere brukere systemet har, jo mer sannsynlig er det at forespørsler til individuelle containere vil ha form av en standard statistisk distribusjon. I henhold til parameteren "antall forespørsler per tidsenhet", er det mulig å skille betinget "varme data" (antall anrop til dem vil være mer enn den angitte parameteren) og "kalde data" (antall anrop til dem er mindre enn den angitte parameteren).

Arbeidet med SSD-cachen for lesing er å kopiere "hot data" til SSD-stasjoner og deretter lese fra SSD-en, noe som fremskynder prosessen flere ganger. Siden dette er kopiering har lese-cachen naturlig beskyttelse, hvis SSD-disken som danner SSD-cache-området feiler, fører dette kun til tap av ytelse, men ikke tap av data.

Grunnleggende innstillinger for SSD-bufringsfunksjon for 7Q, 8Q kontrollere:
1. Først av alt, sørg for at du har varme data og hvilken størrelse det er. Dette gjøres best eksperimentelt ved å plassere en stor nok SSD i cache-området og konfigurere den i Simple Volume-modus. Integreringsselskaper kan gjøre dette arbeidet for deg. Etter omtrent en uke, gjennom administrasjonsfunksjonen, kan du fjerne SSD-caching-statistikken. Den vil vise deg om du har "hot data" og hvor mye de tar opp.
2. Det er tilrådelig å legge til 10-50 % av kapasiteten til dette volumet og, basert på disse dataene, justere hurtigbufferskjemaet i tilfelle en økning i volumet av "hot data" i fremtiden, hvis det er en slik trend.

Innstillingene lar deg "kutte av" den nødvendige kapasiteten fra kapasiteten til SSD-diskene dine, ta den til et RAID-volum av ønsket type, og den gjenværende kapasiteten kan overføres til et vanlig RAID-volum.

Deretter bør du vurdere om det er fornuftig å bruke en SSD-skrivebuffer. Som regel fungerer Internett-applikasjoner for lesing. Skrivebufferen brukes hovedsakelig i tillegg til lesebufferen hvis applikasjonen bruker skriving i tillegg til lesing. Og i tilfelle du bruker en skrivebuffer, må du sikre beskyttelsen av hurtigbufferen. Hvis noe skjer med cache-området, vil dataene som er plassert der under skrivebufring gå tapt. For beskyttelse er det nok å bruke et RAID-volum som gir redundans på tvers av disker, for eksempel RAID1.

Mulige konfigurasjonsmoduser for SSD-bufferområdet.

For individuelle volumer på kontrolleren kan du uavhengig aktivere eller deaktivere SSD-lese- og skrivebufferen avhengig av behovene og typene applikasjoner som fungerer med hvert volum.

UEFI-støtte.

Alle kontrollere og HBA-er i den gjeldende Adaptec-produktlinjen støtter hovedkortets uEFI BIOS-modus. Overgangen fra MBR til uEFI tillot for eksempel å lage system- og oppstartsvolumer større enn 2 TB, noe som var umulig på hovedkort med MBR BIOS (merk at alle Adaptec-produkter fullt ut støtter volumer > 2 TB, dette problemet eksisterer ikke fra kontrollere og HBA). Det er mange andre fordeler ved å bruke uEFI-modus. For eksempel når du støtter disker med 4K-sektorstørrelse. Alle gjeldende Adaptec-produkter støtter 4K-sektorstasjoner, bortsett fra serie 6-kontrollere.

Det er viktig å huske at hvis hovedkortet bruker MBR-modus, aktiveres kontrollerkonfigurasjonsverktøyet via Cntrl + A.

Figuren viser standard Adaptec-konfigurasjonsverktøyet, påkalt via tastekombinasjonen Cntrl + A.

Ved uEFI-modus er kontrolleren og HBA-konfiguratoren integrert i hovedkortets BIOS. Dette verktøyet er lett å finne ved linjer som inneholder ordene "Adaptec" eller "PMC". Og, som du kan se i eksemplet nedenfor, har uEFI-verktøyet mer avansert funksjonalitet enn verktøyet som kalles via Cntrl + A.

Hot Spare-funksjoner.
En Hot Spare-disk fungerer som et passivt element i et RAID-volum, og "tas" inn i et RAID-volum hvis noe skjer med noen av diskene i volumet og den ikke lenger er tilgjengelig for å utføre arbeidet sitt. En HOT SPARE er en disk som er installert på en kontroller, spunnet opp og tilordnet ett eller flere volumer.

Når det gjelder den siste delen av HOT SPARE-definisjonen, kan 3 typer plater lages:

Hot Spare-disker brukes i ADaptec-stakken for manuell "reparasjon" av volumer, som av ulike årsaker har én disk ute av drift. For eksempel har RAID5-volumet ditt mistet én disk og gått inn i "degradert" tilstand. Du setter inn en ny disk i stedet for den gamle eller i et annet ledig spor, klikker på rescan-funksjonen og nå ser du den nye disken på nivå med de fysiske diskene i stabelen. Deretter erklærer du den som HOT SPARE (uansett hvilken type, for eksempel Global Hot Spare) og venter på at denne disken er 100 % "innebygd" i volumet. Volumet går inn i Optimal tilstand. Etter det velger du kommandoen - slett hot spare. Denne kommandoen fjerner HOT SPARE-statusen fra denne disken, og den blir et fullstendig medlem av dette RAID-volumet.

Strømstyringsfunksjon.

RAID-volumer fungerer annerledes. For eksempel kan volumer opprettet for sikkerhetskopiering av data brukes til å flytte data, for eksempel to til tre dager i en måned. Spørsmålet oppstår: hvor bra er det å drive harddiskene og holde stasjonene i gang hvis de er praktisk talt inaktive resten av tiden?

Strømstyringsfunksjonen tar seg av dette problemet. Filosofien er at hvis diskene ikke er i bruk, kan de bremses (hvis en slik funksjon støttes av diskene), og deretter stoppes helt og holdes av til de trengs. Innstillingene for denne funksjonen er ekstremt enkle.

Først blir hele kontrolleren tildelt klokkeslettet etter ukedager når denne funksjonen er aktivert og når ikke. Denne innstillingen er knyttet til arbeidet til et typisk selskap. Parametrene for å sette de interne og eksterne diskene i drift er satt - i par, tre, fire, etc., for å fordele belastningen på strømforsyningene. I tillegg er tre timerverdier satt. Etter at den første utløper, hvis det ikke er noen I / O-operasjoner på diskene til dette volumet, vil disse diskene gå inn i "stand by"-tilstand, dvs. vil redusere omsetningen med 50 %. Ikke alle disker støtter denne modusen, hvis den ikke støttes, vil ingenting skje med disken. Etter at den andre timeren utløper, vil diskene stoppe helt og gå inn i "strøm av"-tilstand. Den tredje timeren brukes til periodisk å sjekke disker som har slått seg av i lang tid. Kontrolleren slår på diskene, utfører deres ikke-destruktive sjekk og, hvis alt er i orden, slår de dem tilbake til "strøm av"-tilstand.

Etter disse innstillingene kan du aktivere strømstyringsskjemaet for hvert volum der det er nyttig. Slike volumer vil fremheves med grønt i styringssystemet. Denne funksjonen er mest fordelaktig når den brukes i datasentre, og tillater ikke bare direkte strømsparing ved å stoppe stasjoner, men også ekstra besparelser ved å redusere hastigheten til viftene som blåser stasjonene når de er slått av.

Adaptec lagringsadministrasjon.

Administrasjonsverktøyene som er inkludert i Max View Storage Manager (MSM)-pakken er bygget etter de mest avanserte standardene og bruker de nyeste trendene for å forbedre administrasjonsprinsippene og forbedre effektiviteten. Derfor kan vi enkelt bruke Adaptec Max View Storage Manager som en grunnmodell for å se på de grunnleggende funksjonene og teknikkene for å administrere lagringssystemer. En RAID-kontroller brukes som hovedkontrollelement, som kan utveksle tjenesteinformasjon med disker, utvidere og kurver og dermed støtte administrasjonsfunksjoner for hele lagringsundersystemet som helhet.

Hovedtrekk ved moderne lagringsadministrasjonssystemer:

  • En standard nettleser brukes som klientapplikasjon.
  • CIM-leverandør for arbeid i virtuelle miljøer. CIM-leverandøren fra MSM-pakken tillater fullstendig administrasjon av RAID-kontrolleren fra ethvert virtuelt miljø. For eksempel når du bruker vmware.
  • Bruke CLI-verktøy (kommandolinjegrensesnitt). I MSM-pakken, i tillegg til det grafiske administrasjonsverktøyet, som bruker en nettleser som klientdel, er det et CLI-verktøy - ARCCONF.EXE. For en liste over kommandoer, se dokumentasjonen på Adaptec-nettstedet. Ved å bruke CLI kan du lage ulike skript (miniprogrammer) som kan brukes av integratorer for å automatisere produksjon, innstillinger, endre fastvare osv. og i selskaper som bruker RAID-kontrollere for å automatisk polle lagringssystemer for unormale situasjoner.
  • Evnen til å administrere hele infrastrukturen fra én klientapplikasjon. Ved å bruke MSM i Enterprise View-vinduet kan du ta kontroll over alle servere med en eller flere RAID-kontrollere installert i dem. For å gjøre dette, angir du enten direkte IP-adressen til slike systemer, eller bruker Auto Discovery-funksjonen.

Høyt detaljnivå, visualisering og nesting av kontrollobjekter. Administratoren kan se at hele nettverkssegmentet blir rødt, noe som betyr at det er et problem. Hvis du utvider nettverkssegmentikonet, vil alle servere være synlige. Problemserveren vil være uthevet i rødt. Hvis du klikker med musen på denne serveren, vil du se RAID-kontrollerne installert i dette systemet. Den røde fargen på en av dem betyr et slags problem. Ytterligere detaljer vil vise volumene som er opprettet på denne kontrolleren og problemvolumet. Og så videre opp til den problematiske fysiske disken. Nå vet administratoren nøyaktig hva som skjedde, hvilke konsekvenser det førte, og hvilken disk som må byttes ut.
Høyt sikkerhetsnivå for kontrollsystemer som bruker standard nettverksprotokoller. Lagringsstyringsmekanismer må åpenbart beskyttes. Faktisk, med uautorisert tilgang eller med en åpen kontrollkanal, kan brukerdata bli ødelagt uten mulighet for gjenoppretting. Til dette formål bruker MSM en database med brukere og passord fra selve operativsystemet. I tillegg brukes trafikkkryptering via HTTPS-protokollen på kanalen mellom nettleseren og administrasjonsserveren. I andre komponenter i styringssystemet tas også sikkerhetsspørsmål opp på høyeste nivå.
Muligheten til å sende viktige meldinger fra lagringssystemet til administratoren. For ikke å "nagle" administratorens øyne til skjermen med MS i nettleseren for alltid, kan kontrollsystemet konfigureres til å sende meldinger på e-post. MSM har muligheten til å sende alle typer meldinger, inkludert testmeldinger. De viktigste meldingene er advarsels- og feilmeldinger, som er direkte relatert til overgangen av RAID-volumer til tilstandene Degradere og Mislykket. Slike meldinger gjennom e-postapplikasjoner kan enkelt overføres til administratorens mobiltelefon.

  • disk undersystem
  • hba
  • Legg til merkelapper