Ръководство за начинаещи за iSCSI. Свързване и конфигуриране на iSCSI на Windows Server Sun За разлика от IP Storage

Навигиране в статията

Това е инструкция как да свържете iSCSI диск Windows Server 2016... Когато поръчате услуга от SIM-Networks, ще получите съобщение, подобно на това по-долу (моля, имайте предвид, че стойностите на числата в адреса на сървъра може да се различават от примерната илюстрация и вместо букви X, Yили Зсъобщението ще посочи реалните стойности за настройката ти си неговдостъп):

Услугата "iSCSI Backup" е активирана.

Параметри за достъп:

  • Адрес на сървъра (iscsi-цел): 185.59.101.184
  • Влизам:ГГГ
  • парола: ZZZ
  • Достъпът до услугата в момента е ограничен само до един IP-адрес - XXX.XXX.XXX.XXX

ISCSI картографиране на устройството

1. отидете на " Контролен панел -> администрация„И бягай ИнициаторiSCSI.

2. в глава " ИмотиОткриване"И натиснете бутона" Открийте портала».

3. В прозореца, който се отваря, попълнете полето „ IP адрес " iSCSI сървър.

4. Отворете секцията с допълнителни параметри за свързване със сървъра (щракнете върху " Освен това"). Изберете стойности на полето " Локален адаптер" и " IP адрес на инициатора„Както на снимката по-долу (където IP на инициатора е IP на вашия локален мрежов адаптер, през който е разрешена връзката към iSCSI сървъра).

5. Запазете настройките, уверете се, че получавате изображение като това по-долу:

6. в глава " Имоти"ISCSI инициатор отидете на" Крайни обекти", Изберете показания обект с неактивно състояние и натиснете бутона" За включване».

7. В отворения прозорец " Целева връзка", Натисни бутона" Освен това…»

8. Попълнете полетата на секцията, както е на снимката по-долу. Параметрите "Име" и "Секрет" са "Вход" и "Парола" от писмото, изпратено до вас при активиране на услугата.

9. Запазете настройките. Уверете се, че стойността на полето " състояние"Открита цел -" Свързани„Както на снимката по-долу. Излезте от раздела " Имоти»ISCSI Initiator, запазване на настройките.


Инициализиране и форматиране на iSCSI устройство

Свързаният iSCSI диск трябва да бъде подготвен (инициализиран и форматиран).

10. в глава " администрация"Отвори" Компютърно управление».

11. Отидете в раздела " Управление на дискове».

12. Уверете се, че вашият диск е показан, състоянието му е " Извън линия».

13. Изберете от контекстното меню елемента " На линия».

14. Инициализирайте диска.

15. Проверете дали състоянието на диска се е променило на "На линия"но му липсват дялове и файлова система.

16. От контекстното меню на диск без дялове изберете „ Създайте прост обем».

17. След отваряне " Прости съветници за обем"Щракнете върху бутона" По-нататък».

18. Посочете размера на дяла в съответното поле или оставете стойността по подразбиране непроменена (ако трябва да използвате целия диск под един дял).

19. Задайте буква на устройството за новия дял.

20. Изберете типа файлова система и етикета на тома.

ISCSI е предназначен за мрежи за съхранение и е метод за достъп до блокови устройства през SCSI през TCP/IP. Това позволява евтини мрежи за съхранение (SAN) да бъдат настроени през конвенционални Ethernet мрежи. Тази функция се използва широко при изграждането на системи с висока достъпност и в този цикъл ще разгледаме решения, базирани на iSCSI съхранение. Днес ще разгледаме създаването на такъв магазин на платформата Windows Server 2008 R2.

Първо, няколко думи за фундаменталните разлики между iSCSI и други мрежови системи за съхранение. Мрежи за съхранение на данни - SAN(Storage Area Network) осигуряват прехвърляне на данни в мрежата в "суров" вид с помощта на протокола SCSI, точно както ако се прехвърлят между системата и локалния диск на ниско ниво. iSCSI устройствата се възприемат от системата почти по същия начин като локалните дискове - те трябва да бъдат разделени и форматирани преди употреба.

В същото време познато на всички мрежови прикачени хранилища - NAS (Network Area Storage) предоставят достъп на ниво файлова система, използвайки протоколи за прехвърляне на файлове като SMB или NFS.

Просто казано: NAS са споделени мрежови папки, познати на всички, SAN - устройства, свързани през мрежа. Това води до втора важна разлика. Мрежовата папка може да обслужва много клиенти. SAN устройство може да бъде свързано към един клиент, точно както обикновен твърд диск може да бъде свързан само към един компютър. Изключение правят клъстерите, когато няколко възли имат достъп до едно SAN устройство наведнъж, в този случай се използва допълнително ниво на абстракция - клъстерна файлова система, например Споделени томове на клъстер на Microsoft (CSV)или VMware VMFS.

Преди да се заемете с практическото развитие на тази технология, трябва да се запознаете с приетата терминология:

  • ISCSI инициатор- клиентската част, изпраща заявки към iSCSI целта, може да се изпълнява софтуерно, под формата на драйвер, или хардуерно, под формата на iSCSI адаптер;
  • ISCSI цел (iSCSI Цел, цел) - от страна на сървъра, приема връзки от инициатора и му предоставя достъп до свързаните с него блокови устройства - виртуални дискове, LUN. Може да се реализира както в софтуер, така и като хардуерна система за съхранение.

Една iSCSI цел може да бъде свързана с множество блокови устройства, които ще бъдат достъпни за инициатора, свързващ се с целта. Един инициатор може да бъде свързан към множество цели и да използва всички свързани устройства. Една цел може също да приема връзки от множество инициатори, но всяко отделно устройство може да бъде достъпно само от един от инициаторите.

Друг момент, сега свързан с практическото внедряване на iSCSI съхранение. За SAN е много желателно да има отделна мрежа, изолирана от корпоративната мрежа.

Това е необходимо, за да се осигури достатъчна честотна лента на SAN и да се избегне претоварване на нормалната мрежа с iSCSI трафик. Също така няма смисъл да се организира iSCSI в мрежи с честотна лента по-ниска от 1 Gbps.

Windows Server 2008 R2 не включва ролята на iSCSI Target и трябва да изтеглите Microsoft iSCSI Software Target, за да го разгърнете. Разопаковайте го и инсталирайте пакета iscsitarget_public.msiот папка x64. Инсталацията е изключително проста и няма да се фокусираме върху нея.

След инсталирането, нека отидем на iSCSI Management Console: Старт - Административни инструменти - iSCSI Софтуерна цел... Първо, нека създадем нов цел (цел)... За да направите това, щракнете с десния бутон върху ISCSI Targets - Създаване на iSCSI Target.

Ще се отвори съветник, в който указваме името на целта и нейното описание. Дайте на целите смислени имена и не бъдете мързеливи да създавате описания, така че по-късно да не се налага да гадаете защо сте създали тази или онази цел.

Следващата стъпка трябва да посочим идентификаторите на iSCSI инициаторите, на които ще бъде разрешен достъп до целта. IQN е специално име на формат iqn. .: което е уникално за всяко iSCSI устройство в SAN. Където:

  • година-месец- година на регистрация на име на домейн;
  • reversed_domain_name-името на домейн, изписано обратно;
  • уникално_име- уникално име на устройство, например целта тук ще съдържа името, което сте посочили, а инициаторът ще съдържа името на хоста.

Например, в софтуерните решения на Microsoft IQN има формат по подразбиране iqn.1991-05.com.microsoft:unique_name.

За да разберем IQN, нека отидем до инициатора на iSCSI, в нашия случай това е сървър с Windows Server 2012, но процедурата ще бъде същата за всички други версии на Windows. Отидете на Контролен панел - iSCSI инициатор, ние отговаряме утвърдително на предложението за задаване на автоматичното му стартиране:

След това в прозореца, който се отваря, отидете на раздела Конфигурациякъдето се намира необходимия идентификатор:

Можете да го копирате и да го посочите, когато задавате цел, но има и друг начин. За да направите това, отидете на отметката Крайни обекти, в полето Предметвъведете името на сървъра с инсталирания ISCSI софтуерна цели натиснете Бърза връзка.

Ясно е, че засега няма да се свързваме с нищо, но сега имаме друга задача. Връщаме се обратно към целевия сървър и щракваме върху страницата, указваща бутона на идентификатора на инициатора Преглед.

Сега става ясно защо се опитахме да се свържем. Целевият iSCSI сървър съхранява списък на инициаторите, които са свързани последно към него, и ви позволява да ги изберете.

Това завършва създаването на целта и можем да създадем и свържем един или повече дискове към нея. За да направите това, отидете на елемент Устройстваи в менюто с десен бутон изберете Създайте виртуален диск.

Ще се отвори следният съветник, в който указваме местоположението и името на виртуалния диск, имайте предвид, че трябва да посочите пълното име на файла, заедно с разширението .vhd.

След това ще посочим желания размер в MB

И iSCSI целта (целта), към която ще бъде свързан този виртуален диск.

Това завършва и настройката на диска. В резултат на тези прости стъпки получихме конфигурирана iSCSI цел с прикачен към нея виртуален диск. Сега да се върнем към инициатора. Можете да се възползвате от бързата връзка и автоматично да свързвате устройства от открити цели. Но не забравяйте, че нашата цел е не само да свържем дискове, но и да разделим SAN и локалната мрежа на предприятието.

Затова отидете на отметката Откриванеи натиснете Открийте портала, след което въведете името на сървъра с целевата роля на iSCSI.

След това се връщаме към отметката Крайни обекти, изберете откритата цел, която е в състоянието Неактивени натиснете Имоти.

В отворения прозорец в полето IP адрес на целевия портализберете адреса, принадлежащ към вашата мрежа за съхранение:

Връщаме се и натискаме За включване... Прикачените устройства могат да бъдат намерени в модула Управление на дискове.

По-нататъшният алгоритъм за работа с тях не се различава от работата с обикновен диск: свързваме, маркираме, форматираме.

В тази статия разгледахме най-простия вариант за настройка на хранилище. В следващите ни материали ще се върнем към индивидуалните настройки, без да засягаме общата тема за създаване на хранилище.

05.10.2012

Искате ли да получите достъп до мрежовото си хранилище малко по-бързо? Опитайте да използвате вградения инструмент на Windows. Протоколът iSCSI ви позволява да се свържете с отдалечен обем за съхранение през мрежата, сякаш обемът е локален диск.

Марко Чиапета. Ускорете вашето NAS устройство с iSCSI. PC World, септември 2012 г., стр. 86

Искате ли да получите достъп до мрежовото си хранилище малко по-бързо? Опитайте вградения инструмент на Windows. Протоколът iSCSI ви позволява да се свържете с отдалечен обем за съхранение през мрежата, сякаш е локален диск.

ISCSI е съкращение от Internet Small Computer System Interface. SCSI технологията (без i) отдавна се използва за свързване на различни периферни устройства към компютърни системи, но най-често обменя данни с устройства за съхранение - твърди дискове или лентови устройства. Протоколът iSCSI ви позволява да се свържете с отдалечен обем за съхранение през мрежата, сякаш е локален диск. Просто казано, iSCSI превежда SCSI команди през IP (интернет протокол) мрежи. Тази технология прилича на виртуален SATA (или SCSI) кабел и използва мрежова връзка за комуникация между системата и обема за съхранение.

Как iSCSI се различава от всяко друго свързано към мрежата устройство с присвоената буква на устройството? В много отношения крайните резултати ще бъдат подобни. Но благодарение на iSCSI, монтираният том изглежда като локално блоково устройство за съхранение на операционната система, което може да бъде форматирано към всеки стандарт на файловата система по ваш избор.

Интерфейсът iSCSI изисква два основни компонента: свързано с мрежата хранилище (NAS) или сървър с обем, конфигуриран като iSCSI цел, и iSCSI инициатор, който позволява на системата да бъде прикрепена към целта.

Ако имате NAS устройство, свързано към компютър с Windows, това вероятно е достатъчно. На практика всички NAS сървъри предлагат възможност за конфигуриране на iSCSI цели. И Microsoft има инструмент за създаване на iSCSI инициатор във всяка версия на Windows след Vista. Инициаторът може да се стартира на компютър с версия на операционна система поне Windows 2000.

За да демонстрирате как работи iSCSI, вземете Thecus N2200XXX NAS сървър с двойно устройство, работещ с персонализирана операционна система Linux, поддържаща iSCSI, и настолна система Windows 7 Ultimate. Всяка базирана на Windows система създава устройство с възможност за iSCSI, когато взаимодейства с NAS.

iSCSI плюсове и минуси

Както бе отбелязано по-горе, iSCSI мрежовата цел е представена в системата като локален диск. Следователно можете не само да го форматирате в стандарта на файловата система на операционната система на вашия компютър, но и да гарантирате, че приложенията, които изискват локален диск, се стартират от iSCSI тома. Тази гъвкавост е много важна за малкия бизнес, тъй като много програми не са наясно с мрежата. ISCSI технологията помага за решаването на този проблем.

В някои случаи iSCSI може да подобри производителността чрез свързване на големи дискови масиви към клиентски системи без нужда от специален хардуер и кабели (което може да доведе до значителни спестявания). Въпреки това, в тази статия ще се ограничим само до разглеждане на потребителски системи от среден клас.

Трябва да се отбележи, че iSCSI технологията има някои недостатъци. Настройката на системата не е прекалено сложна, но само търсенето на мрежови ресурси няма да е достатъчно за конфигуриране на iSCSI целта и инициатора. За да се избегне повреда или загуба на данни, само един инициатор трябва да бъде свързан към целта наведнъж. Ако използвате високопроизводителни сървъри и дискови устройства, производителността ще бъде ограничена от скоростта на вашата мрежова връзка. Затова най-добрият избор изглежда е връзка с гигабитова скорост и по-висока – бавните мрежови връзки могат да неутрализират всички предимства на iSCSI.

Инсталация

Следват стъпките, които трябва да предприемете, за да използвате iSCSI технологията с Thecus N2200XXX NAS. За други устройства и сървъри стъпките ще бъдат същите.

1. Влезте в менюто за конфигурация на NAS сървъра, изберете режима RAID и резервирайте място за iSCSI тома. Използвах RAID 1 огледално копиране с два 2TB диска. Половината от наличния капацитет беше разпределен на файловата система EXT4, а другата половина беше неизползвана. (В третата фаза неизползваният капацитет беше заделен за iSCSI.)

2. След разпределяне на място за RAID, той трябва да бъде форматиран. Когато процесът на форматиране приключи (в зависимост от конфигурацията на устройството, това може да отнеме няколко часа), можете да започнете да разпределяте неизползвано място за iSCSI целта. (Ако цялото налично пространство ще бъде запазено за iSCSI, не е необходимо да форматирате дисковия масив на този етап.)

3. Сега нека конфигурираме iSCSI целта. Първо щракнах върху връзката Разпределение на пространството в менюто Съхранение в левия панел и след това щракнах върху бутона Добавяне в раздела целеви iSCSI. На екрана се появява нов прозорец, в който трябва да изберете желания размер на iSCSI целта, да я активирате и да й дадете име.

И ако искате да добавите още един слой сигурност, на същия етап можете да конфигурирате параметрите на Challenge Handshake Authentication Protocol (CHAP).

4. Ако решите да не разпределяте цялото налично пространство за една iSCSI цел, можете да присвоите номера на логически единици (LUN) на множество цели. Това ще позволи множество системи да бъдат свързани към едно NAS устройство или сървър и всяка клиентска система ще получи своя собствена iSCSI цел.

Поставяне на целта

След като iSCSI целта е създадена, трябва да се свържете с нея чрез iSCSI инициатора на клиентския компютър с Windows. Щракнете върху бутона "Старт", въведете iSCSI в лентата за търсене и натиснете клавиша (или отидете в менюто "Старт" на Контролен панел и под Система и сигурност изберете Административни инструменти и след това iSCSI Initiator). Ако на екрана се появи съобщение, че услугата iSCSI не се изпълнява, разрешете я да стартира и на екрана се появява прозорецът със свойства на iSCSI Initiator.

Отидете в раздела Discovery и щракнете върху бутона Discover Portal. В прозореца, който се отваря, въведете IP адреса на NAS устройството или сървъра, който хоства iSCSI целта. Няма нужда да променяте номера на порта (освен ако номерът на iSCSI порта не е бил предварително дефиниран). По подразбиране системата предлага порт 3260. Ако преди това сте активирали CHAP удостоверяване, трябва да щракнете върху бутона Разширени и да въведете вашите CHAP идентификационни данни. В противен случай щракнете върху OK и IP адресът на вашето NAS устройство или сървър ще се появи в списъка с целеви портали.

Ако целта не е в този списък, уверете се, че IP адресът е въведен правилно и правилният порт е отворен на защитната стена.

След като сървърът се появи в списъка с цели, отидете на раздела Цели. iSCSI целта, която сте създали по-рано, трябва да се появи в целевата група в средата на прозореца. Щракнете върху обекта и кликнете върху бутона "Свързване". В прозореца на целевата връзка, който се показва на екрана, изберете опцията Добавяне на тази връзка към списъка с любими целеви обекти и щракнете върху OK. След това щракнете отново върху OK в прозореца със свойства на iSCSI инициатора.

На клиентска система, свързана към iSCSI цел, трябва да форматирате целта, като използвате същата процедура, както бихте направили за всяко локално устройство. Щракнете върху бутона "Старт", щракнете с десния бутон върху "Компютър" и изберете "Управление" от контекстното меню. В секцията Съхранение на помощната програма за управление на компютъра щракнете върху връзката Управление на дискове. На екрана ще се появи диалоговият прозорец "Инициализиране на диск". Уверете се, че опцията "Избор на диск" е отметната и изберете желания тип дял (използвах MBR - Master Boot Record). Щракнете върху OK.

Следвайте подканите на екрана, за да посочите размера на тома, да зададете буква на устройството и да посочите файловата система и етикета на тома. Щракнете върху бутона Край. Когато форматирането приключи, ще се появи нова буква на устройството. Сега можете да прехвърляте файлове и да стартирате програми от вашия NAS, независимо къде се намира.

Сравнение на производителността

За да оценя производителността на моя отдалечен NAS, свързан с iSCSI, сравних iSCSI целта със стандартен прикачен NAS, използвайки два еталона.

ATTO Disk Benchmark не показа голяма разлика между картографирано мрежово устройство и iSCSI устройство, въпреки че устройството показа малко по-висока пропускателна способност. Това обаче е сравнително лесен тест, който оценява само последователното записване на данни.

Но тестът CrystalDiskMark анализира работата на устройствата както в режим на последователен, така и в произволен достъп, като работи с два файла с различни размери. Резултатите показаха, че iSCSI целта работи значително по-бързо. Устройството iSCSI и стандартното картографирано мрежово устройство имаха същата скорост на запис, но четенето на iSCSI беше с 30-40% по-бързо.

Тестването показа, че достъпът до NAS устройство и форматирането му така, че да прилича на локален диск, както и възможността за стартиране на програми, не са единствените предимства, предоставени от iSCSI технологията. Освен това ускорява операциите за четене. Така че, ако имате работа с NAS устройства у дома или в офиса, iSCSI значително (и напълно безплатно) ще подобри тяхната производителност.

Продължавайки темата за полезното използване на стария сървърен хардуер, този път нека поговорим за използването на моделния сървър IBM System x3200 4362като мрежово хранилище, достъпно чрез протокола iSCSIкато iSCSI цел... V вече разгледахме такъв сървър като хранилище за архивиране на виртуални машини със софтуерна дедупликация от Quadstor ... В нашия случай обаче ситуацията се влоши от факта, че на някои отдалечени обекти, където беше разположен , виртуалните машини, които бяха архивирани с течение на времето, получиха допълнителен диск за съхранение на съдържание за точката на разпространение SCCM ... И както знаете, съдържанието на дисковете, които се използват за разпространение на съдържание в SCCM, може да се променя много активно на моменти (новите актуализации се изтеглят , изтекли актуализации са премахнати, зареден е някакъв софтуер за внедряване и т.н.). Следователно, като се има предвид фактът, че използвания софтуер Veeam Backup безплатно изданиене ви позволява да изключите отделни виртуални дискове, принадлежащи на тази VM, от резервното копие на виртуална машина, беше необходимо да се реши проблемът с увеличаването на дисковото пространство на същите тези IBM сървъри. Успоредно с това възникна въпросът за полезността на дедупликацията, която в случай на често променящо се съдържание губи своята ефективност.

"Черешката отгоре" в описаната ситуация беше, че сървърът, който се използва в нашия случай като iSCSI Target (от реализацията на Quadstor), има много скромна дискова клетка - само 4 SAS / SATA 3.5" слота, два от които са заети под хост Linux OS.

Тук ще разгледаме едно от възможните решения на набора от описаните проблеми и ограничения, което се състои в замяна на пълноценна инсталация на Linux OS със специализирана, заредена от USB устройство и работеща в RAM.Linux дистрибуция на проекта Enterprise Storage OS (ESOS). В основата си ESOS е модерно Linux ядро, оптимизирано за работа в RAM с интегриран софтуер за проекти. , пример за използването на който вече имаме .

Общият план на събитията ще изглежда така:

  • Изваждаме дисковете с малък капацитет, на които е инсталирана хост OS, от кошницата с дискове и поставяме на това място дисковете с по-голям капацитет (всички дискове в кошницата ще бъдат с еднакъв капацитет)
  • На ниво хардуерен RAID контролер ние дефинираме всеки от четирите диска, свързани към клетката на диска, като независимо устройство.
  • Подготовка на стартиращо USB устройство с ESOS
  • Зареждаме сървъра с ESOS и създаваме софтуерен RAID-масив от всички дискове в кошчето.
  • Конфигурирайте iSCSI Target в ESOS и свържете диска от страната на сървъра на iSCSI Initiator
  • Конфигуриране на допълнителна мрежова връзка между сървърите и активиране на Multipath
Конфигурация на сървъра

В нашия пример ще разгледаме изграждането на най-простата конфигурация с помощта на iSCSIна два сървъра, единият от които служи като цел iSCSI целна основата ESOS v 1.3.5а другият действа като хост инициатор iSCSI инициаторна основата Windows Server 2012 R2... За да се подобри наличността и производителността, ще бъде установена многопътна връзка между целта и иницииращия хост ( многопътен). За да отделите iSCSI трафика от трафика за управление на сървъра, на всеки сървър е инсталиран допълнителен двупортов мрежов адаптер.

1 ) Сървър за ролята на iSCSI Target(KOM-AD01-ESOS01)

Модел сървър IBM System x3200 4362с дискова клетка за 4 LFF HDD SAS / SATA устройства и допълнително инсталиран мрежов адаптер HP NC380T PCI Express двупортов мултифункционален гигабитен сървърен адаптер (394795-B21). Този сървър ще стартира стартиращ ESOS от USB флаш. Всичките 4 диска от дисковата клетка на сървъра ще бъдат използвани от ESOS за организиране на софтуерен RAID масив, който от своя страна ще бъде представен на хоста на инициатора.

2 ) Сървър за ролята iSCSI инициатор (KOM-AD01-VM01)

Модел сървър HP ProLiant DL380 G5действащ като ОС-базиран хост за виртуализация на Hyper-V Windows Server 2012 R2 Standard... В допълнение към основната конфигурация, в сървъра е инсталиран допълнително мрежов адаптер HP NC380T PCI Express двупортов мултифункционален гигабитен сървърен адаптер (394795-B21). Дискът, свързан към този сървър от ESOS сървър чрез iSCSI протокол, ще се използва за задачи за архивиране на виртуални машини Hyper-V.

Най-простата схема за свързване на мрежовите интерфейси на сървърите ще изглежда така:

Конфигуриране на RAID контролер на IBM сървър

Независимо от модела на сървъра и RAID контролера, използвани в нашия случай, можем да кажем, че използването на дистрибуторския комплект ESOS, който не изисква специален диск за своята работа, във всяка конфигурация на диска ще позволи използването на всички ресурси на дисковата кошница за полезно дисково пространство. В някои ситуации този аргумент може да бъде важен.

В нашия пример 4 еднакви SATA 7200 1TB устройства са инсталирани в клетката на диска.

За да се отделим от много скромните възможности на хардуерния RAID контролер, с който е оборудван нашия сървър, и в бъдеще да използваме възможностите за изграждане на софтуерен RAID масив, базиран на ESOS, трябва да направим всеки диск да изглежда като отделен физическо устройство за ESOS. Следователно във вградената помощна програма за управление на RAID контролера изтриваме всички съществуващи логически RAID дискове, така че всеки диск да се представи като отделно устройство.

Някои RAID контролери, като HP Smart Array, не позволяват преобразуването на картографирани дискове като самостоятелни дискови устройства. В такива случаи ще трябва да създадете отделен RAID-0 том за всяко отделно устройство. В нашия случай всичко е по-просто, тъй като контролерът е инсталиран в нашия сървър LSI логика SAS1064ETе доста примитивен и показва всички дискове като отделни устройства, ако тези дискове не са включени в хардуерния RAID.

Подготовка на ESOS USB стартиращо устройство

Изтеглете най-новия стабилен клон на ESOS (клон 1.x.x) от страницата на проекта ESOS - Изтегляне на пакети ... На същата страница можете да намерите описание на други клонове на ESOS (главен - в процес на разработка и 0.1.x - остарял).

В процеса на писане на тази статия използваната версия беше 1.3.5 (25.01.2018 ) достъпни на линка esos-1.3.5.zip ... До момента на публикуване вече успях да работя с по-новата версия 1.3.6 (04/12/2018).

Тъй като ESOS е ориентирана към RAM система, тя ще стартира от външно устройство, свързано чрез обикновен USB порт. Тоест, имаме нужда от USB устройство с размер 4 гигабайтаи още. Ако планирате да използвате главния клон, тогава за успешна актуализация между версиите, според препоръките на документаНадграждане , USB устройството за съхранение може да изисква до 5 GB допълнително пространство. В нашия случай за ESOS успешно използвахме дискове с различна степен на „мазе“ по размер от 8GB и повече.

Идентификационни данни по подразбиране:

  • потребителско име: корен
  • парола: esos

Когато влезете, автоматично се стартира специална обвивка Потребителски интерфейс, базиран на текст (TUI), което опростява максимално работата със системата. Горната част на TUI съдържа основното функционално меню, което ви позволява да изпълнявате всички основни задачи по конфигурирането на сървъра като съхранение за SAN.

Основните задачи на първоначалната настройка са да промени потребителската парола по подразбиране. корени мрежова конфигурация, за възможност за отдалечена работа със системата.

Отидете на елементи от менюто Система > Промяна на паролатаи задайте нова парола за потребителя корен.

След това отидете на Система > Мрежови настройкии изберете елемента за конфигуриране на основни мрежови параметри Общи мрежови настройки

Във формата, която се отваря, посочете името на хоста, името на DNS домейна, IP адреса на шлюза по подразбиране и адресите на DNS сървъра.

След промяна на мрежовите настройки, ESOS ще предложи рестартиране на мрежовата услуга, за да влязат промените в сила. Докато не направим всички минимални мрежови настройки, можем да откажем да рестартираме мрежовата услуга.

Да се ​​върнем на Система > Мрежови настройки, изберете мрежовия адаптер, който ще се използва за дистанционно управление на ESOS и конфигурирайте IP параметрите. В нашия пример конфигурацията е статична и интерфейсът за управление на ESOS е настроен на IP адрес 10.1.2.201/24. Мрежовата маска и адресът за излъчване, както разбирам, трябва да бъдат посочени, в противен случай може да възникнат грешки при запазване на настройките.

След като запазим направените промени, отново ще получим въпрос за рестартиране на мрежата. Сега ще отговорим положително на този въпрос.

Мрежата ще бъде рестартирана и в случай на успешно прилагане на посочените настройки, ще можем да се свържем дистанционно с ESOS с помощта на SSH протокола.

За целите на тази публикация пропускаме други настройки, открити в ESOS, като настройка на време, конфигурация за изпращане на поща, управление на допълнителни потребители и т.н. Вместо това ще се съсредоточим само върху онези точки, които са от значение в контекста на нашата задача. Въпреки това, преди да се свържа с нашия ESOS сървър чрез SSH, бих искал да направя малко козметично отклонение относно цветовата схема на TUI.

В интерфейса TUI ESOS има две цветови схеми - стандартната светла, запазена в сини и тюркоазени тонове, която е показана на екранните снимки по-горе, и алтернативната - тъмна, запазена в най-добрите традиции на "тъмницата със свещ" . Нито една от опциите според мен не е успешна, тъй като при отдалечено свързване към сървърната конзола с намалено цветопредаване (например при свързване чрез функцията ), на някои места от TUI има ефект на сливане на текст с фона. И ако се свържете с TUI ESOS с помощта на PuTTy SSH клиента от Windows система, тогава стандартните цветови схеми обикновено се превръщат, според мен, в нещо "киселинно".

Тъй като с ESOS ще работим основно с помощта на отдалечена SSH връзка, по-специално, има просто решение за клиента PuTTy - използване на персонализирани цветови схеми отстрани на SSH клиента за всеки вкус и цвят. Разгледахме примери за такава настройка по-рано в публикацията. ... След това, за да работим с ESOS чрез SSH, ще използваме схемата PuTTy -Здрач.

Създаване на софтуерен RAID в ESOS

След като завършим първоначалната основна конфигурация на ESOS, преминаваме към конфигурирането на дисковата система на сървъра. Нека създадем софтуерен RAID-масив (реализиран на базата на Linux софтуерен RAID/mdraid) от 4-те диска, с които разполагаме. За да направите това, отидете в менюто Софтуерен RAID > Добавяне на масив

В списъка с блокови устройства, налични за включване в софтуерен RAID, маркираме дисковете, от които ще създадем RAID масив.

След като изберете дисковете, щракнете Въведете... Появява се екранът за настройка на RAID. Дайте на масива традиционно име mdraid, например md0... Нека изберем ниво на RAID (в нашия случай това е RAID5) и размер на блока. В нашия случай масивът е сглобен за задачата да архивира големи файлове на дискове на виртуална машина, така че избрахме най-големия размер на блока.

След натискане на бутона Добрепроцедурата по инициализация на RAID масива ще започне. Отидете в менюто за навигация в Софтуерен RAID > Състояние на Linux MDи проверете състоянието на създадения RAID масив.

Тук можем да изчакаме пълното завършване на изграждането на RAID масива или да продължим да конфигурираме нашия сървър, тъй като всъщност капацитетът на диска на масива вече е достъпен за нас.

ISCSI целева конфигурация

За да може дисковият капацитет на създадения от нас RAID масив да бъде представен на хоста за виртуализация през мрежата с помощта на iSCSI протокола, на сървъра ESOS трябва да създадете iSCSI цел... За да направите това, в менюто за навигация отидете на Цели > Добавете iSCSI цел... Във формата за създаване на цел ще посочим името iSCSI квалифицирано име (IQN).

В нашия случай използвахме името по подразбиране във формата iqn.2018-03.esos.<имя сервера>: Единственото нещо, което промених в името, беше да премахна двоеточието в края на името.

След като бъде запазена, информацията за iSCSI Target ще се появи на главния екран на ESOS, но целта ще бъде деактивирана.

За да активирате целта, отидете в менюто за навигация в Цели > Активиране/Деактивирайте целта, от списъка с цели изберете целта, която току-що създадохме, и променете нейните свойства хора с уврежданияНа Разрешено.

Уверете се, че информацията за състоянието на целта е променена на главния екран на TUI.

От списъка с режими на излъчване на устройства, чието описание може да се намери в документа36_Devices_and_Mappings - SCST I/O режими , изберете режима, който ни интересува. В нашия пример се използва режимът vdisk_blockioкойто осигурява директен достъп до блокови устройства и елиминира използването на междинни механизми за кеширане на Linux.

След избор на режима ще се отвори прозорец за избор на възможните за този режим блокови устройства. Избираме нашия RAID масив.

След това ще се отвори формата за конфигуриране на SCST параметри за виртуалното блоково устройство. vdisk_blockio... Ще посочим всяко кратко и разбираемо име на устройството. Това име ще се показва допълнително отстрани на хоста за виртуализация, действащ като iSCSI инициатор в диспечера на устройства. Затова за името използвах съкратеното име на хост и RAID устройство - ESOS01-MD0. Останалите параметри могат да бъдат оставени на техните стойности по подразбиране.

Записваме настройките на виртуалното блоково устройство и продължаваме да описваме хостовете, на които е разрешено да се свързват към iSCSI Target, който създадохме. Но преди да можем да опишем хостовете, трябва да създадем хост група. Отидете в менюто Домакини > Добавяне на група

Изберете iSCSI целта, която създадохме по-рано, към която ще принадлежи създадената хост група.

Задайте име на всяка хост група, например Group1, и щракнете Въведете

Така че хост групата е създадена и съпоставена с iSCSI Target. Сега трябва да опишем всеки хост, който ще действа като iSCSI инициаторс присвояването на този хост към създадената хост група. В нашия случай ще има само един такъв хост - нашия хост за виртуализация Hyper-VБазирана на ОС Windows Server 2012 R2.

Преди да добавите хоста на инициатора към ESOS, разберете името му. Име на инициаторана нашия хост за виртуализация. Можете да намерите (и, ако желаете, да промените) това име в контролния панел на Windows Server, като извикате аплета iSCSI инициатори отваряне на раздела Конфигурация

Както можете да видите, в нашия случай името на хоста на инициатора е iqn.1991-05.com.microsoft:kom-ad01-vm01.holding.com.

Върнете се към TUI ESOS и добавете хоста на инициатора към менюто Домакини > Добавяне на инициатор

В този случай ще бъдем попитани към коя SCST Target принадлежи добавеният хост. Избираме единствената цел, която предварително сме създали и включили.

След това избираме предварително създадената хост група, към която ще бъде обвързан добавеният хост инициатор.

И накрая, въведете IQN на хоста на инициатора, който разбрахме по-рано, и щракнете Въведете

И така, на този етап в ESOS вече имаме създадена SCST цел (в нашия случай, iSCSI Target), имаме виртуално SCST блоково устройство (излъчва се софтуерен RAID масив), описали сме група от хостове и хост на инициатора (iSCSI Initiator) е свързан с тази група ... Сега просто трябва да съпоставим виртуалното блоково устройство SCST към хост групата. За да направите това, отидете в менюто за навигация в Устройства > Карта към хост група.

Изберете виртуалното блоково устройство SCST.

Изберете целта SCST.

Изберете хост групата, към която е включен хостът инициатор.

След това ще се отвори формулярът за конфигурация ЛУН-a, който ще се излъчва в мрежата. Посочете номера на LUN (по подразбиране на първото излъчване LUN ​​е присвоен номер 0) и запазете настройките, като щракнете върху Добре.

Можете да видите окончателната конфигурация на излъчването на виртуални SCST устройства, като отидете в менюто Устройства > ЛУН/Групово оформление

Сега нека решим как да разделим мрежовия трафик на iSCSI от трафика за управление на ESOS сървъра. Ще го направим по такъв начин, че да разделим напълно тези видове трафик в различните мрежови интерфейси.

За да направим това, ще конфигурираме от страна на сървъра ESOS и от страна на клиента iSCSI Initiator отделни мрежови интерфейси с IP адресиране, различно от адресирането, използвано за управление на сървъра. Например, в нашия случай мрежата 10.1.2.0/24 се използва за управление на сървърите, следователно, за да разделим iSCSI трафика, използваме малка специална подмрежа за 6 хоста - 192.168.168.0/29 (на ниво мрежово оборудване, можете допълнително да изолирате тази мрежа в отделна VLAN).

Първо, нека конфигурираме специален iSCSI мрежов интерфейс от страна на ESOS сървъра, като отидем в менюто за навигация под Система > Мрежови настройкии изберете подходящия мрежов адаптер.

Нека да зададем статичен IP адрес 192.168.168.1/29 на този интерфейс, да посочим маската на подмрежата, адреса на излъчване и увеличения размер MTU- 9000 (технология Джъмбо рамкатрябва да се поддържа от мрежовия адаптер) за подобряване на производителността при прехвърляне на големи количества данни.

При запазване на настройките ще отговорим положително на въпроса за рестартиране на мрежата (всички мрежови връзки с ESOS ще бъдат временно загубени).

След приключване на процедурата за рестартиране на мрежата, ще получим обобщение за състоянието на прилагане на новите настройки.

Сега нека преминем към настройката от страна на хоста на инициатора.

Конфигурация на ISCSI инициатор

От страната на нашия хост за виртуализация, базиран на Windows Server, към който ще получим дисков капацитет от ESOS сървъра чрез iSCSI протокола, ще конфигурираме специален мрежов адаптер за използване при работа с iSCSI протокола.

Деактивирайте всичко, освен това, което може да ни е необходимо в този специален интерфейс, когато работим с iSCSI. Например, нека оставим само поддръжка на протоколи TCP/IPv4и QoS.

Чрез избор на протокол TCP/IPv4чрез бутон Имотизадайте IP адреса от мрежата, която сме дефинирали за iSCSI трафик, например 192.168.168.3/29. Оставете празни адреса на шлюза по подразбиране и DNS сървърите. Отворете разширените настройки с бутона Разширено.

В раздела DNSдеактивирайте опцията за DNS регистрация по подразбиране и на ПЕЧЕЛИдеактивирайте поддръжката LMHOSTи NetBIOS през TCP/IP.

Нека се върнем към главния раздел на свойствата на мрежовия интерфейс и да извикаме диалоговия прозорец за конфигуриране на параметрите на мрежовия адаптер, като щракнете Конфигуриране.

Във формуляра, който се отваря, в раздела за разширени настройки Разширенонамерете опцията за поддръжка на големи пакети Джъмбо пакети изберете максималната възможна стойност (в нашия пример това е 9014). В раздела Управление на енергиятадеактивирайте способността на системата да деактивира този мрежов адаптер в режими за пестене на енергия - Разрешете на компютъра да изключи това устройство, за да запази режима.

Затворете всички прозорци и запишете с бутона Добре.

Сега нека проверим наличността на ESOS сървъра чрез специалния мрежов интерфейс. Първо с помощната програма tracertза да се гарантира, че трафикът се насочва директно между сървърите.

tracert -d 192.168.168.1

След това използвайте помощната програма пингкато активирате флага за забрана на фрагментиране (опция - е) и посочване на размера на предаваните пакети (опция - л)

пинг 192.168.168.1 -f -l 8000

В случай, че някъде, например на комутатора, към който са свързани ESOS сървърите и нашия хост инициатор, поддръжката не е активирана Джъмбо рамка, можем да получаваме съобщения " Пакетът трябва да бъде фрагментиран, но DF зададен. „В нашия случай тестът беше успешен, така че можете да продължите към процедурата за свързване на iSCSI диск.

Нека отидем в контролния панел на Windows Server, извикаме аплета iSCSI инициатори отваряне на раздела ОткритиеНатисни бутона Открийте портала... В прозореца с настройки за откриване посочете IP адреса на ESOS сървъра от мрежата за iSCSI трафик и щракнете върху бутона Разширено.

Под формата на разширени настройки за откриване изберете като локален адаптер Microsoft iSCSI инициатори предварително конфигурираният IP адрес от мрежата за iSCSI трафик е 192.168.168.3. Запазете настройките, като щракнете Добредокато се върнем към главния прозорец на аплета.

След това отидете на раздела Целикъде в раздел Открити целитрябва да се появи гореспоменатото IQNнашия ESOS сървър със състоянието Неактивен... Тоест системата го е открила, но все още не е свързана. За да се свържете с iSCSI Target, използвайте бутона Свържете се.

В прозореца за връзка, който се отваря, обърнете внимание на факта, че знакът за добавяне на свързана цел към списъка с любими цели е активиран - Добавете тази връзка към списъка с Любими мишени(за последващо автоматично свързване към целта в случай на рестарт на сървъра). Натисни бутона Разширено.

Под формата на разширени настройки за връзка ще посочим изрично мрежовите интерфейси от мрежата за iSCSI трафик, които трябва да се използват за предаване на iSCSI трафик за тази сесия връзка. Тоест като IP инициаторизберете от списъка адреса на iSCSI интерфейса, разпределен на нашия хост 192.168.168.3, и като IP адрес на целеви портализберете от списъка адреса на iSCSI интерфейса, разпределен на ESOS сървъра - 192.168.168.1.

Затворете и запазете прозореца Разширени настройкии Свържете се с целтаи се уверете, че състоянието на връзката е променено на Свързани

Нека да разгледаме раздела Любими мишении се уверете, че свързаната цел е в списъка с предпочитани.

Уверете се, че в "Диспечер на устройства" / Мениджър на устройства (devmgmt.msc) В гл Дискови устройстваима допълнителен SCSI диск с името, което по-рано дефинирахме на ESOS сървъра за виртуалното блоково устройство SCST.

Следващата стъпка е да инициализирате iSCSI-свързания диск. За да направите това, отидете на конзолата за управление на диска Управление на дискове (diskmgmt.msc), изберете съответния диск и го превключете в състоянието На линия.

След като дискът е променил успешно състоянието си, ще инициализираме диска и ще го форматираме по наш вкус, например във файловата система NTFS, като зададем всеки етикет за обем, който разбираме. Оттук нататък в графичния интерфейс на Windows този диск ще ни стане достъпен за стандартни файлови операции.

На този етап, ако погледнем в конзолата на ESOS сървъра, ще видим информация за сесията на свързване на иницииращия хост в долната част на TUI.

Това завършва основната настройка с най-простата iSCSI конфигурация.

Най-простата проверка на производителността

След като свържете диска чрез iSCSI, препоръчително е да извършите поне някои прости измервания на производителността, за да разберем какво получихме в крайна сметка и какво може да се очаква от такъв диск.

Не си струва да разчитаме на числата, които Windows Explorer ни показва при копиране на големи файлове от диск на локален сървър на iSCSI диск, тъй като там няма да видим обективна информация. Например, в моя случай, при копиране на няколко големи ISO файла (с различно съдържание), скоростта беше определена в района на 150-160 MB / s, което се различава значително от реалната допустима скорост на iSCSI връзка между моите два сървъра при 1Gbit/s (~ 125MB/s). Освен това скоростта, повече или по-малко подобна на истината, се показва при копиране на първия файл, а при копиране на следващите файлове леко се увеличава (може би кешът на файловата система и други други кешове от различни нива са включени в работата) .

За всякакви измервания винаги искате да използвате някои „родни“ инструменти, които не изискват инсталиране на допълнителен софтуер, но за съжаление това не винаги е възможно. В клиентските системи на Windows помощната програма се използва за оценка на производителността на различни подсистеми, включително дисковата. WinSAT ( winsat диск ), но не намерих тази помощна програма в Windows Server 2012 R2. Ето защо
Копирах два файла, WinSAT.exe и WinSATAPI.dll, от наличната клиентска операционна система Windows 10 x64 от директорията% windir% \ System32 в същата директория на сървъра. Сега можете да опитате да използвате тази помощна програма, като я стартирате от командния ред с администраторски права.

winsat диск -устройство T -брой 3

Тук след ключовата дума дископцията –drive определя буквата на устройството, което искаме да тестваме, а опцията –count определя броя на тестовите цикли.

Както разбирам, тази помощна програма не позволява тестване с използване на големи блокове данни (повече от 1MB), тоест е по-подходяща за тестване на ситуации с голям брой малки файлове. В нашия случай ситуацията е обратната - архивирането на дискове на виртуални машини включва малък брой файлове със значителен размер.

Друг прост инструмент е помощната програма Disksspd(DiskSpd: здрав инструмент за производителност на съхранение ), който замени помощната програмаИнструмент за сравнителен анализ на дисковата подсистема на SQLIO (SQLIO) ... Изтегляме помощната програма, разопаковаме я на сървъра и я стартираме с набор от параметри, които съответстват на контекста на нашата задача.

cd / d C: \ Tools \ Diskspd-v2.0.17 \ amd64fre \ Diskspd.exe -d60 -b1M -s -w100 -t1 -c100G T: \ io1.dat T: \ io2.dat

Параметрите, които използваме, означават:
-d60: Време за изпълнение на теста 60 секунди
-b1M: Работете в блокове от 1MB
-s: Извършване на операции за последователен достъп
-w100: Направете пълен тест за запис (без тест за четене)
-t1: Броят на нишките на работа с целта (с файла T: \ io.dat)
-c100G: Създаване на 100GB файлове
В края са изброени имената на файловете, генерирани за теста.

С леко отклонение, отбелязвам, че към момента на писането на това писане ние използваме софтуер за задачата за архивиране на виртуални машини Hyper-V Veeam Backup & Replication следователно, когато избирам размер на блок за провеждане на тестове, ще изхождам от спецификата на този софтуер. Както разбрах от документаКомпресиране и дедупликация на данни , VBR използва 1024MB блокове в операции за архивиране на SAN и това е размерът на блока, който ще използваме за тестване.

За сравнение, нека стартираме теста отново със същия набор от условия, но да увеличим продължителността му до 5 минути.

Тук ясно се вижда, че при продължително натоварване индикаторите забележимо провисват. Мога да предположа, че това се дължи на факта, че тесното място в този случай се премества от областта на мрежовата подсистема към областта на бавните дискове, използвани от страната на нашия ESOS сървър.

За любителите на графичните инструменти може да е полезна друга проста безплатна програма за провеждане на подобни повърхностни тестове на производителността на дисковата подсистема в Windows. ATTO Disk Benchmark... Можете да го изтеглите от линка:Бенчмарк на диска ... Интерфейсът на помощната програма е прост и ясен и вероятно няма какво да се коментира.

За някои по-сложни инструменти за тестване, като напр IOMeter , не казвам, тъй като в рамките на нашата задача няма цел да се занимаваме с бенчмарковете като такива. И индикаторите за прости инструменти се получават само за да имаме база за сравнение в бъдеще, когато между ESOS сървъра и хоста Hyper-V ще имаме не една връзка, както на този етап от конфигурацията, а две връзки и участващият многопътен механизъм.

Конфигуриране на Multipath

И така, имаме диск, свързан чрез iSCSI и някои основни еталони на тестове за производителност, от които можем да надграждаме. Сега нека се опитаме да подобрим тези показатели, като добавим още един гигабитов мрежов адаптер към ESOS сървъра и хоста на инициатора и комбинираме работата им, използвайки механизма Multipath от страна на хоста на инициатора.

Нека започнем с конфигуриране на ESOS сървъра. В главното навигационно меню отидете на Система > Мрежови настройки, изберете допълнителен мрежов адаптер, който ще се използва за още една iSCSI връзка и конфигурирайте IP параметрите. В нашия пример се използва статична конфигурация и допълнителният ESOS iSCSI интерфейс е настроен на IP адрес 192.168.168.2/29, като размерът е допълнително увеличен MTU.

Записваме мрежовите настройки в ESOS и пристъпваме към конфигуриране на допълнителен мрежов адаптер от страната на хоста на инициатора, тоест нашия сървър, базиран на Windows Server с iSCSI Initiator.

Конфигурираме, по аналогия с първия, втория iSCSI интерфейс, задавайки го на IP 192.168.168.4/29

Деактивирайте предварително конфигурирания интерфейс с адрес 192.168.168.3 (iSCSI дискът ще падне) и се уверете, че допълнително конфигурираните iSCSI интерфейси на ESOS сървъра и хоста на инициатора могат да се виждат.

В аплета на контролния панел iSCSI инициаторв раздела Откритиедобавете допълнителен път за откриване, като посочите набор от 192.168.168.2 - 192.168.168.4

Тъй като по-рано създадохме iSCSI връзка към целта без активиран флаг многопътен, тогава сега би било по-правилно да деактивираме тази връзка и да я създадем наново, но с активиран флаг многопътен.

Първо премахнете създадената по-рано връзка от стартиране в раздела Любими мишени

Сега да преминем към раздела Целии прекъснете връзката (дискът, инициализиран и свързан в системата iSCSI, ще изчезне от Windows)

След това ще свържем отново iSCSI целта, но този път с активирана опция Активиране на многопътния(и не забравяйте за бутона Разширенонаправете изричен набор от интерфейси 192.168.168.1 - 192.168.168.3 )

След като се уверите, че целта отново е влязла в състоянието Свързаниотворете неговите свойства, за да добавите втора връзка към допълнителен специален интерфейс

В раздела Целида отидем до бутона Имотикъм свойствата на свързаната цел и използвайте бутона Добавете сесияза да настроите втора връзка.

Между другото, тук до бутона MCSще можем да се уверим, че първата установена сесия действително използва специалния мрежов интерфейс, който посочихме.

Така че с помощта на бутона Добавете сесиядобавете допълнителна връзка към iSCSI Target, като посочите като интерфейси допълнителна двойка интерфейси, които конфигурирахме по-рано (192.168.168.2 - 192.168.168.4 )

Сега в списъка със сесиите трябва да се появи запис за втората сесия.

Ще видим също създадената допълнителна сесия от страна на ESOS сървъра.

От страната на хоста на инициатора, нека разгледаме приставката "Диспечер на устройства" / Мениджър на устройства (devmgmt.msc) и се уверете, че в раздела Дискови устройствасе появи допълнителен SCSI диск със същото име (ESOS01-MD0).

Тоест сега, от страна на сървъра на Windows, всъщност виждаме един и същ диск като две отделни устройства. За да може системата да работи с този диск като едно устройство, използвайки и двете iSCSI мрежови връзки към ESOS сървъра, трябва да активираме поддръжка MPIOза iSCSI... За да направите това, отидете на контролния панел на Windows, отворете аплета MPIOи в раздела Открийте многопътивключете опцията Добавете поддръжка за iSCSI устройства... След това натискаме бутона Добаветеи ние отговаряме положително на въпроса за рестартирането на сървъра.

След рестартиране, нека погледнем отново конзолата на Device Manager и се уверим, че сега нашият iSCSI диск се показва като едно устройство и има име ... Многопътно дисково устройство... Нека отворим свойствата на диска и в раздела MPIOпроверете дали дискът е достъпен по два начина.

По-подробна информация за маршрутите за свързване може да се види в аплета на контролния панел iSCSI инициатор.

Тук до бутона MPIOще видим информация за използваните връзки.

Това завършва основната настройка на Multipath.

Сега, за да оценим промените в скоростта на работа с iSCSI диск, които получихме в резултат на организирането на втората връзка и настройката на Multipath, ще проведем прост тест за линейно записване на големи файлове на диска, по аналогия с това, което направихме по-рано:

Diskspd.exe -d60 -b1M -s -w100 -t1 -c100G T: \ io1.dat T: \ io2.dat

Съдейки по това, което Diskspd ни показва в този случай, средно всеки файл се записва със скорост от ~ 225MB / s, което се равнява на 1800Mb / s. Това означава, че в резултат получаваме скорост, близка до общата пропускателна способност на две организирани iSCSI връзки.

Същият тест, но по-дълъг във времето (5 минути):

Diskspd.exe -d300 -b1M -s -w100 -t1 -c100G T: \ io1.dat T: \ io2.dat

Средната стойност от ~ 48,5 MB/s, получена при работа с всеки файл, изглежда значително по-добре от получените по-рано 16 MB/s на една iSCSI връзка.

Въз основа на тези прости измервания можем да разберем, че благодарение на организацията на многопътната връзка, ние не само увеличихме нейната наличност, но и получихме подобрени показатели за ефективност. И това е добре.

ESOS USB Flash Hot Swap

Като се има предвид, че при сглобяването на бюджетното решение, описано в рамките на нашия пример, бихме могли да използваме евтини USB устройства, в някои случаи може да се наложи да смените това устройство (например, ако не успее). Като се има предвид, че ESOS е Linux система, напълно адаптирана за работа в RAM, подмяната на USB устройство е много проста операция, чиято правилна обработка се изпълнява от разработчика на тази система.

Всъщност устройството се подменя в няколко прости стъпки:

  • На вече заредена и работеща ESOS система по всяко време премахнете USB устройството (устройството, което трябва да бъде заменено), от което тази система е заредена.
  • Подготвяме нов ESOS USB флаш, използвайки стандартния метод, описан в раздела „Подготовка на ESOS USB флаш за стартиране“ по-горе, и го инсталираме в работещ ESOS сървър.
  • Ние наричаме процедурата за синхронизиране на конфигурацията на ESOS, работеща в RAM, с файловата система на USB устройството. Елемент от менюто Система > Конфигурация за синхронизиране

След това е препоръчително да рестартирате сървъра и да се уверите, че системата се стартира успешно от новото USB устройство. По време на първото зареждане от подмененото USB устройство, ESOS ще извърши някои сервизни процедури и само след няколко минути сървърът ще бъде готов за работа, след като зареди конфигурацията, която конфигурирахме по-рано.

Съдейки по описанието на документа 13_Надграждане ESOS сървърът се надгражда до по-нова версия по абсолютно същия прост начин, което значително опростява поддръжката на такава система.

Заключение

В заключение бих искал да кажа, че в нашия пример, благодарение на системата ESOS, успяхме да изцедим максимума от дисковата кошница на остарял сървър във всички отношения и да получим на хоста за виртуализация дисков капацитет, който е доста поносим в изпълнение за задачата за архивиране на виртуални машини. И мога само да благодаря на разработчика на ESOS за свършената работа и да пожелая на проекта по-нататъшно успешно развитие.

Резюме: как работи open-iscsi (ISCSI инициатор в linux), как да го конфигурирате и малко за самия ISCSI протокол.

Текстове: Има много статии в Интернет, които обясняват доста добре как да настроите ISCSI цел, но по някаква причина практически няма статии за работа с инициатор. Въпреки факта, че целта е технически по-сложна, има повече административен шум с инициатора - има по-объркващи концепции и не много очевидни принципи на работа.

ISCSI

Преди да говорим за iSCSI - няколко думи за различните видове отдалечен достъп до информация в съвременните мрежи.

NAS срещу SAN

Има два метода за достъп до данни, намиращи се на друг компютър: файл (когато файл е поискан от отдалечен компютър и никой не се интересува от кои файлови системи се прави), типични представители на NFS, CIFS (SMB); и блок - когато се изискват блокове от отдалечен компютър от дисков носител (подобно на това как се четат от твърд диск). В този случай искащата страна създава файлова система на блоковото устройство за себе си, а сървърът, който дава блоковото устройство, не знае за файловите системи на него. Първият метод се нарича NAS (мрежово съхранение), а вторият се нарича SAN (мрежа за съхранение). Имената обикновено показват други знаци (SAN означава специална мрежа преди съхранение), но така се случи, че NAS са файлове, а SAN са блокови устройства през мрежата. И въпреки че всички (?) разбират, че това са неправилни имена, колкото по-далеч, толкова повече се фиксират.

scsi през tcp

Един от протоколите за достъп до блокови устройства е iscsi. Буквата "i" в заглавието не се отнася за продукти на Apple, а за Internet Explorer. В основата си това е "scsi над tcp". Самият SCSI протокол (без буквата "i") е много сложен дизайн, тъй като може да работи чрез различни физически носители (например UWSCSI е паралелна шина, SAS е серийна шина - но те имат един и същ протокол). Този протокол ви позволява да правите много повече от просто „включете дискове в компютъра“ (както е изобретено в SATA), например, поддържа имена на устройства, наличието на няколко връзки между блоковото устройство и потребителя, поддръжка за превключване (да , SAS ключ, такъв е в природата), свързване на няколко консуматора към едно блоково устройство и др. С други думи, този протокол просто поиска като основа за мрежово блоково устройство.

Терминология

Следните термини са приети в света на SCSI:
целе този, който предоставя блоковото устройство. Най-близкият аналог от обикновения компютърен свят е сървърът.
инициатор- клиентът, този, който използва блоковото устройство. Аналог на клиента.
Wwid- уникален идентификатор на устройството, неговото име. Аналог на DNS име.
ЛУН- номерът на "парчето" от диска, до който се осъществява достъп. Най-близкият аналог е дял на твърдия диск.

ISCSI носи следните промени: WWID изчезва, на негово място идва концепцията за IQN (iSCSI Qualified Name) - тоест чисто име, което е подобно на степента на объркване с DNS (с незначителни разлики). Ето един пример IQN: iqn.2011-09.test: име.

IETD и open-iscsi (Linux сървър и клиент) носят още една много важна концепция, за която най-често не се пише в ръководствата на iscsi - портал. Порталът е грубо казано няколко целта, които се рекламират от един сървър. Няма аналогия с www, но ако уеб сървърът може да бъде помолен да изброи всичките си виртуални хостове, това би било. Порталът определя списък с цели и налични IP адреси които могат да бъдат достъпни (да, iscsi поддържа множество маршрути от инициатор до цел).

цел

Тази статия не е за целта, така че давам много кратко описание на това какво прави целта. Той взема блоково устройство, добавя името и LUN към него и го публикува на своя портал, след което позволява на всеки (упълномощаване за вкус) да има достъп до него.

Ето пример за прост конфигурационен файл, мисля, че от него ще стане ясно какво прави целта (конфигурационен файл, използващ примера на IET):

Target iqn.2011-09.example: данни IncomingUser потребителско име Pa $$ w0rd Lun 0 Път = / dev / md1

(сложното се различава от простото само по опциите за експорт). По този начин, ако имаме цел, тогава искаме да я свържем. И тук започва сложната част, защото инициаторът има своя собствена логика, той изобщо не изглежда като тривиален монтиране за nfs.

Инициатор

Open-iscsi се използва като инициатор. Така че най-важното е, че го има режими на работаи състояние... Ако издадем команда в грешен режим или игнорираме състоянието, резултатът ще бъде изключително обезкуражаващ.

И така, режимите на работа:

  • Цел за търсене "s (откриване)
  • Свържете се с целта „y
  • Работа със свързана цел
От този списък жизненият цикъл е съвсем разбираем - първо намерете, след това свържете, след това прекъснете връзката и след това се свържете отново. Open-iscsi поддържа сесията отворена, дори ако блоковото устройство не се използва. Освен това поддържа сесията отворена (до определени граници, разбира се), дори ако сървърът се рестартира. Iscsi сесията не е същата като отворена TCP връзка, iscsi може прозрачно да се свърже отново с целта Прекъсване/свързване са операции, които се контролират отвън (от друг софтуер или на ръка).

Малко за държавата. След откриване open-iscsi помнивсички намерени цели (те се съхраняват в / etc / iscsi /), с други думи, откриването е постоянна операция, изобщо НЕ е подходяща, например разрешаване на dns).Намерените цели могат да бъдат премахнати на ръка (между другото, a често срещана грешка е, когато open-iscsi , в резултат на експерименти и настройки, куп намерени цели "s, при опит за влизане в които се промъкват много грешки поради факта, че половината от целта" са стари конфигурации линии, които не са съществували на сървъра от дълго време, но си спомням open-iscsi) Освен това open-iscsi ви позволява да промените настройките на запомнената цел "a" - и тази "памет" засяга по-нататъшната работа с целта "s дори след рестартиране/рестартиране на демона.

Блокиране на устройството

Вторият въпрос, който измъчва мнозина в началото, е къде се озовава след свързването? open-iscsi създава, макар и мрежово, но устройство от клас BLOCK SCSI (не напразно го казвам), тоест получава буква в семейството / dev / sd, например / dev / sdc. Използва се първата свободна буква, т.к за останалата част от системата това е блоково устройство - типичен твърд диск, не по-различен от този, свързан чрез usb-sata или просто директно към sata.

Това често предизвиква паника "как мога да разбера името на блоковото устройство?". Той се отпечатва в подробния изход на iscsiadm (# iscsiadm -m session -P 3).

Упълномощаване

За разлика от SAS / UWSCSI, iSCSI е достъпен за свързване от всеки. За да се предпазите от такива, има вход и парола (chap), а прехвърлянето им в iscsiadm "y е още едно главоболие за начинаещи потребители. Може да стане по два начина - чрез промяна на свойствата на по-рано намерената цел" и регистриране на вход / парола в конфигурационния файл open-iscsi.
Причината за тази трудност е, че паролата и процесът на влизане не са атрибути на потребителя, а на системата. ISCSI е евтина версия на FC инфраструктурата и понятието „потребител“ в контекста на човек от клавиатурата не се прилага тук. Ако вашата sql-база е на iscsi блоково устройство, тогава, разбира се, ще искате sql-сървърът да се стартира сам, а не след минута лично внимание на оператора.

конфигурационен файл

Това е много важен файл, тъй като в допълнение към потребителското име / паролата, той също така описва поведението на open-iscsi, когато открие грешки. Може да даде грешка "назад" не веднага, а с пауза (например около пет минути, което е достатъчно за рестартиране на сървъра с данни). Той също така контролира процеса на влизане (колко пъти да опитате, колко време да чакате между опитите) и всяка фина настройка на самия работен процес. Имайте предвид, че тези параметри са доста важни за работа и трябва да разберете как ще се държи вашият iscsi, ако извадите захранващия кабел за 10-20 секунди, например.

Бърза справка

Наистина не обичам да цитирам лесно намираща се мана и редове, така че ще дам типичен сценарий за използване на iscsi:

Първо, намираме целта, от която се нуждаем, за това трябва да знаем IP / dns името на инициатора: iscsiadm -m discovery -t st -p 192.168.0.1 -t st е командата за изпращане на цели.

Iscsiadm -m възел (списък намерен за влизане)
iscsiadm -m възел -l -T iqn.2011-09.пример: данни (вход, тоест свържете се и създайте блоково устройство).
iscsiadm -m сесия (избройте с какво е свързано)
iscsiadm -m session -P3 (изведете го, но по-подробно - в самия край на изхода ще има индикация кое блоково устройство към коя цел принадлежи).
iscsiadm - m session -u -T iqn.2011-09.example: данни (излезте от конкретен)
iscsiadm -m възел -l (влезте във всички открити цели)
iscsiadm -m възел -u (излезте от всички цели)
iscsiadm -m възел --op delete -T iqn.2011-09.example: данни (премахване на целта от намерена).

multipath

Друг въпрос, който е важен при сериозни решения, е поддръжката на множество маршрути до източника. Красотата на iscsi е, че използва обикновен ip, който може да се обработва по обичайния начин, както всеки друг трафик (въпреки че на практика обикновено не се маршрутизира, а само се превключва - натоварването там е твърде голямо). Така че, iscsi поддържа многопътен режим в режим "без съпротива". Сам по себе си open-iscsi не може да се свърже с няколко IP адреса на една цел "a. Ако е свързан с няколко IP адреса на една цел" a, тогава това ще доведе до появата на няколко блокови устройства.

Има обаче решение - това е multipathd, който намира дискове със същия идентификатор и ги обработва, както се очаква, в multipath, с адаптивни политики. Тази статия не е за многопътност, така че няма да обяснявам подробно мистерията на процеса, но ето някои важни точки:

  1. Когато използвате многопътен, задайте малки изчаквания - превключването между лоши пътища трябва да е достатъчно бързо
  2. В условия на повече или по-малко бърз канал (10G и по-високи, в много случаи гигабита), паралелността на натоварването трябва да се избягва, тъй като се губи възможността за използване на биокоализиране, което при някои видове натоварване може да удари неприятно целта "y.