Installera och konfigurera en virtuell server. Virtualiseringsteknologier. Vårt företag är en partner till VMware, en professionell lösningsleverantör

Ordet "virtualisering" har nyligen blivit ett slags "mode" i IT-miljön. Alla hårdvaru- och mjukvaruleverantörer, alla IT-företag ropar enhälligt att virtualisering är coolt, modernt och alla behöver det. Men istället för att ledas av marknadsföringsslogans (och ibland är de sådana att Goebbels själv skulle ha dött av avund), låt oss försöka titta på detta modeord från enkla "tekniker"s synvinkel och avgöra om vi behöver det eller inte ...

Typer av virtualisering

Så låt oss börja med det faktum att virtualisering är uppdelad i tre typer:

  • Virtualisering av vyer
  • Applikationsvirtualisering
  • Servervirtualisering

MED virtualisering av vyer många av er är bekanta: det mest slående exemplet är terminaltjänster Windows Server... Terminalservern tillhandahåller sina datorresurser till klienter, och klientapplikation exekveras på servern får klienten endast en "bild", det vill säga en vy. Denna accessmodell gör det för det första möjligt att minska kraven på mjukvara och hårdvara på klientsidan, för det andra minskar den kraven på nätverksbandbredd och för det tredje förbättrar den säkerheten. När det gäller utrustningen, kvaliteten terminalklienteräven smartphones eller gamla datorer upp till Pentium 166 kan användas, för att inte tala om specialiserade tunna klienter. Det finns till exempel tunna klienter i Legrand socket form factor, monterade i en låda. På klientarbetsstationer räcker det att bara installera en bildskärm, tangentbord och mus – och du kan arbeta. Det är inte nödvändigt att ha en höghastighetsanslutning för att fungera med en terminalserver. lokalt nätverk, även en låghastighetsanslutning med en bandbredd på 15-20 kbps är tillräckligt, därför är terminallösningar mycket lämpliga för företag med en mycket distribuerad struktur (till exempel ett nätverk av små butiker). Även vid användning tunna klienter säkerheten förbättras avsevärt eftersom användare endast kan tillåtas att köra en begränsad uppsättning applikationer och inte tillåtas installera sina egna. egna applikationer... I princip kan samma sak göras med fullfjädrade klientarbetsstationer, men med hjälp av terminaltjänster blir det mycket lättare att göra detta, speciellt - utan att ge tillgång till hela skrivbordet, utan endast genom att publicera enskilda applikationer (eventuellt i Citrix Metaframe / PS, men även i Windows Server 2008 och senare). Dessutom kan ingen information kopieras till och från externa medier, om detta inte uttryckligen tillåts i inställningarna för terminaltjänster. Det vill säga problemet med "virus på flash-enheter" försvinner automatiskt. En annan obestridlig fördel är minskningen av administrationens komplexitet: det gör det lättare att uppdatera applikationer (det räcker att uppdatera dem på servern), och arbetet med supporttjänster förenklas: terminalsession alla användare kan ansluta på distans utan att installera ytterligare programvara.
Det finns två nackdelar med sådana system: för det första, behovet av att köpa mer kraftfulla servrar (även om detta kan vara billigare än många klientarbetsstationer med tillräckliga prestandaegenskaper för att köra applikationer lokalt), och för det andra, uppkomsten av en enda felpunkt i form terminalserver... Detta problem löses genom att använda kluster, eller serverfarmar, men detta leder till en ännu större kostnadsökning för systemet.

Applikationsvirtualisering- ganska intressant och relativt ny riktning. Jag kommer inte att prata om det i detalj här, eftersom detta är ett ämne för en hel separat artikel. Kort sagt, applikationsvirtualisering låter dig köra separat ansökan i sin egen isolerad miljö(kallas ibland en sandlåda). Denna metod hjälper till att lösa många problem. Först, återigen, säkerhet: en applikation som körs i en isolerad miljö kan inte skada operativsystemet och andra applikationer. För det andra kan alla virtualiserade applikationer uppdateras centralt från en enda källa. För det tredje låter applikationsvirtualisering dig köra flera olika applikationer i konflikt med varandra, eller till och med flera olika versioner samma applikation. Mer information om applikationsvirtualisering finns till exempel i denna webbsändning: www.techdays.ru/videos/1325.html Kanske en dag kommer jag till och med att skriva en artikel om detta ämne.

Slutligen, låt oss gå vidare till servervirtualisering och uppehålla mig i detalj.
Servervirtualisering är en mjukvarusimulering som använder speciell programvara för datorhårdvaran: processor, minne, HDD, etc. Vidare kan ett operativsystem installeras på en sådan virtuell dator, och det kommer att fungera på det på samma sätt som på en enkel "järndator". Den mest intressanta fördelen med denna teknik är möjligheten att köra flera virtuella datorer i en "hårdvara", medan alla virtuella datorer kan arbeta oberoende av varandra. Vad kan den användas till?
Det första som kommer att tänka på är att servervirtualisering kan användas för utbildnings- och teständamål. Till exempel kan nya applikationer eller operativsystem testas innan de sätts i industriell drift i en virtuell miljö, utan att köpa in hårdvara specifikt för detta och utan att riskera att förlama IT-infrastrukturens arbete om något går fel.

Men förutom det kan servervirtualisering användas även i en produktionsmiljö. Det finns många anledningar till detta.
Virtualisering låter dig minska antalet servrar genom konsolidering, det vill säga där flera servrar tidigare krävdes - nu kan du sätta en server och köra rätt nummer gästoperativsystem i en virtuell miljö. Detta kommer att spara på kostnaden för att köpa utrustning, samt minska strömförbrukningen och därmed systemets värmeavledning - och därför kan du använda mindre kraftfulla och följaktligen billigare kylsystem. Men den här medaljen har också baksidan, och inte en. Faktum är att när du implementerar lösningar baserade på virtualisering kommer du med största sannolikhet att behöva köpa nya servrar. Faktum är att virtuella servrar använder hårdvaruresurserna för en fysisk server, och följaktligen mer kraftfulla processorer, stora volymer random access minne, såväl som ett mer höghastighetsdiskundersystem, och troligen en större volym. Dessutom kräver vissa virtualiseringssystem (särskilt - MS Hyper-V) att processorn stöder hårdvaruvirtualiseringsteknik (Intel VT eller AMD-V) och vissa andra processorfunktioner. Många processorer som släpptes tills nyligen, i synnerhet - alla x86_32bit - uppfyller inte dessa krav, och därför måste gamla, om än ganska fungerande, servrar överges. En mer kraftfull server kommer dock med största sannolikhet att kosta mycket mindre än flera mindre kraftfulla, och de gamla servrarna kommer sannolikt att bytas ut på grund av inkurans.

Det finns en annan mycket viktig poäng: Servervirtualisering gör att du kan förenkla administrationen av infrastrukturen till det yttersta. Den största fördelen, som kommer att uppskattas av alla systemadministratörer, är möjligheten att fjärråtkomst till konsolen för virtuella servrar på "hårdvara", mer exakt - "virtuell hårdvara" -nivå, oavsett det installerade gästoperativsystemet och dess tillstånd. Så för att starta om en "frusen" server, nu behöver du inte springa till serverrummet eller köpa dyr utrustning som IP-KVM-switchar, du behöver bara gå till konsolen virtuell server och tryck på knappen "Återställ". Dessutom stöder virtuella servrar snapshot-teknik (se min tidigare artikel om det), samt säkerhetskopiering och återställning virtuella system mycket enklare.

En annan obestridlig fördel är att operativsystemet som körs inuti en virtuell maskin (gäst-OS) inte har någon aning om vilken hårdvara som är installerad på den fysiska server där den körs (värd). Därför, vid byte av järn, vid uppgradering eller till och med flytta till ny server du behöver bara uppdatera drivrutiner på själva värdoperativsystemet (värdoperativsystemet). Guest OS-mjukvaran kommer att fungera som tidigare, eftersom endast virtuella enheter "ses".

Jag vill också påminna dig om att i en virtuell miljö kan särskilda regler för programvarulicensiering gälla (i synnerhet om du köper en licens för Microsoft Windows Server 2008 Enterprise kan du använda fyra exemplar av operativsystemet gratis som gäst, och Microsoft Windows Server 2008 Datacenter tillåter dig i allmänhet att använda ett obegränsat antal gäst-OS under förutsättning av fullständig processorlicens).

Dessutom kan man inte undgå att nämna feltoleransteknologier. Fysiska servrar som kör virtuella maskiner kan kombineras till ett kluster, och om en av servrarna misslyckas kan de automatiskt "flytta" till en annan. Det är inte alltid möjligt att uppnå full feltolerans (särskilt i MS Hyper-V kommer en sådan "plötslig rörelse" att se likadan ut och få samma möjliga konsekvenser som ett plötsligt strömavbrott på servern), men möjlig driftstopp kommer att minska kraftigt: "flytten" tar några minuter, medan reparationen eller bytet av själva servern kan ta timmar, om inte dagar. Om "flytten" virtuella maskiner händer i normal drift, då kan det passera helt obemärkt för användarna. Sådana tekniker kallas olika av olika leverantörer, till exempel kallar MS det "Live Migration", VMware kallar det Vmotion. Användningen av sådan teknik kommer att göra det möjligt att utföra arbete relaterat till att stänga av servern (till exempel byta ut vissa hårdvarukomponenter eller starta om operativsystemet efter installationen kritiska uppdateringar) v arbetstid och utan att sparka ut användare från sina favoritappar. Dessutom, om infrastrukturen är byggd på rätt sätt, kan körande virtuella maskiner automatiskt flytta till mindre laddade servrar, eller vice versa, "avlasta" de mest laddade. Infrastruktur baserad på Microsoft-teknik använder System Center för detta. Virtuell maskin Chef och verksamhetschef.

Sammanfattningsvis, ämnet servervirtualisering - jag noterar att virtualisering inte alltid är lika användbart. I synnerhet kommer det inte alltid att vara en bra idé att överföra högt belastade servrar till en virtuell miljö, och särskilt högbelastade servrar på diskundersystemet - dessa är "tunga" DBMS, Exchange Server, särskilt rollen Mailbox Server och andra högbelastningsapplikationer. Men servrar med lägre belastning (domänkontrollanter AD, WSUS, alla typer av System Center * Manager, webbservrar) kan och behöver till och med virtualiseras. Låt mig förresten notera att det är med domänkontrollanter som det är mycket önskvärt att minst en av kontrollerna är "hårdvara", det vill säga inte virtuell. Detta är nödvändigt eftersom för rätt arbete av hela infrastrukturen är det önskvärt att när alla andra servrar startas är minst en CD redan tillgänglig på nätverket.

Sammanfattning

Så låt oss sammanfatta: vilken typ av virtualisering kan komma väl till pass när, och vilka är dess för- och nackdelar.
Om du har många användare som arbetar med samma uppsättning mjukvara, och systemet är högt distribuerat geografiskt, bör du tänka på att använda presentationsvirtualisering, det vill säga terminaltjänster.

Fördelarna med ett sådant system:

  • Minskade hårdvarukrav på klientsidan
  • Minskade krav på nätverksbandbredd
  • Ökad säkerhet
  • Betydligt förenklad administration och support

Brister:
  • Ökande krav på servrar, både vad gäller prestanda och tillförlitlighet
  • Potentiell enda punkt av misslyckande

Om du har många applikationer som inte fungerar korrekt i det nya operativsystemet, eller kommer i konflikt med varandra, eller du behöver köra flera versioner av samma program på samma dator, så behöver du virtualisering på applikationsnivå.

Fördelar:

  • Säkerhet
  • Enkel administration - centraliserad uppdatering och differentiering av åtkomsträttigheter till applikationer

Brister:
  • Vissa svårigheter att förstå teknik och i praktisk implementering.

Om du behöver frigöra rackutrymme, minska strömförbrukningen för system, bli av med "serverzoo" - då är din lösning servervirtualisering.

Fördelarna med denna lösning:

  • Spara utrymme i ställen
  • Minskad strömförbrukning och värmeavledning
  • Förenklad administration
  • Omfattande möjligheter för att automatisera driftsättning och serverhantering
  • Minskning av påtvingad och planerad driftstopp på grund av failover-kluster och live-migrering
  • Tillåter (när du använder Microsoft Windows Server) att spara på gäst OS-licenser

Nackdelarna är i princip desamma som för terminallösningar:

  • Ökande krav på serverhårdvara
  • Potentiell Single Point of Failure - Fysisk värd och värd OS

Jag hoppas att min artikel kommer att vara användbar för någon. Tacksamhet och konstruktiv kritik kan som alltid uttryckas i kommentarerna.

Virtualisering i beräkning, processen att representera en uppsättning beräkningsresurser, eller deras logiska kombination, vilket ger några fördelar jämfört med den ursprungliga konfigurationen. Detta är en ny virtuell titt på resurser som inte är begränsade av implementering, geografi eller fysisk konfiguration. beståndsdelar... Vanligtvis inkluderar virtualiserade resurser beräkningskraft och datalager.

"Marknaden för servervirtualisering har mognat mycket under de senaste åren. I många organisationer är mer än 75 % av servrarna virtuella, vilket indikerar en hög nivå av mättnad, säger Michael Warrilow, forskningschef på Gartner.

Attityder till virtualisering skiljer sig mer än någonsin mellan organisationer av olika storlekar, säger analytiker. Virtualiseringens popularitet bland företag med större IT-budgetar 2014-2015 höll sig på samma nivå. Dessa företag fortsätter att aktivt använda virtualisering, och detta segment närmar sig mättnad. Bland organisationer med mindre IT-budgetar förväntas virtualisering minska i popularitet under de kommande två åren (till slutet av 2017). Denna trend har redan observerats.

« Fysikalisering»

Enligt Gartners observationer tillgriper företag i allt större utsträckning så kallad "fysikalisering" – att köra servrar utan virtualiseringsprogram. Mer än 20 % av dessa företag förväntas ha virtualiserat mindre än en tredjedel av sina operativsystem på x86-baserade servrar i slutet av 2017. Som jämförelse, 2015 fanns det hälften av antalet sådana organisationer.

Analytiker påpekar att företag har olika anledningar till att överge virtualisering. Idag har kunderna nya alternativ – de kan dra fördel av mjukvarudefinierad infrastruktur eller hyperkonvergerade integrerade system. Framväxten av sådana alternativ tvingar leverantörer av virtualiseringsteknik att vidta fler åtgärder: att utöka funktionaliteten hos sina lösningar som är tillgängliga "out of the box", för att förenkla interaktion med produkter och för att förkorta returtiden för kunderna.

Hyperkonvergerade integrerade system

I början av maj 2016 publicerade Gartner sin syn på hyperkonvergerade integrerade system. Enligt analytiker kommer detta segment 2016 att växa med 79% jämfört med 2015 till nästan 2 miljarder dollar och kommer att nå mainstream-stadiet inom fem år.

Under de kommande åren kommer segmentet av hyperkonvergerade integrerade system att visa den högsta tillväxttakten av alla andra integrerade system. I slutet av 2019 kommer den att växa till cirka 5 miljarder dollar och kommer att uppta 24% av marknaden för integrerade system, förutspår Gartner, och noterar att tillväxten i denna riktning kommer att leda till kannibalisering av andra marknadssegment.

Analytiker hänvisar till hyperkonvergerade integrerade system (HCIS) som hårdvaru- och mjukvaruplattformar som kombinerar mjukvarudefinierade beräkningsnoder och mjukvarudefinierade lagringssystem, medföljande standardutrustning och en gemensam kontrollpanel.

Typer av virtualisering

Virtualisering är en generisk term som omfattar resursabstraktion för många aspekter av datoranvändning. Några av de mer typiska exemplen på virtualisering ges nedan.

Paravirtualisering

Paravirtualisering är en virtualiseringsteknik där gästoperativsystem är förberedda att köras i en virtualiserad miljö genom att ändra sin kärna något. Operativsystemet interagerar med hypervisorprogrammet, som förser det med gäst-API:et, istället för att direkt använda resurser såsom minnestabellen. Virtualiseringskoden är lokaliserad direkt till operativsystemet. Paravirtualisering kräver att gästoperativsystemet ändras för hypervisorn, och detta är en nackdel med denna metod, eftersom en sådan förändring endast är möjlig om gästoperativsystemen har öppna källkoder som kan ändras under licens. �Samtidigt erbjuder paravirtualisering prestanda nästan som ett riktigt icke-virtualiserat system, såväl som möjligheten att samtidigt stödja olika operativsystem, som med full virtualisering.

Infrastrukturvirtualisering

I det här fallet kommer vi att förstå med denna term skapandet av en IT-infrastruktur, oberoende av hårdvaran. Till exempel när tjänsten vi behöver finns på den virtuella gästmaskinen och i princip spelar det ingen roll för oss på vilken fysisk server den finns.

Virtualisering av servrar, stationära datorer, applikationer - det finns många metoder för att skapa en sådan oberoende infrastruktur. I det här fallet placeras flera virtuella eller "gäst"-maskiner på en enda fysisk eller värdserver med hjälp av speciell programvara som kallas "hypervisor".

Moderna virtualiseringssystem, i synnerhet VMware och Citrix XenServer, arbetar för det mesta enligt principen om ren metall, det vill säga de installeras direkt på "bar metall".

Exempel

Det virtuella systemet är inte byggt på en hypervisor av ren metall, utan på en kombination av operativsystemet Linux CentOS 5.2 och VMware Server-baserat serverplattform Intel SR1500PAL, 2 Intel-processor Xeon 3.2 / 1/800, 4Gb RAM, 2xHDD 36Gb RAID1 och 4xHDD 146Gb i RAID10 med en total kapacitet på 292Gb. Värdmaskinen är värd för fyra virtuella maskiner:

  • post Postfix-server Operations rum FreeBSD-system(Unix). För postleverans slutanvändare POP3-protokollet användes.
  • Squid proxyserver baserad på samma FreeBSD-system.
  • dedikerad domänkontrollant, DNS, DHCP baserad på Windows 2003 Server Standard Edition.
  • verkställande direktör arbetsstation baserad på Windows XP för affärsändamål.

Servervirtualisering

  • En virtuell maskin är en miljö som för ett "gäst"-operativsystem framstår som hårdvara. Men det är faktiskt en mjukvarumiljö som simuleras av värdsystemets programvara. Denna simulering måste vara tillräckligt robust för att gästförarna ska fungera smidigt. När du använder paravirtualisering simulerar den virtuella maskinen inte Hårdvara, och föreslår istället att du använder specialen

På senare tid har användare alltmer hört talas om ett sådant koncept som "virtualisering". Dess applikation tros vara cool och modern. Men inte alla användare förstår tydligt vad virtualisering är i allmänhet och i synnerhet. Låt oss försöka kasta lite ljus över denna fråga och beröra servervirtualiseringssystem. Idag är dessa tekniker de mest avancerade, eftersom de har många fördelar vad gäller säkerhet och administration.

Vad är virtualisering?

Låt oss börja med det enklaste – definitionen av en term som beskriver virtualisering som sådan. Vi noterar direkt att på Internet kan du hitta och ladda ner en del manualer om detta problem, som guiden "Servervirtualisering för Dummies" i PDF-format. Men när man studerar materialet kan en otränad användare stöta på stor kvantitet obegripliga definitioner. Därför kommer vi att försöka klargöra kärnan i frågan, så att säga, på fingrarna.

Först av allt, när vi överväger servervirtualiseringsteknik, låt oss fokusera på det ursprungliga konceptet. Vad är virtualisering? Efter enkel logik är det lätt att gissa att denna term beskriver skapandet av en viss emulator (likhet) av någon fysisk eller mjukvarukomponent. Det är med andra ord en interaktiv (virtuell) modell som inte finns i verkligheten. Det finns dock några nyanser här.

De huvudsakliga typerna av virtualisering och teknik som används

Faktum är att det finns tre huvudriktningar i konceptet med virtualisering:

  • representation;
  • applikationer;
  • servrar.

För förståelse skulle det enklaste exemplet vara användningen av de så kallade som ger användarna sina egna datorresurser. Användarprogram den körs på och användaren ser bara resultatet. Detta tillvägagångssätt gör det möjligt att minska Systemkrav till en användarterminal vars konfiguration är föråldrad och inte kan hantera de givna beräkningarna.

För tillämpningar används sådana tekniker också i stor utsträckning. Det kan till exempel vara virtualisering av en 1C-server. Kärnan i processen är att programmet startas på en isolerad server och ett stort antal fjärranvändare... Uppdatering av ett mjukvarupaket görs från en enda källa, för att inte tala om den högsta nivån säkerheten för hela systemet.

Slutligen innebär det skapandet av en interaktiv datormiljö, servervirtualisering där fullständigt upprepar den verkliga konfigurationen av "järn"-bröderna. Vad betyder det här? Ja, det faktum att du i stort sett på en dator kan skapa en eller flera ytterligare sådana som fungerar i realtid, som om de fanns i verkligheten (servervirtualiseringssystem kommer att övervägas mer i detalj lite senare).

I det här fallet spelar det ingen roll vilket operativsystem som kommer att installeras på varje sådan terminal. I stort sett har detta ingen effekt på huvudoperativsystemet (värd) och den virtuella maskinen. Detta liknar interaktionen mellan datorer med olika operativsystem på ett lokalt nätverk, men i det här fallet kanske virtuella terminaler inte är anslutna till varandra.

Utrustningsval

En av de explicita och obestridliga fördelar virtuella servrar är att minska materialkostnaderna för att skapa en fullt fungerande hård- och mjukvarustruktur. Till exempel finns det två program som kräver 128 MB RAM för normal drift, men de kan inte installeras på samma fysiska server. Hur går man tillväga i detta fall? Du kan köpa två separata 128 MB-servrar och installera dem separat, eller så kan du köpa en med 128 MB "RAM", skapa två virtuella servrar på den och installera två applikationer på dem.

Om någon ännu inte har förstått, i det andra fallet kommer användningen av RAM att vara mer rationell, och materialkostnaderna är betydligt lägre än när man köper två oberoende enheter. Men detta är inte det enda.

Säkerhetsfördelar

Som regel innebär själva serverstrukturen närvaron av flera enheter för att utföra vissa uppgifter. Av säkerhetsskäl installerar sysadmins domänkontrollanter Active Directory och Internet-gateways finns inte på en, utan på olika servrar.

Vid försök till yttre störningar attackeras alltid gatewayen först. Om en domänkontrollant också är installerad på servern är sannolikheten för skada på AD-databaserna mycket stor. I en situation med riktade handlingar kan angripare ta över allt detta. Och att återställa data från en säkerhetskopia är ganska besvärligt, även om det tar relativt lite tid.

Om du närmar dig det här problemet från andra sidan kan det noteras att servervirtualisering låter dig kringgå installationsbegränsningar, samt snabbt återställa den önskade konfigurationen, eftersom säkerhetskopian lagras i själva den virtuella maskinen. Man tror dock att servervirtualisering med Windows Server (Hyper-V) ser opålitlig ut i den här uppfattningen.

Dessutom är frågan om licensiering fortfarande ganska kontroversiell. Så, till exempel, för Windows Server 2008 Standard tillhandahålls endast en virtuell maskin, för Enterprise - fyra, och för Datacenter - ett obegränsat antal (och till och med kopior).

Administrationsfrågor

Fördelarna med detta tillvägagångssätt, för att inte tala om säkerheten och kostnadsbesparingarna, även när Windows Server-servrar är virtualiserade, bör uppskattas i första hand av systemadministratörer som underhåller dessa maskiner eller LAN.

Skapande blir det väldigt ofta säkerhetskopior system. Vanligtvis, när du skapar en säkerhetskopia, krävs programvara från tredje part, och läsning från ett optiskt medium eller till och med från nätverket tar längre tid, jämfört med hastigheten för diskundersystemet. Kloning av själva servern kan göras med bara ett par klick, och sedan snabbt distribuera ett fungerande system även på "ren" hårdvara, varefter det kommer att fungera utan avbrott.

I VMware vSphere låter servervirtualisering dig skapa och spara så kallade ögonblicksbilder av själva den virtuella maskinen (snapshots), som är speciella bilder av dess tillstånd vid en viss tidpunkt. De kan representeras i en trädstruktur i själva maskinen. Således är det mycket lättare att återställa hälsan hos den virtuella maskinen. I det här fallet kan du godtyckligt välja återställningspunkter, rulla tillbaka tillståndet och sedan framåt (Windows-system kan bara drömma om detta).

Servervirtualiseringsprogram

När det kommer till mjukvara finns det många applikationer som kan användas för att skapa virtuella maskiner. I det enklaste fallet används Windows-systemens inbyggda verktyg, med hjälp av vilka servervirtualisering kan utföras (Hyper-V är en inbyggd komponent).

Denna teknik har dock också vissa nackdelar, så många människor föredrar mjukvarupaket som WMware, VirtualBox, QUEMI eller till och med MS Virtual PC. Även om namnen på dessa applikationer skiljer sig åt, skiljer sig principerna för att arbeta med dem inte mycket (förutom i detaljer och några nyanser). Med vissa versioner av applikationer kan virtualisering av Linux-servrar också utföras, men dessa system kommer inte att övervägas i detalj, eftersom de flesta av våra användare fortfarande använder Windows.

Servervirtualisering på Windows: den enklaste lösningen

Sedan släppet av den sjunde Windows-versioner en inbyggd komponent kallad Hyper-V dök upp i den, som gjorde det möjligt att skapa virtuella maskiner med hjälp av systemets egna medel utan att använda programvara från tredje part.

Som i alla andra tillämpningar av denna nivå, i detta paket kan du simulera framtiden genom att specificera hård storlek disk, RAM-storlek, tillgänglighet optiska enheter, de önskade egenskaperna hos ett grafik- eller ljudchip - i allmänhet allt som är tillgängligt i "hårdvaran" i en konventionell serverterminal.

Men här måste du vara uppmärksam på inkluderingen av själva modulen. Hyper-V-servrar kan inte virtualiseras utan att först aktivera den här komponenten i själva Windows.

I vissa fall kan det vara nödvändigt att aktivera aktivering av stöd för motsvarande teknik i BIOS.

Användning av programvara från tredje part

Ändå, trots de medel som kan användas för att virtualisera Windows-baserade servrar, anser många experter denna teknik som något ineffektiv och till och med alltför komplicerad. Det är mycket lättare att använda en färdig produkt, där liknande åtgärder utförs baserat på automatiskt val av parametrar, och den virtuella maskinen har stora möjligheter och flexibilitet i hantering, konfiguration och användning.

Vi pratar om användningen av mjukvaruprodukter som t.ex Oracle VirtualBox, VMware arbetsstation(VMware vSphere) och andra. Till exempel kan en VMware-virtualiseringsserver skapas på ett sådant sätt att analogerna till datorer som görs inuti en virtuell maskin fungerar separat (oberoende av varandra). Sådana system kan användas i inlärningsprocesser, testning av vilken programvara som helst, etc.

Förresten kan det noteras separat att när du testar programvara i en virtuell maskinmiljö kan du till och med använda program infekterade med virus som bara visar sin effekt i gästsystemet. Detta kommer inte att påverka huvudoperativsystemet (värd) på något sätt.

När det gäller processen att skapa en dator inuti en maskin, i VMware vSphere, är servervirtualisering, såväl som i Hyper-V, baserad på "Wizard", men om vi jämför denna teknik med Windows-system ser själva processen ut något enklare, eftersom programmet i sig kan erbjuda någon form av mallar eller automatiskt beräkna nödvändiga parametrar för den framtida datorn.

De största nackdelarna med virtuella servrar

Men trots hur många fördelar servervirtualisering ger samma systemadministratör eller slutanvändare, har sådana program också några betydande nackdelar.

För det första kan du inte hoppa över huvudet. Det vill säga, den virtuella maskinen kommer att använda resurserna på den fysiska servern (datorn), och inte fullt ut, utan i en strikt begränsad mängd. Därför måste den ursprungliga hårdvarukonfigurationen vara tillräckligt kraftfull för att den virtuella maskinen ska fungera korrekt. Å andra sidan kommer det fortfarande att vara mycket billigare att köpa en kraftfull server än att köpa flera med en lägre konfiguration.

För det andra, även om man tror att flera servrar kan kombineras till ett kluster, och om en av dem misslyckas, kan du "flytta" till en annan, i samma Hyper-V kan detta inte uppnås. Och detta ser ut som en klar nackdel vad gäller feltolerans.

För det tredje, frågan om att överföra till virtuellt utrymme resurskrävande DBMS eller system som Mailbox Server, Exchange Server, etc. I detta fall kommer en tydlig hämning att observeras.

För det fjärde, för korrekt drift av en sådan infrastruktur kan inte enbart användas virtuella komponenter... I synnerhet gäller detta domänkontrollanter - åtminstone en av dem i obligatorisk måste vara "hårdvara" och initialt tillgänglig på webben.

Slutligen, för det femte, är servervirtualisering fylld med en annan fara: misslyckandet hos den fysiska värden och värdoperativsystemet kommer att innebära automatisk avstängning alla medföljande komponenter. Detta är den så kallade single point of failure.

Sammanfattning

Trots vissa nackdelar är fördelarna med sådana tekniker klart större. Om du tittar på frågan om varför servervirtualisering behövs, finns det flera huvudaspekter här:

  • minskning av mängden "järn" utrustning;
  • minskning av värmeproduktion och energiförbrukning;
  • minskning av materialkostnader, inklusive för inköp av utrustning, betalning för el, förvärv av licenser;
  • förenkling av service och administration;
  • möjligheten till "migrering" av OS och själva servrarna.

Egentligen är fördelarna med att använda sådan teknik mycket större. Även om det kan tyckas att det finns några allvarliga nackdelar, korrekt organisation hela infrastrukturen och använda nödvändiga kontroller för att smidig drift i de flesta fall kan dessa situationer undvikas.

Slutligen, för många, frågan om att välja mjukvara och praktiskt genomförande virtualisering. Men här är det bättre att vända sig till specialister för hjälp, eftersom vi i det här fallet bara stod inför frågan om allmän bekantskap med servervirtualisering och möjligheten att införa systemet som sådant.

Virtualisering är en teknik som abstraherar processer och deras representationer från datorresurser. Konceptet virtualisering är långt ifrån nytt och introducerades redan på 60-talet av IBM.

Följande typer av virtualisering kan särskiljas:

Typiska exempel på virtuella maskiner är VMware Workstation och Microsoft Virtual PC-datorer som huvudsakligen används för teständamål systemadministratörer och mjukvaruutvecklare. VMware släpptes också gratis version VMware Server, som låter dig köra flera virtuella servrar på en fysisk server, kombinera dem i ett nätverk, använda dem som vanliga servrar i sällskap. Men dessa produkter har en betydande nackdel - det här är prestanda. Eftersom alla virtuella maskiner körs som applikationer tilldelas de på lämpligt sätt operativsystemets resurser, vilket i sin tur allokerar den fysiska serverns resurser. Som ett resultat visar sig prestandan för ens en virtuell maskin vara flera gånger lägre än prestandan för en fysisk server.

Situationen förändrades dramatiskt när hårdvarustöd för virtualisering dök upp i processorer – Hypervisor. VMware vSphere 5 (ESXi) och Microsoft Hyper-V släpptes. Dessa produkter är kompletta servervirtualiseringslösningar som gör att virtuella maskiner kan prestera nästan lika snabbt som den fysiska server de körs på. Dessa lösningar möjliggör virtualisering i hela företaget. Således är det möjligt på begränsad mängd Högpresterande servrar skapar en ganska kraftfull miljö som består av hundratals virtuella servrar som kommer att köra företagsapplikationer, affärssystem, databasservrar, etc. V det här ögonblicket inget datacenter är komplett utan servervirtualiseringssystem.

Fördelar med virtualisering:

  • Minskade utrustningskostnader. Genom att konsolidera flera virtuella servrar på en enda fysisk server kan virtualisering avsevärt minska kostnaderna för serverutrustning... Dussintals och till och med hundratals virtuella servrar kan fungera samtidigt på en fysisk server.
  • Minskade mjukvarukostnader. Flera programvaruleverantörer har infört separata licenssystem specifikt för virtualiserade miljöer. Så om du till exempel köper en licens för Microsoft Windows Server 2008 R2 Enterprise får du rätten att samtidigt använda den på 1 fysisk server och 4 virtuella (inom en server), och Windows Server 2008 R2 Datacenter är endast licensierad för antalet processorer och kan användas samtidigt på ett obegränsat antal virtuella servrar.
  • Minskade underhållskostnader. Färre utrustning är enklare och billigare att underhålla.
  • Minskade energikostnader. I genomsnitt är 70 % av tiden servrar inaktiva, förbrukar ström och genererar stora mängder värme. Virtualisering möjliggör mer effektiv användning av processortid och ökar utnyttjandet med upp till 90 %.
  • Ökad infrastrukturflexibilitet. Virtualisering gör att programvara kan abstrahera bort från fysisk hårdvara. Därmed blir det möjligt att migrera virtuella maskiner mellan olika fysiska servrar. Tidigare, när en server gick ner, var det nödvändigt att installera om operativsystemet, återställa data från säkerhetskopior, vilket tog timmar. Nu räcker det att migrera en virtuell maskin från en server till en annan, utan någon ominstallation. Både VmWare och Hyper-V tillhandahåller migreringsverktyg fysiska maskiner till virtuella.
  • Öka feltoleransnivån. Virtualisering ger ett sätt att gruppera en hel server, oavsett vilken programvara som körs på den. Ger möjlighet att klustra icke-klustrade tjänster. I detta fall erhålls inte klustring i sin rena form, eftersom den virtuella maskinen startas faktiskt om. Men i händelse av ett fysiskt serverfel kommer den virtuella maskinen automatiskt att starta på en annan server utan inblandning av en systemadministratör.

LanKey är en ledande rysk systemintegratör och har även status som Microsoft Gold Certified Partner och VMware VIP Partner. Vi erbjuder företagsomfattande servervirtualiseringslösningar baserade på Microsoft Hyper-V. LanKey erbjuder tjänster för konstruktion av databehandlingscenter (DPC) med hjälp av virtualiseringsteknologier. Vi har framgångsrikt genomfört ett antal projekt om implementering av virtualiseringssystem baserade på produktdatabasen, som finns i avsnittet Avslutade projekt.

LanKays certifierade specialister kommer att ge dig råd i alla frågor relaterade till virtualiseringsteknologier, hjälpa dig att välja den optimala lösningen för din IT-infrastruktur, samt utföra implementering och support av eventuella virtualiseringslösningar.

Exempel på några projekt för VMware och Hyper-V virtualisering implementerade av LanKey:

Kund

Lösningsbeskrivning


Som en del av den planerade moderniseringen av IT-infrastrukturen har LanKey distribuerat ett kluster av virtuella maskiner baserade på Microsoft hypervisor Hyper-V från Windows sammansättning Server 2012 Datacenter. Bladservrar och HP-lagringssystem användes som serverplattform. Som ett system Reserv exemplar Microsoft System Center Data Protection Manager (DPM) 2012 implementerades. Och för att automatisera hanteringen av virtuell miljö implementerades Microsoft System Center Virtual Machine Manager (SCVMM) 2012. Feedback mottogs från kunden baserat på projektresultaten.


I samband med öppnandet av ett nytt produktionskomplex i Moskvaregionen var uppgiften att bygga en serverinfrastruktur för att automatisera processer i lager. LanKay har byggt ett kluster av virtuella maskiner baserade på VMware vSphere 5 hypervisor, samt servrar och lagringssystem IBM-data... Baserat på resultatet av det utförda arbetet erhölls en positiv feedback från kunden.

Ett feltolerant och skalbart kluster av virtuella maskiner baserade på Hyper-V från Windows Server 2012 Datacenter byggdes. Klusterhårdvaruplattformen baserades på HP c7000-serverblad och NetApp FAS2240-lagringssystem.


Som en del av projektet att skapa en IT-infrastruktur byggdes ett kluster av virtuella maskiner på Windows baserad Server 2012 Hyper-V. För att bygga klustret användes IBM-servrar och lagringssystem. Symantec BackUp Exec 2012 V-Ray Edition distribuerades som ett backupsystem. Inledningsvis byggdes hela infrastrukturen ut utifrån molntjänster LanKays IaaS, varefter alla virtuella maskiner migrerades från molninfrastrukturen till kundens lokala kluster.


LLC RN-Energo är det största oberoende energiförsäljningsföretaget som levererar el till konsumenter i hela Ryska federationen.

Som en del av moderniseringsprojektet för RN-Energos datacenter har LanKey byggt ett failover-kluster av virtuella maskiner baserade på VMware vSphere 5.1. De befintliga bladsystemen moderniserades, liksom installationen av nya servrar och datalagringssystem. Den befintliga serverkapaciteten och kritiska affärssystem migrerades till ett nytt kluster av virtuella maskiner, samtidigt som kontinuiteten i verksamheten bibehölls. För att genomföra affärsuppgifterna att lagra, säkerhetskopiera och återställa information infördes ett säkerhetskopieringssystem för data virtuell miljö baserat på Veeam BackUp, vilket gjorde det möjligt att uppnå de erforderliga RTO- och RPO-indikatorerna.


Inom ramen för projektet för att skapa IT-infrastruktur för JSC "Quadra-R" failover-kluster virtuella maskiner baserade på VMware vSphere 5.1. Servrar och datalagringssystem tillverkade av HP användes. För att säkerställa backupuppgifter implementerades ett backupsystem baserat på Veeam BackUp & Replication, som är en av marknadsledarna. Strömredundans implementerades på basis av APC UPS. Alla relaterade tjänster distribuerades på basis av det inbyggda klustret av virtuella maskiner.

I samband med transaktionen för köp av 100 % av aktierna i SIBUR-Minudobreniya OJSC (senare omdöpt till SDS-Azot OJSC) i Siberian Business Unions holdingbolag i december 2011, blev det nödvändigt att separera IT-infrastrukturen för SDS OJSC - Azot "från nätverket SIBUR Holding.

Idag ska jag berätta vad virtualisering är, vad det är till för och vad det kommer att ge dig när du implementerar det. Låt oss överväga konceptet med en hypervisor. Låt oss ta en titt på hur detta är organiserat av VMware med hjälp av exemplet på dess ESXI 5.5-produkt. Huvuduppgiften för alla företag på Internet är tillgängligheten till dess tjänster. Servrarna fungerar korrekt på järnservrar, föreställ dig en situation där 5 olika tjänster lever på en kraftfull fysisk server. De har alla tillgång till en filsystem, till resurserna, de fungerar bra. Tiden går och de börjar störa varandra, förbi olika anledningar uppdateringar på eller själva operativsystemet. Som ett resultat får du att på grund av en tjänst slutar jag att fungera normalt eller resten 4. Virtualisering hjälper bara ett företag att konsolidera resurser och göra varje tjänst oberoende inom en fysisk server.

Kom ihåg den gyllene regeln en server, en tjänst

Fysisk infrastruktur

Låt oss ta en titt på hur applikationen fungerar på fysisk nivå. V modern värld om vi tar hänsyn till hårdvaran på servrarna är den i 90 procent av fallen inte fulladdad, i snitt 50-60 procent, vilket innebär lågt resursutnyttjande. Ett exempel på ohållbar användning är DHCP-tjänsten, som av enkel definition och kan betjäna minst 1000 klienter, oavsett om det är på Windows eller Linux. Som ett resultat, genom att köra den på en kraftfull server, använder du den dåligt, underbelastar den, slösar bort extra energi, ju fler sådana servrar du har, desto kraftfullare behövs kylsystemet, kraftfullare system reservströmförsörjning, mer fysiskt utrymme i enheten. Kort sagt, som ni förstod de flesta, men när virtualiseringstekniken kom förändrades allt, men mer om det senare. Nedan är ett diagram över hur applikationen fungerar på en fysisk server.

Det finns en fysisk värd där operativsystemet är installerat och programmet körs redan i det. Du kan ansluta ISCSI, NFS, FC lagringssystem till den fysiska värden.

En så stor topp kunde inte hålla länge, och verksamheten blev trött på att förlora pengar på ny utrustning. Och det var här virtualisering kom in i deras liv. Så magiskt, inte tydligt ord det från framtiden. Virtualiseringsteknik har hjälpt till att konsolidera serverresurser, vilket gör att många isolerade operativsystem som uppriktigt anser sig vara oberoende kan köras inom en enda fysisk server. på en separat server med virtuell hårdvara. Kunden, som konsument, är inte alls intresserad av någonting alls, vad hans tjänst är implementerad på, om det är post, om det är en databas, hans huvudprodukt, men det är mer lönsamt för företagen när, inom ram av en server, kunde de skjuta den på honom fler tjänster och sälja dem till kunden. Bala löste ett problem till är att stödja gamla applikationer som är skrivna för någon form av Windows 95, men du vill uppgradera, som ett resultat skapar du en separat virtuell maskin med den och lever lugnt. Övergången från en hårdvara till en annan har blivit lättare, överföringen utförs i farten utan att stängas av, i de flesta fall. Så om en fysisk server går sönder kommer du att kunna köra en virtuell maskin på en annan, utan problem.

Exempel från verkligheten: Det finns en HP-server, den är 4 år gammal, dess garanti har löpt ut. En av de vackra dagarna på skivorna började smulas sönder, att ersätta en av dessa kostade 800 spänn. Dessa pengar användes för att köpa 3 SSD Samsung evo 850, känn skillnaden. Som ett resultat installerades alla ssd på servern och den förvandlades till en virtualiseringsvärd, där alla samma virtuella maskiner med samma tjänster flyttades till den. Och om det bara fanns en fysisk server så skulle allt vara täckt med en kopparbassäng. Virtualisering räddade oss från stora hemorrojder.

Virtualiseringens historia

Historien om denna idé och teknik började redan på det avlägsna 90-talet, den första som implementerade den av VMware. Hon erbjöd alternativet att resurserna för en stort monster, kan delas in i alla och leva som en bror, så här dök begreppet hypervisor ut. Hypervisorn är lagret mellan operativsystemet och hårdvaran som hjälper till att implementera virtualisering. I VMware är detta VMkernel-processen.

Den virtuella infrastrukturen ser ut så här, det finns en ESXi-värd, på den finns ett hepervisor VMware vSphere-lager ovanpå vilket det redan finns virtuella maskiner. Och alla FC, NFS, ISCSI-anslutningar går bara till ESXi-värden, som ger det hela till hypervisorn, där den omfördelar allt vidare till de lidande.

Nedan är en bild på hur fysisk arkitektur och vmware-virtualisering ser ut. I fysisk arkitektur fungerar OS ovanpå hårdvaran. Med tanke på vmware-virtualisering är allt lite annorlunda här. Skillnaden ligger i ESXI hypervisorlagret (VMware vSphare). VMware vSphare Låter dig starta instanser av virtuella maskiner och emulera hårdvara för dem. I en sådan implementering kommer det att finnas ett annat system för kommunikation med resurser. Vi kommer att prata om detta i framtiden.

En sak i virtualiseringsvärlden som aldrig blir virtualiserad är vänner. CPU-processor... Virtualisering vmware eller MS vet inte hur man gör detta. När du startar en virtuell maskin, beroende på inställningarna, tar den emot en eller flera kärnor, den virtuella maskinen inser vilken typ av CPU, version och frekvens på den, den skickar alla kommandon direkt till den. Därför är det mycket viktigt att korrekt fördelning av CPU-kärnorna är så att de virtuella maskinerna inte stör varandra.

När det gäller nätverksvirtualisering är fallet följande. Om vi ​​överväger en fysisk server, då att ha en nätverksadapter, använder den den uteslutande, med all bandbredd. Med tanke på en virtuell arkitektur, det vill säga en virtuell switch till vilken virtualiserade nätverkskort är anslutna, och en virtuell switch kommunicerar redan med en fysisk nätverksadapter eller adaptrar. Allt genomströmning uppdelad i alla virtuella maskiner, men prioriteringar kan konfigureras.

Det återstår att överväga diskundersystemet. Till vänster är den klassiska situationen med en järnvärd, oavsett hur OS kommer allt att användas i monopol... Med tanke på virtuella hårddiskar är detta annorlunda. Varje geting tror att den har en riktig hårddisk, men i själva verket är det en fil på delad lagring, som filerna på andra virtuella maskiner. Och det spelar ingen roll vilket protokoll lagringen är ansluten till värden med.