Installere og konfigurere en virtuell server. Virtualiseringsteknologier. Firmaet vårt er partner av VMware, en profesjonell løsningsleverandør

Ordet «virtualisering» har nylig blitt en slags «mote» i IT-miljøet. Alle maskinvare- og programvareleverandører, alle IT-selskaper roper enstemmig at virtualisering er kult, moderne og alle trenger det. Men i stedet for å bli ledet av markedsføringsslagord (og noen ganger er de slik at Goebbels selv ville ha dødd av misunnelse), la oss prøve å se på dette buzzword fra synspunktet til enkle "techies" og bestemme om vi trenger det eller ikke ...

Typer virtualisering

Så la oss starte med det faktum at virtualisering er delt inn i tre typer:

  • Virtualisering av visninger
  • Applikasjonsvirtualisering
  • Servervirtualisering

MED virtualisering av visninger mange av dere er kjent: Det mest slående eksemplet er terminaltjenester Windows Server... Terminalserveren gir sine dataressurser til klienter, og klientapplikasjon kjøres på serveren, mottar klienten kun et "bilde", det vil si en visning. Denne tilgangsmodellen gjør det for det første mulig å redusere kravene til programvare og maskinvare på klientsiden, for det andre reduserer den kravene til nettverksbåndbredde, og for det tredje forbedrer den sikkerheten. Når det gjelder utstyret, kvaliteten terminalklienter til og med smarttelefoner eller gamle datamaskiner opp til Pentium 166 kan brukes, for ikke å snakke om spesialiserte tynnklienter. Det er for eksempel tynnklienter i Legrand socket form factor, montert i en boks. På klientarbeidsstasjoner er det nok å installere kun en skjerm, tastatur og mus - og du kan jobbe. Det er ikke nødvendig å ha en høyhastighetsforbindelse for å jobbe med en terminalserver. lokalt nettverk, selv en lavhastighetsforbindelse med en båndbredde på 15-20 kbit / s er ganske nok, derfor er terminalløsninger veldig egnet for selskaper med en svært distribuert struktur (for eksempel et nettverk av små butikker). Også ved bruk tynne klienter sikkerheten er kraftig forbedret fordi brukere bare kan få lov til å kjøre et begrenset sett med applikasjoner og ikke få lov til å installere sine egne. egne søknader... I prinsippet kan det samme gjøres med fullverdige klientarbeidsstasjoner, men ved bruk av terminaltjenester vil det være mye lettere å gjøre dette, spesielt - uten å gi tilgang til hele skrivebordet, men kun ved å publisere individuelle applikasjoner (eventuelt i Citrix Metaframe / PS, men også i Windows Server 2008 og nyere). Dessuten kan ingen informasjon kopieres til og fra eksterne medier, hvis dette ikke er eksplisitt tillatt i innstillingene for terminaltjenester. Det vil si at problemet med "virus på flash-stasjoner" forsvinner automatisk. En annen ubestridelig fordel er reduksjonen i kompleksiteten til administrasjonen: det gjør det lettere å oppdatere applikasjoner (det er nok å oppdatere dem på serveren), og arbeidet med støttetjenester er forenklet: terminaløkt enhver bruker kan koble til eksternt uten å installere ekstra programvare.
Det er to ulemper med slike systemer: for det første behovet for å kjøpe kraftigere servere (selv om dette kan være billigere enn mange klientarbeidsstasjoner med ytelsesegenskaper som er tilstrekkelige til å kjøre applikasjoner lokalt), og for det andre, fremveksten av et enkelt feilpunkt i form terminalserver... Dette problemet løses gjennom bruk av klynger, eller serverfarmer, men dette fører til en enda større økning i kostnadene for systemet.

Applikasjonsvirtualisering- ganske interessant og relativt ny retning. Jeg vil ikke snakke om det i detalj her, siden dette er et emne for en hel egen artikkel. Kort sagt, applikasjonsvirtualisering lar deg kjøre egen søknad i sin egen isolert miljø(noen ganger kalt en sandkasse). Denne metoden hjelper til med å løse mange problemer. Først, igjen, sikkerhet: en applikasjon som kjører i et isolert miljø er ikke i stand til å skade OS og andre applikasjoner. For det andre kan alle virtualiserte applikasjoner oppdateres sentralt fra én enkelt kilde. For det tredje lar applikasjonsvirtualisering deg kjøre flere forskjellige applikasjoner i konflikt med hverandre, eller til og med flere forskjellige versjoner samme applikasjon. Flere detaljer om applikasjonsvirtualisering finner du for eksempel i denne webcasten: www.techdays.ru/videos/1325.html Kanskje en dag vil jeg til og med skrive en artikkel om dette emnet.

Til slutt, la oss gå videre til servervirtualisering og dvele ved det i detalj.
Servervirtualisering er en programvaresimulering som bruker spesiell programvare for datamaskinens maskinvare: prosessor, minne, HDD, etc. Videre kan et operativsystem installeres på en slik virtuell datamaskin, og det vil fungere på den på samme måte som på en enkel "jern" datamaskin. Den mest interessante fordelen med denne teknologien er muligheten til å kjøre flere virtuelle datamaskiner inne i en "maskinvare", mens alle virtuelle datamaskiner kan jobbe uavhengig av hverandre. Hva kan den brukes til?
Det første du tenker på er at servervirtualisering kan brukes til opplærings- og testformål. For eksempel kan nye applikasjoner eller operativsystemer testes før de lanseres i industriell drift i et virtuelt miljø, uten å kjøpe inn maskinvare spesielt for dette og uten å risikere å lamme arbeidet til IT-infrastrukturen dersom noe går galt.

Men bortsett fra det kan servervirtualisering også brukes i et produksjonsmiljø. Det er mange grunner til dette.
Virtualisering lar deg redusere antall servere gjennom konsolidering, det vil si der det tidligere var nødvendig med flere servere - nå kan du sette en server og kjøre riktig nummer gjesteoperativsystemer i et virtuelt miljø. Dette vil spare på kostnadene ved å kjøpe utstyr, samt redusere strømforbruket, og dermed varmespredningen av systemet - og derfor kan du bruke mindre kraftige, og følgelig billigere kjølesystemer. Men det har også denne medaljen baksiden, og ikke en. Faktum er at når du implementerer løsninger basert på virtualisering, vil du mest sannsynlig måtte kjøpe nye servere. Faktum er at virtuelle servere bruker maskinvareressursene til en fysisk server, og følgelig mer kraftige prosessorer, store volumer tilfeldig tilgangsminne, samt et mer høyhastighets diskundersystem, og mest sannsynlig et større volum. I tillegg krever noen virtualiseringssystemer (spesielt - MS Hyper-V) at prosessoren støtter mask(Intel VT eller AMD-V) og noen andre prosessorfunksjoner. Mange prosessorer som ble utgitt inntil nylig, spesielt - alle x86_32bit - oppfyller ikke disse kravene, og derfor må gamle, om enn ganske fungerende, servere forlates. Imidlertid vil en kraftigere server mest sannsynlig koste mye mindre enn flere mindre kraftige, og de gamle serverne vil sannsynligvis bli erstattet på grunn av foreldelse.

Det er en annen veldig viktig poeng: Servervirtualisering lar deg forenkle infrastrukturadministrasjonen til det ytterste. Den største fordelen, som vil bli verdsatt av alle systemadministratorer, er muligheten til ekstern tilgang til konsollen til virtuelle servere på "maskinvare", mer presist - "virtuell maskinvare" nivå, uavhengig av det installerte gjeste-OSet og dets tilstand. Så for å starte en "frossen" server på nytt, trenger du ikke å løpe til serverrommet, eller kjøpe dyrt utstyr som IP-KVM-svitsjer, du trenger bare å gå til konsollen virtuell server og trykk på "Tilbakestill"-knappen. I tillegg støtter virtuelle servere snapshot-teknologi (se min forrige artikkel om det), samt sikkerhetskopiering og gjenoppretting virtuelle systemer mye enklere.

En annen ubestridelig fordel er at operativsystemet som kjører inne i en virtuell maskin (gjeste-OS) ikke har noen anelse om hvilken maskinvare som er installert på den fysiske serveren den kjører på (vert). Derfor, når du skifter jern, når du oppgraderer eller til og med flytter til ny server du trenger bare å oppdatere drivere på selve verts-OSet (vert-OS). Guest OS-programvare vil fungere som før, siden bare virtuelle enheter blir "sett".

Jeg vil også minne deg på at i et virtuelt miljø kan spesielle programvarelisensregler gjelde (spesielt ved å kjøpe en lisens for Microsoft Windows Server 2008 Enterprise kan du bruke fire kopier av operativsystemet gratis som gjest, og Microsoft Windows Server 2008 Datacenter lar deg vanligvis bruke et ubegrenset antall gjeste-OS underlagt full prosessorlisens).

Dessuten kan man ikke unngå å nevne feiltoleranseteknologier. Fysiske servere som kjører virtuelle maskiner kan kombineres til en klynge, og hvis en av serverne svikter, kan de automatisk "flytte" til en annen. Det er ikke alltid mulig å oppnå full feiltoleranse (spesielt i MS Hyper-V vil en slik "plutselig bevegelse" se lik ut og ha de samme mulige konsekvensene som et plutselig strømbrudd på serveren), men mulig nedetid vil bli kraftig redusert: "flyttingen" tar noen minutter, mens reparasjonen eller utskiftingen av selve serveren kan ta timer, om ikke dager. Hvis "flyttingen" virtuelle maskiner skjer i normal operasjon, så kan det passere helt ubemerket av brukerne. Slike teknologier kalles forskjellig av forskjellige leverandører, for eksempel kaller MS det "Live Migration", VMware kaller det Vmotion. Bruken av slike teknologier vil gjøre det mulig å utføre arbeid relatert til å slå av serveren (for eksempel bytte ut noen maskinvarekomponenter, eller restarte OS etter installasjon kritiske oppdateringer) v arbeidstid og uten å sparke brukere ut av favorittappene deres. I tillegg, hvis infrastrukturen er bygget på riktig måte, kan kjørende virtuelle maskiner automatisk flytte til mindre belastede servere, eller omvendt, "losse ut" de mest lastede. Infrastruktur basert på Microsoft-teknologier bruker System Center til dette. Virtuell maskin Leder og driftsleder.

Avslutningsvis, temaet servervirtualisering – jeg legger merke til at virtualisering ikke alltid er like nyttig. Spesielt vil det ikke alltid være en god idé å overføre høyt belastede servere til et virtuelt miljø, og spesielt høyt belastede servere på diskundersystemet - disse er "tunge" DBMS, Exchange Server, spesielt postkasseserverrollen og andre høybelastningsapplikasjoner. Men servere med lavere belastning (domenekontrollere AD, WSUS, alle typer System Center * Manager, webservere) kan og må til og med virtualiseres. La meg merke, forresten, at det er med domenekontrollere at det er svært ønskelig at minst én av kontrollerene er "hardware", det vil si ikke virtuell. Dette er nødvendig fordi for riktig arbeid av hele infrastrukturen er det ønskelig at når alle andre servere startes, er minst én CD allerede tilgjengelig på nettverket.

Sammendrag

Så la oss oppsummere: hva slags virtualisering kan komme godt med når, og hva er fordelene og ulempene.
Hvis du har mange brukere som jobber med samme sett med programvare, og systemet er svært distribuert geografisk, bør du tenke på å bruke presentasjonsvirtualisering, det vil si terminaltjenester.

Fordelene med et slikt system:

  • Reduserte maskinvarekrav på klientsiden
  • Reduserte krav til nettverksbåndbredde
  • Økt sikkerhet
  • Betydelig forenklet administrasjon og support

Ulemper:
  • Økende krav til servere, både når det gjelder ytelse og pålitelighet
  • Potensielt enkelt feilpunkt

Hvis du har mange applikasjoner som ikke fungerer riktig i det nye OS, eller er i konflikt med hverandre, eller du må kjøre flere versjoner av samme program på samme datamaskin, så trenger du virtualisering på applikasjonsnivå.

Fordeler:

  • Sikkerhet
  • Enkel administrasjon - sentralisert oppdatering og differensiering av tilgangsrettigheter til applikasjoner

Ulemper:
  • Noen problemer med å forstå teknologi og praktisk implementering.

Hvis du trenger å frigjøre rackplass, redusere strømforbruket til systemene, kvitte deg med «server zoo» – så er løsningen din servervirtualisering.

Fordelene med denne løsningen:

  • Spar plass i stativer
  • Redusert strømforbruk og varmeavledning
  • Forenklet administrasjon
  • Omfattende muligheter for å automatisere distribusjon og serveradministrasjon
  • Reduksjon av tvungen og planlagt nedetid på systemet på grunn av failover-klynger og live-migrering
  • Lar (når du bruker Microsoft Windows Server) lagre på gjeste OS-lisenser

Ulempene er i prinsippet de samme som ved terminalløsninger:

  • Økende krav til servermaskinvare
  • Potensielt enkeltpunkt for feil – fysisk vert og vertsoperativsystem

Jeg håper artikkelen min vil være nyttig for noen. Takknemlighet og konstruktiv kritikk kan som alltid uttrykkes i kommentarene.

Virtualisering i databehandling, prosessen med å representere et sett med dataressurser, eller deres logiske kombinasjon, som gir noen fordeler i forhold til den opprinnelige konfigurasjonen. Dette er et nytt virtuelt blikk på ressurser som ikke er begrenset av implementering, geografi eller fysisk konfigurasjon. komponent deler... Vanligvis inkluderer virtualiserte ressurser datakraft og datavarehus.

"Markedet for servervirtualisering har modnet mye de siste årene. I mange organisasjoner er mer enn 75 % av serverne virtuelle, noe som indikerer et høyt nivå av metning, sier Michael Warrilow, forskningsdirektør i Gartner.

Holdningene til virtualisering varierer mer enn noen gang blant organisasjoner av ulike størrelser, sier analytikere. Virtualiseringens popularitet blant selskaper med større IT-budsjetter i 2014-2015 holdt seg på samme nivå. Disse selskapene fortsetter å bruke virtualisering aktivt, og dette segmentet nærmer seg metning. Blant organisasjoner med mindre IT-budsjetter forventes virtualisering å avta i popularitet i løpet av de neste to årene (til slutten av 2017). Denne trenden er allerede observert.

« Fysikalisering»

I følge Gartners observasjoner tyr bedrifter i økende grad til såkalt «physicalization» – kjører servere uten virtualiseringsprogramvare. Mer enn 20 % av disse selskapene forventes å ha virtualisert mindre enn en tredjedel av operativsystemene sine på x86-baserte servere innen utgangen av 2017. Til sammenligning var det i 2015 halvparten av slike organisasjoner.

Analytikere påpeker at selskaper har ulike grunner til å forlate virtualisering. I dag har kundene nye muligheter – de kan dra nytte av programvaredefinert infrastruktur eller hyperkonvergerte integrerte systemer. Fremveksten av slike alternativer tvingerører til å ta mer handling: å utvide funksjonaliteten til løsningene deres tilgjengelig "ut av boksen", for å forenkle interaksjon med produkter og for å forkorte returtiden for kundene.

Hyperkonvergerte integrerte systemer

Tidlig i mai 2016 publiserte Gartner sine hyperkonvergerte integrerte systemer. Ifølge analytikere vil dette segmentet i 2016 vokse med 79 % sammenlignet med 2015 til nesten 2 milliarder dollar og vil nå mainstream-stadiet innen fem år.

I de kommende årene vil segmentet av hyperkonvergerte integrerte systemer vise de høyeste vekstratene av alle andre integrerte systemer. Ved utgangen av 2019 vil den vokse til rundt 5 milliarder dollar og okkupere 24% av det integrerte systemmarkedet, spår Gartner, og bemerker at veksten i denne retningen vil føre til kannibalisering av andre markedssegmenter.

Analytikere omtaler hyperkonvergerte integrerte systemer (HCIS) som maskinvare- og programvareplattformer som kombinerer programvaredefinerte datanoder og programvaredefinerte lagringssystem, standard medfølgende utstyr og et felles kontrollpanel.

Typer virtualisering

Virtualisering er et generisk begrep som omfatter ressursabstraksjon for mange aspekter ved databehandling. Noen av de mer typiske eksemplene på virtualisering er gitt nedenfor.

Paravirtualisering

Paravirtualisering er en virtualiseringsteknikk der gjesteoperativsystemer er forberedt til å kjøre i et virtualisert miljø ved å endre kjernen litt. Operativsystemet samhandler med hypervisorprogrammet, som gir det gjeste-API, i stedet for direkte å bruke ressurser som minnesidetabellen. Virtualiseringskoden er lokalisert direkte til operativsystemet. Paravirtualisering krever at gjesteoperativsystemet endres for hypervisoren, og dette er en ulempe med denne metoden, siden en slik endring kun er mulig hvis gjesteoperativsystemene har åpne kildekoder som kan endres under lisens. �Samtidig tilbyr paravirtualisering ytelse nesten som et ekte ikke-virtualisert system, samt muligheten til å støtte forskjellige operativsystemer samtidig, som med full virtualisering.

Infrastrukturvirtualisering

I dette tilfellet vil vi forstå med dette begrepet opprettelsen av en IT-infrastruktur, uavhengig av maskinvaren. For eksempel når tjenesten vi trenger er plassert på den virtuelle gjestemaskinen og i prinsippet spiller det ingen rolle for oss hvilken fysisk server den er plassert på.

Virtualisering av servere, skrivebord, applikasjoner - det er mange metoder for å lage en slik uavhengig infrastruktur. I dette tilfellet plasseres flere virtuelle eller "gjeste"-maskiner på en enkelt fysisk eller vertsserver ved hjelp av spesiell programvare kalt en "hypervisor".

Moderne virtualiseringssystemer, spesielt VMware og Citrix XenServer, fungerer for det meste etter prinsippet om bart metall, det vil si at de er installert direkte på "bart metall".

Eksempel

Det virtuelle systemet er ikke bygget på en bare metall hypervisor, men på en kombinasjon av Linux CentOS 5.2 operativsystem og VMware Server-basert serverplattform Intel SR1500PAL, 2 Intel-prosessor Xeon 3.2 / 1/800, 4Gb RAM, 2xHDD 36Gb RAID1 og 4xHDD 146Gb i RAID10 med en total kapasitet på 292Gb. Vertsmaskinen er vert for fire virtuelle maskiner:

  • post Postfix server Operasjonssal FreeBSD-systemer(Unix). For postlevering slutt bruker POP3-protokollen ble brukt.
  • Squid proxy-server basert på det samme FreeBSD-systemet.
  • dedikert domenekontroller, DNS, DHCP basert på Windows 2003 Server Standard Edition.
  • administrerende direktør arbeidsstasjon basert på Windows XP for forretningsformål.

Servervirtualisering

  • En virtuell maskin er et miljø som for et "gjest"-operativsystem fremstår som maskinvare. Imidlertid er det faktisk et programvaremiljø som simuleres av vertssystemprogramvaren. Denne simuleringen må være robust nok til at gjestesjåførene kan kjøre problemfritt. Når du bruker paravirtualisering, simulerer ikke den virtuelle maskinen Maskinvare, og foreslår i stedet å bruke spesialen

Nylig har brukere i økende grad hørt om et konsept som "virtualisering". Applikasjonen antas å være kul og moderne. Men ikke alle brukere forstår klart hva virtualisering er generelt og spesielt. La oss prøve å kaste lys over dette problemet og berøre servervirtualiseringssystemer. I dag er disse teknologiene de mest avanserte, siden de har mange fordeler når det gjelder sikkerhet og administrasjon.

Hva er virtualisering?

La oss starte med det enkleste – definisjonen av et begrep som beskriver virtualisering som sådan. Vi noterer oss med en gang at på Internett kan du finne og laste ned noen manualer om dette problemet, som guiden "Server Virtualization for Dummies" i PDF-format. Men når man studerer materialet, kan en utrent bruker støte på stort beløp uforståelige definisjoner. Derfor vil vi prøve å avklare essensen av problemet, så å si, på fingrene.

Først av alt, når vi vurderer servervirtualiseringsteknologi, la oss fokusere på det første konseptet. Hva er virtualisering? Etter enkel logikk er det lett å gjette at dette begrepet beskriver opprettelsen av en viss emulator (likhet) av en fysisk eller programvarekomponent. Det er med andre ord en interaktiv (virtuell) modell som ikke eksisterer i virkeligheten. Det er imidlertid noen nyanser her.

De viktigste typene virtualisering og teknologier som brukes

Faktum er at det er tre hovedretninger i konseptet med virtualisering:

  • representasjon;
  • applikasjoner;
  • servere.

For forståelse vil det enkleste eksemplet være bruken av såkalte som gir brukerne sine egne dataressurser. Brukerprogram den kjøres på og brukeren ser bare resultatet. Denne tilnærmingen gjør det mulig å redusere Systemkrav til en brukerterminal hvis konfigurasjon er utdatert og ikke kan håndtere de gitte beregningene.

For applikasjoner er slike teknologier også mye brukt. Det kan for eksempel være virtualisering av en 1C-server. Essensen av prosessen er at programmet lanseres på én isolert server, og et stort antall eksterne brukere... Oppdatering av en programvarepakke er laget fra en enkelt kilde, for ikke å nevne det høyeste nivået sikkerheten til hele systemet.

Til slutt innebærer det opprettelsen av et interaktivt datamiljø, servervirtualisering der fullstendig gjentar den virkelige konfigurasjonen til "jern"-brødrene. Hva betyr dette? Ja, det faktum at du stort sett på én datamaskin kan lage en eller flere ekstra som vil fungere i sanntid, som om de eksisterte i virkeligheten (servervirtualiseringssystemer vil bli diskutert mer detaljert litt senere).

I dette tilfellet spiller det ingen rolle i det hele tatt hvilket operativsystem som skal installeres på hver slik terminal. I det store og hele har dette ingen effekt på hoved-(vert)-operativsystemet og den virtuelle maskinen. Dette ligner på samspillet mellom datamaskiner med forskjellige operativsystemer på et lokalt nettverk, men i dette tilfellet kan det hende at virtuelle terminaler ikke er koblet til hverandre.

Utvalg av utstyr

En av de eksplisitte og ubestridelige fordeler virtuelle servere er å redusere materialkostnadene for å lage en fullt funksjonell maskinvare- og programvarestruktur. For eksempel er det to programmer som krever 128 MB RAM for normal drift, men de kan ikke installeres på samme fysiske server. Hvordan gå frem i dette tilfellet? Du kan kjøpe to separate 128 MB servere og installere dem separat, eller du kan kjøpe en med 128 MB "RAM", lage to virtuelle servere på den og installere to applikasjoner på dem.

Hvis noen ennå ikke har forstått, i det andre tilfellet vil bruken av RAM være mer rasjonell, og materialkostnadene er betydelig lavere enn når du kjøper to uavhengige enheter. Men dette er ikke det eneste.

Sikkerhetsfordeler

Som regel innebærer selve serverstrukturen tilstedeværelsen av flere enheter for å utføre visse oppgaver. For sikkerhets skyld installerer systemadministratorer domenekontrollere Active Directory og Internett-gatewayer er ikke på én, men på forskjellige servere.

Ved forsøk på forstyrrelse utenfra, angripes alltid gatewayen først. Hvis det også er installert en domenekontroller på serveren, er det stor sannsynlighet for skade på AD-databasene. I en situasjon med målrettede handlinger kan angripere ta over alt dette. Og å gjenopprette data fra en sikkerhetskopi er ganske plagsomt, selv om det tar relativt kort tid.

Hvis du nærmer deg dette problemet fra den andre siden, kan det bemerkes at servervirtualisering lar deg omgå installasjonsbegrensninger, samt raskt gjenopprette ønsket konfigurasjon, fordi sikkerhetskopien er lagret i selve den virtuelle maskinen. Det antas imidlertid at servervirtualisering med Windows Server (Hyper-V) ser upålitelig ut i denne visningen.

I tillegg er spørsmålet om lisensiering fortsatt ganske kontroversielt. Så for eksempel, for Windows Server 2008 Standard, er bare én virtuell maskin gitt, for Enterprise - fire, og for Datacenter - et ubegrenset antall (og til og med kopier).

Administrasjonsspørsmål

Fordelene med denne tilnærmingen, for ikke å nevne sikkerheten og kostnadsbesparelsene, selv når Windows Server-servere er virtualiserte, bør først og fremst verdsettes av systemadministratorene som vedlikeholder disse maskinene eller LAN-ene.

Skapelse blir veldig ofte sikkerhetskopier systemer. Vanligvis, når du oppretter en sikkerhetskopi, kreves tredjepartsprogramvare, og lesing fra et optisk medium eller til og med fra nettverket tar lengre tid, sammenlignet med hastigheten til diskundersystemet. Kloning av selve serveren kan gjøres med bare et par klikk, og deretter distribuere raskt et brukbart system selv på "ren" maskinvare, hvoretter det vil fungere uten avbrudd.

I VMware vSphere lar servervirtualisering deg lage og lagre såkalte øyeblikksbilder av selve den virtuelle maskinen (snapshots), som er spesielle bilder av dens tilstand på et bestemt tidspunkt. De kan representeres i en trestruktur i selve maskinen. Dermed er det mye lettere å gjenopprette helsen til den virtuelle maskinen. I dette tilfellet kan du vilkårlig velge gjenopprettingspunkter, rulle tilbake tilstanden tilbake og deretter fremover (Windows-systemer kan bare drømme om dette).

Servervirtualiseringsprogrammer

Når det kommer til programvare, er det mange applikasjoner som kan brukes til å lage virtuelle maskiner. I det enkleste tilfellet brukes de opprinnelige verktøyene til Windows-systemer, ved hjelp av hvilken servervirtualisering kan utføres (Hyper-V er en innebygd komponent).

Imidlertid har denne teknologien også noen ulemper, så mange mennesker foretrekker programvarepakker som WMware, VirtualBox, QUEMI eller til og med MS Virtual PC. Selv om navnene på disse applikasjonene er forskjellige, skiller ikke prinsippene for å jobbe med dem mye (bortsett fra i detaljer og noen nyanser). Med noen versjoner av applikasjoner kan virtualisering av Linux-servere også utføres, men disse systemene vil ikke bli vurdert i detalj, siden de fleste av våre brukere fortsatt bruker Windows.

Servervirtualisering på Windows: den enkleste løsningen

Siden utgivelsen av den syvende Windows-versjoner en innebygd komponent kalt Hyper-V dukket opp i den, som gjorde det mulig å lage virtuelle maskiner ved hjelp av systemets egne midler uten å bruke tredjepartsprogramvare.

Som i alle andre applikasjoner på dette nivået, i denne pakken kan du simulere fremtiden ved å spesifisere hard størrelse disk, RAM-størrelse, tilgjengelighet optiske stasjoner, de ønskede egenskapene til en grafikk- eller lydbrikke - generelt alt som er tilgjengelig i "maskinvaren" til en konvensjonell serverterminal.

Men her må du være oppmerksom på inkluderingen av selve modulen. Hyper-V-servere kan ikke virtualiseres uten først å aktivere denne komponenten i selve Windows.

I noen tilfeller kan det være nødvendig å aktivere aktivering av støtte for den tilsvarende teknologien i BIOS.

Bruk av tredjeparts programvareprodukter

Ikke desto mindre, til tross for midlene som kan brukes til å virtualisere Windows-baserte servere, anser mange eksperter denne teknologien som noe ineffektiv og til og med altfor komplisert. Det er mye lettere å bruke et ferdig produkt, der lignende handlinger utføres basert på automatisk valg av parametere, og den virtuelle maskinen har store muligheter og fleksibilitet i administrasjon, konfigurasjon og bruk.

Vi snakker om bruk av programvareprodukter som f.eks Oracle VirtualBox, VMware arbeidsstasjon(VMware vSphere) og andre. For eksempel kan en VMware-virtualiseringsserver lages på en slik måte at analogene til datamaskiner laget inne i en virtuell maskin fungerer separat (uavhengig av hverandre). Slike systemer kan brukes i læringsprosesser, testing av programvare osv.

Forresten, det kan bemerkes separat at når du tester programvare i et virtuelt maskinmiljø, kan du til og med bruke programmer infisert med virus som bare vil vise effekten i gjestesystemet. Dette vil ikke påvirke hoved-(vert)-operativsystemet på noen måte.

Når det gjelder prosessen med å lage en datamaskin inne i en maskin, i VMware vSphere, er servervirtualisering, så vel som i Hyper-V, basert på "Wizard", men hvis vi sammenligner denne teknologien med Windows-systemer, ser selve prosessen ut noe enklere, siden programmet i seg selv kan tilby en slags maler eller automatisk beregne de nødvendige parameterne til den fremtidige datamaskinen.

De største ulempene med virtuelle servere

Men til tross for hvor mange fordeler servervirtualisering gir samme systemadministrator eller sluttbruker, har slike programmer også noen betydelige ulemper.

For det første kan du ikke hoppe over hodet. Det vil si at den virtuelle maskinen vil bruke ressursene til den fysiske serveren (datamaskinen), og ikke fullt ut, men i en strengt begrenset mengde. Derfor, for at den virtuelle maskinen skal fungere ordentlig, må den første maskinvarekonfigurasjonen være kraftig nok. På den annen side vil det fortsatt være mye billigere å kjøpe én kraftig server enn å kjøpe flere med lavere konfigurasjon.

For det andre, selv om det antas at flere servere kan kombineres til en klynge, og hvis en av dem svikter, kan du "flytte" til en annen, i samme Hyper-V kan ikke dette oppnås. Og dette ser ut som en klar ulempe med tanke på feiltoleranse.

For det tredje spørsmålet om å overføre til virtuelt rom ressurskrevende DBMS eller systemer som Mailbox Server, Exchange Server, etc. I dette tilfellet vil en tydelig hemming bli observert.

For det fjerde, for riktig drift av en slik infrastruktur kan ikke brukes utelukkende virtuelle komponenter... Spesielt gjelder dette domenekontrollere - minst én av dem i påbudt, bindende må være "maskinvare" og i utgangspunktet tilgjengelig på nettet.

Til slutt, for det femte, er servervirtualisering full av en annen fare: feilen til den fysiske verten og vertsoperativsystemet vil medføre automatisk avstenging alle medfølgende komponenter. Dette er det såkalte single point of failure.

Sammendrag

Ikke desto mindre, til tross for noen ulemper, er fordelene med slike teknologier klart større. Hvis du ser på spørsmålet om hvorfor servervirtualisering er nødvendig, er det flere hovedaspekter her:

  • reduksjon i mengden "jern" utstyr;
  • reduksjon av varmeproduksjon og energiforbruk;
  • reduksjon av materialkostnader, inkludert for kjøp av utstyr, betaling for elektrisitet, anskaffelse av lisenser;
  • forenkling av service og administrasjon;
  • muligheten for "migrering" av OS og selve serverne.

Faktisk er fordelene ved å bruke slike teknologier mye større. Selv om det kan virke som det er noen alvorlige ulemper, riktig organisering hele infrastrukturen og bruke nødvendige kontroller for å smidig håndtering i de fleste tilfeller kan disse situasjonene unngås.

Til slutt, for mange, spørsmålet om valg av programvare og praktisk gjennomføring virtualisering. Men her er det bedre å henvende seg til spesialister for å få hjelp, siden vi i dette tilfellet bare ble møtt med spørsmålet om generell kjennskap til servervirtualisering og muligheten for å introdusere systemet som sådan.

Virtualisering er en teknologi som abstraherer prosesser og deres representasjoner fra dataressurser. Konseptet med virtualisering er langt fra nytt og ble introdusert tilbake på 60-tallet av IBM.

Følgende typer virtualisering kan skilles:

Typiske eksempler på virtuelle maskiner er VMware Workstation og Microsoft Virtual PC-er som hovedsakelig brukes til testformål systemadministratorer og programvareutviklere. VMware er også utgitt gratis versjon VMware Server, som lar deg kjøre flere virtuelle servere på en fysisk server, kombinere dem i et nettverk, bruke dem som vanlige servere i selskap. Men disse produktene har en betydelig ulempe - ytelse. Siden alle virtuelle maskiner kjører som applikasjoner, blir de riktig allokert ressursene til operativsystemet, som igjen allokerer ressursene til den fysiske serveren. Som et resultat viser ytelsen til enda en virtuell maskin seg å være flere ganger lavere enn ytelsen til en fysisk server.

Situasjonen endret seg dramatisk da maskinvarestøtte for virtualisering dukket opp i prosessorer - Hypervisor. VMware vSphere 5 (ESXi) og Microsoft Hyper-V ble utgitt. Disse produktene er komplette servervirtualiseringsløsninger som gjør at virtuelle maskiner kan yte nesten like raskt som den fysiske serveren de kjører på. Disse løsningene muliggjør bedriftsomfattende virtualisering. Dermed er det mulig på Begrenset mengde høyytelsesservere skaper et ganske kraftig miljø som består av hundrevis av virtuelle servere som vil kjøre bedriftsapplikasjoner, ERP-systemer, databaseservere, etc. V dette øyeblikket intet datasenter er komplett uten servervirtualiseringssystemer.

Fordeler med virtualisering:

  • Reduserte utstyrskostnader. Ved å konsolidere flere virtuelle servere på en enkelt fysisk server, kan virtualisering redusere kostnadene for serverutstyr... Dusinvis og til og med hundrevis av virtuelle servere kan fungere samtidig på én fysisk server.
  • Reduserte programvarekostnader. Flere programvareleverandører har introdusert separate lisensieringsordninger spesielt for virtualiserte miljøer. Så hvis du for eksempel kjøper en lisens for Microsoft Windows Server 2008 R2 Enterprise, får du rett til å bruke den samtidig på 1 fysisk server og 4 virtuelle (innenfor en server), og Windows Server 2008 R2 Datacenter er kun lisensiert for antall prosessorer og kan brukes samtidig på et ubegrenset antall virtuelle servere.
  • Reduserte vedlikeholdskostnader. Mindre utstyr er enklere og billigere å vedlikeholde.
  • Reduserte energikostnader. I gjennomsnitt er 70 % av tiden servere inaktive, bruker strøm og genererer store mengder varme. Virtualisering gir mulighet for mer effektiv bruk av prosessortid og øker utnyttelsen med opptil 90 %.
  • Økt infrastrukturfleksibilitet. Virtualisering lar programvare abstrahere bort fra fysisk maskinvare. Dermed blir det mulig å migrere virtuelle maskiner mellom ulike fysiske servere. Tidligere, når en server gikk ned, var det nødvendig å installere operativsystemet på nytt, gjenopprette data fra sikkerhetskopier, noe som tok timer. Nå er det nok å migrere en virtuell maskin fra en server til en annen, uten ominstallering. Både VmWare og Hyper-V tilbyr også migreringsverktøy fysiske maskiner til virtuelle.
  • Øke nivået av feiltoleranse. Virtualisering gir en måte å gruppere en hel server på, uavhengig av programvaren som kjører på den. Gir muligheten til å gruppere ikke-klyngede tjenester. I dette tilfellet oppnås ikke klynging i sin rene form, siden den virtuelle maskinen startes faktisk på nytt. Men i tilfelle en fysisk serverfeil vil den virtuelle maskinen automatisk starte på en annen server uten innblanding fra en systemadministrator.

LanKey er en ledende russisk systemintegrator og har også status som Microsoft Gold Certified Partner og VMware VIP Partner. Vi tilbyr bedriftsomfattende servervirtualiseringsløsninger basert på Microsoft Hyper-V. LanKey tilbyr tjenester for bygging av databehandlingssentre (DPC) ved bruk av virtualiseringsteknologier. Vi har fullført en rekke prosjekter om implementering av virtualiseringssystemer basert på produktdatabasen, som du finner i avsnittet Fullførte prosjekter.

LanKays sertifiserte spesialister vil gi deg råd om spørsmål knyttet til virtualiseringsteknologier, hjelpe deg med å velge den optimale løsningen for din IT-infrastruktur, samt implementere og støtte eventuelle virtualiseringsløsninger.

Eksempler på noen prosjekter for VMware og Hyper-V virtualisering implementert av LanKey:

Kunde

Løsningsbeskrivelse


Som en del av den planlagte moderniseringen av IT-infrastrukturen har LanKey distribuert en klynge av virtuelle maskiner basert på Microsoft hypervisor Hyper-V fra Windows-sammensetning Server 2012 Datasenter. Bladservere og HP-lagringssystemer ble brukt som serverplattform. Som et system Reserver eksemplar Microsoft System Center Data Protection Manager (DPM) 2012 ble distribuert. Og for å automatisere administrasjon av virtuelt miljø ble Microsoft System Center Virtual Machine Manager (SCVMM) 2012 distribuert. Tilbakemelding ble mottatt fra kunden som et resultat av prosjektet.


I forbindelse med åpningen av et nytt produksjonskompleks i Moskva-regionen, var oppgaven å bygge en serverinfrastruktur for å automatisere prosesser i varehus. LanKay har bygget en klynge av virtuelle maskiner basert på VMware vSphere 5 hypervisor, samt servere og lagringssystemer IBM data... Basert på resultatene av utført arbeid ble det mottatt en positiv tilbakemelding fra kunden.

En feiltolerant og skalerbar klynge av virtuelle maskiner basert på Hyper-V fra Windows Server 2012 Datacenter ble bygget. Klyngemaskinvareplattformen var basert på HP c7000 serverblader og NetApp FAS2240 lagringssystemer.


Som en del av prosjektet med å lage en IT-infrastruktur ble det bygget på en klynge av virtuelle maskiner Windows basert Server 2012 Hyper-V. For å bygge klyngen ble IBM-servere og lagringssystemer brukt. Symantec BackUp Exec 2012 V-Ray Edition ble distribuert som et backupsystem. I utgangspunktet ble hele infrastrukturen utplassert på grunnlag av skytjenester LanKays IaaS, hvoretter alle virtuelle maskiner ble migrert fra skyinfrastrukturen til kundens lokale klynge.


LLC RN-Energo er det største uavhengige energisalgsselskapet som leverer strøm til forbrukere i hele Russland.

Som en del av moderniseringsprosjektet for RN-Energo datasenter, har LanKey bygget en failover-klynge av virtuelle maskiner basert på VMware vSphere 5.1. De eksisterende bladsystemene ble modernisert, samt installering av nye servere og datalagringssystemer. Den eksisterende serverkapasiteten og kritiske forretningssystemer ble migrert til en ny klynge av virtuelle maskiner, samtidig som forretningskontinuiteten ble opprettholdt. For å implementere forretningsoppgavene med å lagre, sikkerhetskopiere og gjenopprette informasjon, ble det introdusert et sikkerhetskopisystem for data virtuelt miljø basert på Veeam BackUp, som gjorde det mulig å oppnå de nødvendige RTO- og RPO-indikatorene.


Innenfor rammen av prosjektet for etablering av IT-infrastruktur til JSC "Quadra-R" failover-klynge virtuelle maskiner basert på VMware vSphere 5.1. Servere og datalagringssystemer produsert av HP ble brukt. For å sikre backupoppgaver ble det implementert et backupsystem basert på Veeam BackUp & Replication, som er en av markedslederne. Strømredundans ble implementert på grunnlag av APC UPS. Alle relaterte tjenester ble distribuert på grunnlag av den innebygde klyngen av virtuelle maskiner.

I forbindelse med transaksjonen for kjøp av 100 % av aksjene til SIBUR-Minudobreniya OJSC (senere omdøpt til SDS-Azot OJSC) i Siberian Business Union-holdingselskapet i desember 2011, ble det nødvendig å skille IT-infrastrukturen til SDS OJSC - Azot "fra SIBUR Holding-nettverket.

I dag skal jeg fortelle deg hva virtualisering er, hva det er for og hva det vil gi deg når du implementerer det. La oss vurdere konseptet med en hypervisor. La oss ta en titt på hvordan dette er organisert av VMware ved å bruke eksemplet på ESXI 5.5-produktet. Hovedoppgaven til enhver virksomhet på Internett er tilgjengeligheten til tjenestene. Serverne fungerer som de skal på jernservere, forestill deg en situasjon der 5 forskjellige tjenester lever på en kraftig fysisk server. De har alle tilgang til en filsystem, til ressursene, de fungerer bra. Tiden går og de begynner å forstyrre hverandre, forbi ulike årsaker oppdateringer på eller selve operativsystemet. Som et resultat får du at på grunn av én tjeneste slutter jeg å fungere normalt eller resten 4. Virtualisering hjelper bare en bedrift med å konsolidere ressurser og gjøre hver tjeneste uavhengig innenfor én fysisk server.

Husk den gylne regelen én server, én tjeneste

Fysisk infrastruktur

La oss ta en titt på hvordan applikasjonen fungerer på det fysiske nivået. V moderne verden tar vi i betraktning maskinvaren på serverne, er den i 90 prosent av tilfellene ikke fullastet, i snitt med 50-60 prosent, noe som betyr lav ressursutnyttelse. Et eksempel på uholdbar bruk er DHCP-tjenesten, som ved enkel definisjon og kan betjene minst 1000 klienter, enten det er på Windows eller Linux. Som et resultat, ved å kjøre den på en kraftig server, bruker du den dårlig, underbelaster den, kaster bort ekstra energi, jo flere slike servere du har, desto kraftigere trengs kjølesystemet, kraftigere system backup strømforsyning, mer fysisk plass i enheten. Kort sagt, som du forstod det meste, men da virtualiseringsteknologien kom, endret alt seg, men mer om det senere. Nedenfor er et diagram over hvordan applikasjonen fungerer på en fysisk server.

Det er en fysisk vert som operativsystemet er installert på, og programmet kjører allerede i den. Du kan koble ISCSI, NFS, FC lagringssystemer til den fysiske verten.

En så stor topp kunne ikke vare lenge, og virksomheten ble lei av å tape penger på nytt utstyr. Og det var her virtualisering kom inn i livene deres. Så magisk, ikke klart ord det fra fremtiden. Virtualiseringsteknologi har bidratt til å konsolidere serverressursene, slik at mange isolerte operativsystemer som oppriktig anser seg selv som uavhengige kan kjøre innenfor en enkelt fysisk server. på en egen server med virtuell maskinvare. Kunden, som forbruker, er overhodet ikke interessert i noe i det hele tatt, hva tjenesten hans er implementert på, om det er post, om det er en database, hovedproduktet hans, men det er mer lønnsomt for virksomheten når, innenfor rammeverket til én server, kunne de skyve det på ham flere tjenester og selge dem til kunden. Bala løste et problem til er å støtte gamle applikasjoner som er skrevet for en slags Windows 95, men du vil oppgradere, som et resultat, lager du en egen virtuell maskin med den og lever fredelig. Overgangen fra en maskinvare til en annen har blitt enklere, overføringen utføres i de fleste tilfeller uten å slå seg av. Så hvis en fysisk server bryter sammen, vil du kunne kjøre en virtuell maskin på en annen, uten problemer.

Eksempel fra det virkelige liv: Det er en HP-server, den er 4 år gammel, garantien er utløpt. En av de vakre dagene på skivene begynte å smuldre, og å erstatte en av disse kostet 800 dollar. Disse pengene ble brukt til å kjøpe 3 SSD Samsung evo 850, kjenn forskjellen. Som et resultat ble all ssd installert på serveren og den ble omgjort til en virtualiseringsvert, hvor alle de samme virtuelle maskinene med de samme tjenestene ble flyttet til den. Og hvis det bare var en fysisk server, ville alt være dekket med et kobberbasseng. Virtualisering reddet oss fra store hemoroider.

Historien om virtualisering

Historien til denne ideen og teknologien begynte på det fjerne 90-tallet, den første som implementerte den av VMware. Hun tilbød alternativet at ressursene til en stort monster, kan deles inn i alle og leve som en bror, slik oppsto konseptet med en hypervisor. Hypervisoren er laget mellom operativsystemet og maskinvaren som hjelper til med å implementere virtualisering. I VMware er dette VMkernel-prosessen.

Den virtuelle infrastrukturen ser slik ut, det er en ESXi-vert, på den er det et hepervisor VMware vSphere-lag på toppen som det allerede er virtuelle maskiner. Og alle FC-, NFS-, ISCSI-tilkoblinger går kun til ESXi-verten, som gir det hele til hypervisoren, hvor den omdistribuerer alt videre til de lidende.

Nedenfor er et bilde av hvordan fysisk arkitektur og vmware-virtualisering ser ut. I fysisk arkitektur fungerer OS på toppen av maskinvaren. Med tanke på vmware-virtualisering, er alt litt annerledes her. Forskjellen ligger i ESXI hypervisorlaget (VMware vSphare). VMware vSphare Lar deg starte forekomster av virtuelle maskiner og emulere maskinvare for dem. I en slik implementering vil det være et annet opplegg for kommunikasjon med ressurser. Vi vil snakke om dette i fremtiden.

En ting i virtualiseringsverdenen som aldri blir virtualisert er venner. CPU-prosessor... Virtualisering vmware eller MS vet ikke hvordan du gjør dette. Når du starter en virtuell maskin, avhengig av innstillingene, mottar den en eller flere kjerner, den virtuelle maskinen innser hvilken type CPU, versjon og frekvens på den, den sender alle kommandoer direkte til den. Derfor er det svært viktig at riktig fordeling av CPU-kjernene er slik at de virtuelle maskinene ikke forstyrrer hverandre.

Med hensyn til nettverksvirtualisering er saken som følger. Hvis vi vurderer en fysisk server, for så å ha en nettverksadapter, bruker den den utelukkende, med all båndbredden. Vurderer en virtuell arkitektur, det vil si en virtuell svitsj som virtualiserte nettverkskort er koblet til, og en virtuell svitsj kommuniserer allerede med en fysisk nettverksadapter eller adaptere. Alle gjennomstrømning delt inn i alle virtuelle maskiner, men prioriteringer kan konfigureres.

Det gjenstår å vurdere diskundersystemet. Til venstre er den klassiske situasjonen med en jernvert, uansett hvilket operativsystem, alt vil bli brukt i monopol... Med tanke på virtuelle harddisker er dette annerledes. Hver veps tror at den har en ekte harddisk, men faktisk er det en fil på delt lagring, som filene til andre virtuelle maskiner. Og det spiller ingen rolle hvilken protokoll lagringen er koblet til verten som bruker.