Last ned programmet nvidia system tools. NVidia Optimus-verktøy: sjekk om nVidia Optimus fungerer

I lang tid har bærbare datamaskiner ofte vært utstyrt med to skjermkort. Den ene, svak (integrert), kan være en del av en bærbar datamaskin eller prosessorbrikkesett, og er designet mer for å spare strøm når den ikke er nødvendig høy ytelse, og den andre, sterkere (diskret, nvidia eller radeon) - brukes til spill og tunge applikasjoner krever mer seriøs ytelse.
Bare prinsippet for denne tilnærmingen er i endring. Først, for å bytte skjermkort, var det nødvendig å starte den bærbare datamaskinen på nytt, så var det nok å trykke på en knapp spesielt designet for dette på etuiet eller i programmet, mens det kunne være problemer med bildet, opp til en omstart. driveren ble byttet og bildebufferen ble overført til et annet kort.
Den siste motetrenden- automatisk veksling bærbare skjermkort avhengig av belastningen. Når det gjelder grafikk fra nVidia, kalles denne teknologien Optimus.

En teknologi designet for å forenkle arbeid med en bærbar datamaskin og automatisere bytte av skjermkort, viser seg faktisk ofte å være problematisk - et kraftig diskret skjermkort slår seg noen ganger ikke på når det er nødvendig, og bestemmer hvilket kort som fungerer i dette øyeblikket og hvilke programmer den er klar til å betjene (dvs. når vil den slå seg på) - det kan være ganske vanskelig. Faktum er at utgangen av bildet i dette tilfellet (og når du bruker en diskret, kraftig grafikkort) skjer gjennom den innebygde intel-videoen. Dette er en nødvendighet og en særegenhet ved implementeringen: dette eliminerer behovet for å fullstendig bytte driveren og overføre bildet fra ett skjermkort til et annet.

For systemet er denne tilnærmingen ideell, for det er det en fungerende skjermkort, ingen hemoroider med byttebare utstyrsdefinisjoner, bildebufferoverføring. For brukeren ... fra et rent brukerperspektiv er det også et flott alternativ: hvorfor vite hvilket kort som fungerer? Fungerer og flott. Men når du trenger å vite er det et problem. Inntil nylig fantes ingen innebygde metoder for å avgjøre hvilken videoprosessor som brukes til å gjengi akkurat nå og i dette programmet. Nyere versjoner av nvidia-driveren fungerer diskret kort lett å se - nær klokken nederst, vil et ikon fortelle deg om diskret video brukes eller ikke. Dette er imidlertid ikke alltid tilfelle, og enda mer når det gjelder ikke nye bærbare datamaskiner. Derfor, for å se hvilket skjermkort som brukes, og enda viktigere, for å se listen over applikasjoner som dette skjermkortet brukes til, brukes det nVidia Optimus-verktøy.
Du kan laste nedherfra (letitbit) ellerherfra (turbobit). Kanskje jeg er en idiot, men jeg fant ikke verktøyet på off-site, så jeg kan ikke gi en direkte lenke. Det er to mapper i arkivet, en for et 32-bit system, den andre for et 64-bit system, og i tillegg er GPU-Z et informasjonsverktøy som gir full informasjon om skjermkortet ditt.

NVGPUSStateViewer.exe(til venstre) - viser Nåværende tilstand nVidia GPU, på eller av.
NvOptimusTestViewer.exe(til høyre) - sett en hake på "Vis applikasjoner gjengitt av DGPU", og vi ser en liste over programmer som er gjengitt med en brikke fra nVidia.

Og to poeng til- nVidia Optimus STØTTES IKKE på WindowsXP eller Linux. Til XP- allerede det vil aldri bli, det maksimale som kan gjøres er å deaktivere denne teknologien i bios (dette er ikke mulig på alle bærbare datamaskiner, og generelt sett er det en sjeldenhet, og er mer sannsynlig å finne på eldre modeller der Optimus ikke er " renraset"); for Linux er det en sjanse for at det kommer en løsning med optimus, men så langt er den ganske liten. Det er et prosjekt "Bumblebee", som lar Linux-brukere håpe på en løsning, men foreløpig er dette en dårligere analog av optimus, men et surrogat med en haug med problemer og forbehold.

For å kjøre spillet med et spesifikt skjermkort, er det to alternativer: Høyreklikk på spillikonet - velg "kjør med GPU"- og der" Høy ytelse Nvidia-prosessor". Spillet vil nå begynne å kjøre med nVidia-grafikkortet.
For å slippe å manuelt velge et skjermkort hver gang du starter, velg "endre standard grafikkprosessor" der. Vil åpne nVidia-innstillinger, hvor du må velge startfilen fra spillmappen (. exe spill). Det bør huskes på at noen spill krever å legge til en slik lansering, ikke bare en kjørbar av spillet, men også en annen tilhørende. For eksempel, for Skyrim, må du legge til filene TESV.exe og skyrimlauncher.exe.

Og likevel – vil du ha 3d på TV-en din? Figurer. Optimus støtter ikke 3d-utgang til eksterne skjermer, på grunn av det faktum at bildeutgangen bestandig utføres ved hjelp av et kort fra intel. Dette er grunnen til at det integrerte kortet ikke kan deaktiveres.

Som en ekstra bonus, nVidias Optimus FAQ.

Spørsmål: Optimus-teknologi er tilgjengelig for diskrete grafikkort?
Svar: Nei. Optimus tilbys kun for sluttsystemer som bærbare datamaskiner og alt-i-ett-PCer.
Spørsmål: Er det ytelsestap grafiske løsninger NVIDIA Optimus over Intel IGP?
Svar: Litt, ± 3 %.
Spørsmål: Vil NVIDIA gi ut kombinert Optimus GPU og Intel IGP-driverpakker?
Svar: Nei, grafikk driver Optimus er en egen pakke, som standard pakke NVIDIA-drivere... Grafisk Intel-prosessorer bruk Intel-driver, Intel- og NVIDIA-drivere kan oppdateres uavhengig.
Spørsmål: Optimus vil støtte 3D Vision-teknologi på både NVIDIA GPUer og Intel IGPer?
Svar: Nei, 3D Vision er bare tilgjengelig for skjermer som er direkte koblet til en NVIDIA-diskret GPU foreløpig.
Spørsmål: Støtter Optimus SLI?
Svar: Nei, Optimus + SLI-kombinasjoner støttes ikke for øyeblikket.
Spørsmål: Kjører Intel IGP og NVIDIA GPU samtidig på Optimus-systemer? Kan de brukes til 3D-gjengivelse sammen? Svar: Intel IGP er alltid aktiv, i det minste er den ansvarlig for skrivebordsbildet. Deretter bestemmer Optimus-driveren for hver applikasjon separat hvilken GPU som skal brukes til å gjengi den. Så det er mulig at noen 3D-applikasjoner kjøres på GPU, og noen på IGP.
Spørsmål: Hvordan bestemme gjeldende tilstand for GPU (aktiv / deaktivert) på et system med Optimus?
Svar: Fra brukerens synspunkt er det ingen spesielle tegn for å bestemme tilstanden til GPU. For operativsystemet ser GPU ut til å være tilgjengelig hele tiden. Hvis GPU-en ikke brukes til gjengivelse og de tilkoblede skjermene er inaktive, programvare Optimus slår av GPUen.
Spørsmål: Hvordan finne ut om en GPU eller IGP gjengir gjeldende søknad på et system med Optimus?
Svar: Fra brukerens synspunkt er det ingen spesiell advarsel for å bestemme hvilken GPU som gjengir. I NVIDIA-kontrollpanelet er det mulig å konfigurere preferanser for spesifikk applikasjon og aktiverer også et dedikert grensesnitt for manuelt valg av grafikkadapteren. For skjermer som er koblet direkte til GPU, gjengir GPU alltid.
Spørsmål: Hvordan forstår du begrepene IGP-gjengivelse og GPU-gjengivelse når du refererer til applikasjoner i Optimus?
Svar: På Optimus-systemer kan grafikken eller generell databehandling av en applikasjon kjøre på én GPU og vise resultatet på en annen. For eksempel kan en skjerm koblet til en IGP vise både et bilde beregnet av IGP og et bilde beregnet av GPU. Valget gjøres for hver applikasjon separat og er fullstendig skjult for brukeren, selv om det kan konfigureres i NVIDIA-panelet. For skjermer som er koblet direkte til GPU, gjengir GPU alltid.
Spørsmål: Hvordan forstår du begrepene IGP-skjerm og GPU-skjerm når du refererer til applikasjoner i Optimus?
Svar: IGP-skjerm, som definisjonen antyder, er koblet til Intel IGP. De fleste skjermene på Optimus-systemer, inkludert bærbare paneler, er koblet til IGP. IGP-skjermene kan vise både IGP-bildet og GPU-bildet, avhengig av hvilken Optimus velger for å gjengi applikasjonen. GPU-skjermer kobles direkte til utgangene til den diskrete NVIDIA GPUen, og kan støttes av enkelte systemer som f.eks. HDMI-utgang i PineTrail-plattformen. Gjengivelsen av applikasjoner som vises på GPU-skjermer, gjøres alltid på GPU.
Spørsmål: Er det en slags "switch" for å tvinge alle applikasjoner til å telle på IGP, eller alle - på GPU i Optimus-plattformen?
Svar: Noen innstillinger er kun gitt for spesifikke tilfeller og bør ikke brukes uten grunn. GPUen slår seg alltid på når det er behov for det. Å tvinge gjengivelse på en IGP kan ha alvorlige ytelseskonsekvenser (for eksempel vil noe videoinnhold ikke spilles av) og vil forvirre brukeren med forskjellig applikasjonsatferd fra lansering til lansering. Den største fordelen med Optimus er nettopp i å skjule transienter for brukeren.
Spørsmål: Støttes HDCP-innholdsbeskyttelse på Optimus-systemer?
Svar: HDCP-relasjoner etableres mellom skjermen og GPUen som den er direkte koblet til. For IGP-skjermer styres prosessen av IGP selv, NVIDIA er ikke involvert i den. For GPU-skjermer løses alt av en standard lagringsmekanisme for krypteringsnøkler, som i konvensjonell NVIDIA-løsninger.
Spørsmål: Hvordan lages lydstøtte [for å vise] i Optimus-plattformen?
Svar: Grafikkadapteren som skjermen er direkte koblet til er ansvarlig for lydoverføringen. NVIDIA-lyddriveren brukes ikke for IGP-tilkoblinger, for GPU-tilkoblinger fungerer driveren akkurat som ethvert system med flere grafikkadaptere.
Spørsmål: Hvordan støttes videoavspilling på Optimus-plattformen?
Svar: Intel IGP-videokapasiteter varierer mellom brikkesett. Mens Arrandale støtter full HD-videoakselerasjon uten hjelp utenfra, PineTrail kan ikke skryte av dette. Når en NVIDIA GPU kan gi en ytelse eller kraftfordel, bruker Optimus-driveren GPUen til å forbedre brukeropplevelsen. For skjermer koblet til en IGP, behandles video i SD-kvalitet alltid av IGP, akkurat som HD på de fleste brikkesett, bortsett fra PineTrail hvor GPU er involvert. Hvis videoen er kopibeskyttet, for eksempel avspilling av Blu-ray-plater, og er dekodet på GPUen, kan den nedgraderes til SD for overføring til en skjerm koblet til IGP. Videoutgang til skjermer direkte koblet til GPUen behandles alltid av GPUen.
Spørsmål: Påvirker tilkobling av skjermer til GPU-utganger GPU-ytelsen for IGP-utgangsapplikasjoner på Optimus-plattformen?
Svar: Optimus-teknologien fungerer uavhengig av tilstedeværelsen av skjermer koblet til GPUen.
Spørsmål: Hvilke skjermkombinasjoner er mulige mellom GPU og IGP på Optimus?
Svar: IGP-skjermkonfigurasjonen bestemmes helt av IGP selv og dens drivere. Null til to skjermer koblet til IGP kan brukes til enhver tid. Hvis systemet implementerer GPU-utganger, støttes en GPU-skjerm i tillegg. Totalt, for to videoadaptere, støttes opptil tre skjermer samtidig. Windows støtter ikke klonebildemodus for skjermer koblet til forskjellige grafikkadaptere, bare for skjermene til én adapter, slik at bare skrivebordsutvidelsesmodusen er tilgjengelig for skjermene til alle adaptere samtidig.
Spørsmål: Hvordan administreres skjermtilkobling og videomodusinnstilling på Optimus-systemer?
Svar: Hvis det ikke er noen skjermer koblet direkte til GPUen, er alt skjermarbeid gjort Intel driver IGP. Hvis det er GPU-skjermer, vil NVIDIA-driverfunksjoner også bli kalt.
Spørsmål: Hvilke skjermutganger støttes for GPUer på Optimus-plattformen? Hvordan bestemmes tilkoblingen av skjermen til dem?
Svar: Bare HDMI støttes for øyeblikket, basert på definisjonsspesifikasjonen HDMI-tilkoblinger... DisplayPort, DVI og VGA-støtte er planlagt for fremtiden, men kan kreve spesielle maskinvaretilpasninger (DDC MUX).
Spørsmål: Støtter Optimus delte skjermutganger mellom GPUer som en hybrid?
Svar: Nei, i Optimus er hver utgang kun koblet til én GPU. I likhet med hybriden må imidlertid plattformen gi IGP- og GPU-omfattende skjermtilkoblingsdeteksjon da GPUen kan deaktiveres.

Liten digresjon:
Til å begynne med hadde absolutt alle bærbare datamaskiner bare grafikkenheter som ikke støttet 3D-behandling i det hele tatt, og hvis de gjorde det, var det veldig dårlig.

Så, for eksempel, i en av mine 2000 bærbare datamaskiner var det en NeoMagic videoadapter utstyrt med bare 2,5 megabyte videominne og støttet kun D2D-modus (den kjørte mer eller mindre Diablo II), og i den andre bærbare datamaskinen (2003) - en S3 med 8 megabyte videominne (du kan spille Counter Strike med bremsene).

Imidlertid den høye grafikk ytelse spesielt i spill, var de ikke påkrevd av dem: bærbare datamaskiner var veldig dyre nisjeprodukter for bedriftsbrukere som hadde høye krav til mobilitet og derfor akseptabel batterilevetid.

Men årene gikk 3D-grafikk aktivt erobret verden, og deretter begynte bærbare datamaskiner å bli mer og mer utbredt og, viktigere, et universelt produkt.

Følgelig begynte de å bli brukt i det bredeste spekteret av oppgaver - fra vanlig kontor til multimedia, og brukere sluttet veldig raskt å være fornøyd med den lave effektiviteten til grafikkløsninger innebygd i bærbare datamaskiner.

Produsenter begynte å styrke grafikkundersystemet til bærbare datamaskiner, til og med en klasse enheter dukket opp, såkalte - bærbare spill ...

Men det er lett å gjette at strømforbruket til slike bærbare datamaskiner har økt veldig mye, noe som påvirket tidspunktet for deres selvstendig arbeid... Forresten, topp Alienware bærbare datamaskiner fra Dell, utstyrt med den mest avanserte maskinvaren for øyeblikket, bruker omtrent 300 watt på sitt høyeste. Et slikt monster vil åpenbart ikke fungere på batterier på lenge.

En del ble skissert: den bærbare datamaskinen var enten kraftig, men stor, tung og med svært liten batterilevetid, eller liten, lett, med god tid batterilevetid, men dårlig spillytelse.

Ingeniørene ble møtt med komplekse (og til og med gjensidig utelukkende) oppgaver, nemlig hvordan man samtidig sparer lang tid batterilevetid og høy grafikkytelse.

For øyeblikket er det en slik løsning: det er to videoakseleratorer i en bærbar datamaskin - oftest grafikk kjerne Intel HD Graphics og Nvidia diskret videoakselerator, valgbar fra panelet nvidia kontroll:


Det er totalt 3 moduser: Auto valg, og Integrert grafikk maskinvare.

Hvis du setter Auto valg, så skal systemet i teorien selv velge grafikkakseleratoren avhengig av belastningen på det grafiske undersystemet.

Du kan velge en av modusene (standard er Auto valg); etter å ha valgt modus, trykk Søke om... Det kan begynne å fungere med en gang, eller en omstart av systemet kan være nødvendig.

Til tross for at i bærbare datamaskiner med Nvidia-teknologi Optimus har to grafiske enheter, bildet på skjermen bestandig utgang gjennom den integrerte akseleratoren, og derav det særegne ved arbeidet til noen spill som rett og slett ikke vet om eksistensen ekstern video eller ikke får tilgang til den av en eller annen grunn.

I denne artikkelen skal vi se på flere måter å tvinge frem lanseringen av spill og applikasjoner på en diskret videobrikke fra Nvidia.

Standard måter
A. Den enkleste måten. Høyreklikk på snarveien og velg Kjør med GPU> Nvidia-prosessor med høy ytelse

B. Programvarebinding av diskret video i Nvidia-panelinnstillingene.
1. Åpne i Nvidia-kontrollpanelet Kontrollere 3D-parametere og gå til fanen Globale parametere hvor vi stiller ut Nvidia-prosessor med høy ytelse og klikk Søke om.

Hvis du trenger å tvinge bruken av diskret (så vel som integrert; jeg måtte tilordne den integrerte videoen til Firefox nettleser fordi når du velger diskret akselerator han begynte å sprinkle artefakter og krasjet med feil) video kun for visse applikasjoner, gå til fanen Programvareinnstillinger:


2. Trykk på knappen Legge til og angi kjørbar fil et spill som vil bli tvunget til å kjøre med diskret video.
En spesiell sak - bare for spill og applikasjoner som bruker Java-maskin(som Minecraft og andre). Det er ikke den kjørbare filen til spillet som må legges til listen, men selve Java-maskinen. For å gjøre dette, må du først finne hvor javaw.exe-filen er lansert fra. For eksempel kan du starte oppgavebehandlingen, gå til fanen Prosesser, hold markøren over prosessen av interesse for oss, høyreklikk og velg Egenskaper... Banen vil bli indikert i vinduet som åpnes. Jeg har javaw.exe i mappen C: \ Windows \ SysWOW64(Windows 7 Ultimate 64 bit, Java 7SE 32 bit). Etter at plasseringen av filen er kjent, legger du den til som beskrevet ovenfor.

3. Velg fra rullegardinlisten Nvidia-prosessor med høy ytelse.
4. Trykk på knappen Søke om.
Det kan fungere med en gang, eller du må kanskje starte systemet på nytt.

Hvis standard måter hjalp ikke, det er en til - ikke veldig åpenbar, men ganske gjennomførbar.
1. Åpning Skjermoppløsning:

2. Trykk på knappen Finne... Ytterligere to skjermer vil vises med bildetekstene En annen skjerm ble ikke oppdaget:

3. Velg skjermen som tilsvarer den diskrete videoakseleratoren:

Til sammenligning ble en skjerm som tilsvarer den integrerte Intel HD Graphics valgt:

4. Velg fra rullegardinlisten Flere skjermer avsnitt Prøv å koble til VGA uansett, trykk på knappen Søke om:

Dette vil resultere i følgende:

5. Velge Utvid disse skjermene, klikk Søke om, bekrefter vi lagringen av parameterne:

Vi observerer resultatet.
Begge skjermkortene er nå tilgjengelige i spillinnstillingene.
TES: Skyrim-innstillingsvindu:

OG Dragealder: Opprinnelse:

Unødvendig å si, er spill raskere nå?

Videokortovervåkingswidgeten fra 0rbmu2k bestemmer nå normalt den totale mengden minne, mengden minne som brukes og GPU-belastningen i prosent:

Og her er vinduet for ytelsesinnstillinger for Adobe Photoshop:

Og PTGui-innstillingsvinduet, der jeg samler panoramaer:

Selv på et kort som er langt fra det raskeste, som GT630M med 1 GB DDR3-minne på en 128-bits buss, er Photoshop veldig raske til å gjengi bilder og verktøy. Så, for eksempel, beveger beskjæringsrammen seg jevnt over bildet, og ikke i rykk, som om maskinvareakselerasjon fungerte ikke.
Sfæriske panoramaer i PTGui med en oppløsning på omtrent 26000 * 13000 (tjueseks tusen ganger tretten tusen er ikke en skrivefeil) med aktivert maskinvareakselerasjon blir satt sammen i løpet av få minutter, mens på sentralenhet selv når alle 8 strømmer ble brukt, tok det i gjennomsnitt 10-15 til 20-30 minutter å sette sammen noen panoramaer.

Forresten, jeg spilte Crysis 2, og la til en kjørbar fil Nvidia panel ved den første metoden. Grafikkinnstillinger ved hjelp av Crysis2AdvancedGraphicsOptions tweaker for komfortabelt spill Jeg måtte sette det på et minimum (det viste seg at Crysis 2 ble hardnakket lansert på Intel kjerne HD4000). Nå kjører den stille ved ekstreme innstillinger (riktignok med deaktivert anisotropi).

Ulempene med denne løsningen er:
1. Systemet har en ekstra skjerm hvor markøren, snarveiene, widgets, vinduer osv. kan gå.
2. Noen spill kjører på en annen usynlig skjerm.

Og til slutt, noen få ord om hvordan du får tilbake innstillingene:
1. Velg fra rullegardinlisten Vis skrivebordet kun til 1:

trykk på knappen Søke om, vi bekrefter lagringen av parameterne, ser vi følgende:

2. Velg den andre skjermen, velg Slett denne skjermen:

Vi trykker Søke om.

Innstillingene er avbrutt.

Jeg gjorde veldig mye i kommentarene. interesse Spør fra Rodion fra Kiev:
Dessverre kom jeg personlig til en blindvei, fordi min skjerm (TV) IKKE er koblet til via VGA !!! og via HDMI ?, Følgelig ser jeg ikke den tredje utvidede skjermen, vet du?
Jeg har en bærbar LCD-skjerm, det er en LCDTV som slaven er duplisert på. bord.
Som en konsekvens av det som er beskrevet i artikkelen har jeg en tredje skjerm, og når jeg utvider skrivebordet til den, tar jeg bort vinduene. Hva å gjøre? Hvordan får jeg den diskrete vidyahu til å sende alt direkte til HDMI?

Jeg skal prøve å svare på det også.
Ved å bruke den (ikke) vitenskapelige poke-metoden fant jeg følgende.
Først utfører vi alle prosedyrene beskrevet ovenfor.
Etter at alt er gjort, klikk Koble til en projektor eller WinKey (aka avkrysningsboks) + P som Windows anbefaler oss:

Et panel åpnes

Velg her Duplisere. IKKE UNDER INGEN OMSTENDIGHET VELG KUN EN PROJEKTOR !!! Ellers kan du få en svart skjerm. Det er ingen vinduer, markøren kjører ikke, trykk Escape og omstart hjelper ikke. Hva å gjøre? Du kan starte på nytt i sikkerhetsmodus og fjern sjåføren, eller du kan bare opptre i blinde - trykk WinKey + P, venstre pil og Enter.

Hvis alt er gjort riktig, får vi følgende:

Det kan skje at et bilde i en ikke-native oppløsning vil gå til skjermen. For å gjøre dette, velg hver skjerm og angi ønsket oppløsning for hver av dem. Ikke glem å bekrefte endringer i innstillingene med knappen Søke om.

For å avbryte de utførte handlingene, trykk igjen Koble til en projektor eller WinKey + P og velg Utvide.

Datamaskinen vil blinke skjermen og skjermene vil bli konfigurert på samme måte som i den første delen av denne artikkelen

Merk: siste vei garantert fungerer kun på Windows 7... På Windows 10 garantert virker ikke... På Windows 8/8.1 ytelsen er ikke testet.

For sim hvis du kan bukke. Håper denne informasjonen var nyttig for noen.

Presentert ny verson bedriftens programvareprodukt kalt systemverktøy. Verktøyet er designet for finjustering og overklokking av hovedkort basert på systemlogikk nTving familier og GeForce skjermkort... Gir overvåkingsfunksjoner (temperatur, viftehastighet, spenning) og endring av de "fine" innstillingene til systemkomponenter (viftehastighet, spenning), ved hjelp av en enkel og klart grensesnitt... Det kan overklokke systemet, samt sjekke det for stabilitet ved hjelp av en spesiell veiviser.

Alle operasjoner gjøres i miljøet operativsystemer Windows uten å måtte starte datamaskinen på nytt (bortsett fra "auto overklokking") og gå inn i BIOS. Avhengig av hovedkortmodellene, kan programmets funksjoner være begrenset, i noen tilfeller betydelig.


Systemverktøy arver fra forrige versjon kjent som nTune.

Denne utgivelsen støtter offisielt hele spekteret av nForce-systemlogikk, starter med fjerde generasjon, og slutter med den syvende. Virkelig funksjonell på eldre hovedkort vil være noe begrenset, siden produktet er designet for de nyeste løsningene fra nForce 680/780/790-familien. Den er også offisielt støttet av ESA (Enthusiast System Architecture). den åpen standardå administrere strømforsyninger og kjølesystemer, som igjen promoteres av nVIDIA ().



Programmet består av flere moduler. Alle av dem utfører funksjonene som er strengt tildelt dem. Den første lar deg administrere maskinvareinnstillinger og overklokke. Den andre er en mer 3D-applikasjon som overvåker helsen til datamaskinens maskinvarekomponenter. Og den tredje lar deg se etter de nyeste tilgjengelige driverne for enheter via Internett (igjen laget av nVIDIA).