Ladda ner nvidia systemverktyg. NVidia Optimus-verktyg: kontrollera funktionen hos nVidia Optimus

Sedan länge har bärbara datorer ofta varit utrustade med två grafikkort. En, svag (integrerad), kan vara en del av en bärbar dator eller processorchipset och är mer avsedd för att spara energi när det inte behövs hög prestanda, och den andra, starkare (diskret, nvidia eller radeon) används för spel och tunga applikationer, som kräver mer seriös prestanda.
Endast principen för detta tillvägagångssätt ändras. Först, för att byta grafikkort, var det nödvändigt att starta om den bärbara datorn, sedan räckte det med att trycka på en knapp speciellt utformad för detta på fodralet eller i programmet, och det kunde vara problem med bilden, även tills en omstart. Föraren bytte och bildbufferten överfördes till ett annat kort.
Den senaste modetrenden - automatisk växling laptop grafikkort beroende på belastningen. När det gäller nVidia-grafik kallas denna teknik för Optimus.

Teknik designad för att förenkla arbetet med en bärbar dator och automatisera bytet av grafikkort, visar sig i verkligheten ofta vara problematisk - ett kraftfullt diskret grafikkort slås ibland inte på när det behövs, och det är svårt att avgöra vilket kort som fungerar i det här ögonblicket och vilka applikationer den är redo att tjäna (det vill säga när den kommer att slås på) kan vara ganska svårt. Faktum är att utdata från bilden i det här fallet (och när du använder diskret, kraftfullt grafikkort) sker genom den inbyggda Intel-videon. Detta är en nödvändighet och en funktion av implementeringen: detta eliminerar behovet av att helt byta drivrutin och överföra bilder från ett grafikkort till ett annat.

För ett system är detta tillvägagångssätt idealiskt, för det finns det ett fungerande grafikkort, inga hemorrojder med definitioner av switchad utrustning, överföring av bildbufferten. För användaren... ur ett rent användarperspektiv är detta också ett utmärkt alternativ: varför veta vilket kort som fungerar? Det fungerar och är jättebra. Men när du behöver veta detta är detta ett problem. Tills nyligen fanns det inget inbyggt sätt att avgöra vilken videoprocessor som används för att rendera just nu och i just detta program. I nya versioner av nvidia-drivrutinen fungerar det diskret kort lätt att se - nära klockan längst ner visar ikonen dig om diskret video används eller inte. Men detta händer inte alltid, och ännu mer när det gäller inte nya bärbara datorer. Därför, för att se vilket grafikkort som används, och, ännu viktigare, för att se listan över applikationer som detta grafikkort används för, använd nVidia Optimus-verktyg.
Du kan ladda nerhärifrån (letitbit) ellerhärifrån (turbobit). Jag kanske är en idiot, men jag hittade inte verktyget på andra sidan, så jag kan inte ge en direkt länk. Arkivet innehåller två mappar, en för ett 32-bitarssystem, den andra för ett 64-bitarssystem och dessutom GPU-Z, ett informationsverktyg som ger fullständig information om ditt grafikkort.

NVGPUSStateViewer.exe(vänster) - visar Nuvarande tillstånd nVidia GPU, på eller av.
NvOptimusTestViewer.exe(höger) – markera rutan "Visa applikationer renderade av DGPU", så ser vi en lista över program som renderas med nVidia-chippet.

Och två punkter till - nVidia Optimus STÖDS INTE på Windows XP eller Linux. För XP- redan kommer aldrig att bli, det maximala som kan göras är att inaktivera denna teknik i bios (detta är inte möjligt på alla bärbara datorer, och i allmänhet är det sällsynt, och är mer sannolikt att förekomma på äldre modeller, där Optimus inte är "renrasig ”); För Linux finns det en möjlighet att det kommer en lösning med optimus, men den är fortfarande ganska liten. Det finns ett projekt som heter "Bumblebee", som låter Linux-användare hoppas på en korrigering av situationen, men för närvarande är det en sämre analog av optimus, men ett surrogat med en massa problem och varningar.

För att köra spelet med ett specifikt grafikkort finns det två alternativ: Högerklicka på spelikonen - välj "kör med GPU" - och där " Högpresterande Nvidia-processor". Nu kommer spelet att börja använda nVidia grafikkort.
För att slippa behöva manuellt välja ett grafikkort varje gång du startar, välj "ändra standard grafikprocessor" där. Kommer öppna nVidia-inställningar, där du måste välja startfilen från spelmappen (. exe-spel). Här måste vi ta hänsyn till att vissa spel kräver att man lägger till en sådan lansering inte bara en körbar spelfil, utan också någon annan medföljande. Till exempel, för Skyrim måste du lägga till filerna TESV.exe och skyrimlauncher.exe.

Och en sak till - vill du ha 3D på din TV? Figuriner. Optimus stöder inte 3D-utmatning till externa skärmar på grund av att bildutmatningen Alltid utförs med ett kort från Intel. Detta är anledningen till att det integrerade kortet inte kan inaktiveras.

Som en extra bonus - FAQ på Optimus från nVidia.

Fråga: Optimus-teknik finns tillgänglig för diskreta grafikkort?
Svar: Nej. Optimus erbjuds endast för slutsystem, såsom bärbara datorer och allt-i-ett-datorer.
Fråga:Är det någon prestationsförlust? grafiska lösningar NVIDIA Optimus på grund av behovet av att mata ut bilder via Intel IGP?
Svar: Lätt, ±3%.
Fråga: Kommer NVIDIA att släppa kombinerade drivrutinspaket för Optimus GPU och Intel IGP?
Svar: Nej, grafik drivrutin Optimus är ett separat paket, liknande standardpaket NVIDIA-drivrutiner. Grafisk Intel-processorer använda en drivrutin från Intel, Intel och NVIDIA drivrutiner kan uppdateras oberoende.
Fråga: Kommer Optimus att stödja 3D Vision-teknik på både NVIDIA GPU och Intel IGP?
Svar: Nej, 3D Vision är för närvarande endast tillgängligt på skärmar som är direkt anslutna till en NVIDIA-diskret GPU.
Fråga: Stöder Optimus SLI?
Svar: Nej, Optimus + SLI-kombinationer stöds för närvarande inte.
Fråga: Fungerar Intel IGP och NVIDIA GPU samtidigt på system med Optimus? Kan de användas för 3D-rendering tillsammans? Svar: Intel IGP är alltid aktiv, åtminstone ansvarar den för skrivbordsbilden. Därefter bestämmer Optimus-drivrutinen individuellt för varje applikation vilken GPU som ska användas för att rendera den. Så det är möjligt att vissa 3D-applikationer körs på GPU:n och några på IGP.
Fråga: Hur bestämmer man det aktuella tillståndet för GPU:n (aktiv/inaktiverad) på ett system med Optimus?
Svar: Ur användarens synvinkel finns det inga speciella tecken för att bestämma GPU:ns tillstånd. För operativsystemet verkar GPU vara tillgänglig hela tiden. Om grafikprocessorn inte används för rendering och bildskärmarna som är anslutna till den är inaktiva, programvara Optimus stänger av GPU:n.
Fråga: Hur man avgör om GPU eller IGP renderar aktuell ansökan på ett system med Optimus?
Svar: Ur en användares perspektiv finns det inga specifika ledtrådar för att avgöra vilken GPU som gör renderingen. I NVIDIAs kontrollpanel kan du ställa in inställningar för specifik tillämpning, och även aktivera ett speciellt gränssnitt för att manuellt välja en grafikadapter. För skärmar som är anslutna direkt till GPU:n görs alltid renderingen av GPU:n.
Fråga: Hur förstår vi termerna "IGP-rendering" och "GPU-rendering" i relation till applikationer i Optimus?
Svar: På system med Optimus kan grafik eller generella datorapplikationer köras på en GPU och visa resultaten på en annan. Till exempel kan en bildskärm ansluten till IGP visa både bilden beräknad av IGP och bilden beräknad av GPU:n. Valet görs för varje applikation separat och är helt dolt för användaren, även om det kan konfigureras i NVIDIA-panelen. För skärmar som är anslutna direkt till GPU:n görs alltid renderingen av GPU:n.
Fråga: Hur förstår vi termerna "IGP display" och "GPU display" i relation till applikationer i Optimus?
Svar: En IGP-skärm, som definitionen antyder, är ansluten till en Intel IGP. De flesta skärmar på Optimus-system, inklusive bärbara paneler, är anslutna till IGP. IGP-skärmar kan visa både IGP-bilden och GPU-bilden, beroende på vilken Optimus väljer att rendera applikationen. GPU-skärmar är anslutna direkt till NVIDIAs diskreta GPU-utgångar och kan stödjas av vissa system, t.ex. HDMI-utgång i PineTrail-plattformen. Bildförberedelse för applikationer som visas på GPU-skärmar görs alltid på GPU:n.
Fråga: Finns det någon form av "switch" för att tvinga alla applikationer att köras på IGP, eller alla till GPU:n i Optimus-plattformen?
Svar: Vissa inställningar tillhandahålls endast för specifika fall och bör inte användas utan anledning. GPU:n slås alltid på när det behövs. Att tvinga fram rendering på IGP kan få allvarliga prestandakonsekvenser (till exempel kommer en del videoinnehåll inte att spelas upp) och kommer att förvirra användaren med olika programbeteende från lansering till lansering. Den största fördelen med Optimus är just att dölja övergående processer för användaren.
Fråga: Stöds HDCP-innehållsskydd på Optimus-system?
Svar: En HDCP-relation upprättas mellan skärmen och grafikprocessorn som den är direkt ansluten till. För IGP-skärmar styrs processen av IGP själv. NVIDIA är inte involverad i den. För GPU-skärmar löses allt av en standardmekanism för lagring av krypteringsnycklar, som i konventionella NVIDIA-lösningar.
Fråga: Hur går stödet för att överföra ljud [till skärmen] till i Optimus-plattformen?
Svar: Grafikadaptern som bildskärmen är direkt ansluten till ansvarar för att överföra ljud. NVIDIA-ljuddrivrutinen används inte för IGP-anslutningar, för GPU-anslutningar fungerar drivrutinen som den skulle på alla system med flera grafikadaptrar.
Fråga: Hur stöds videouppspelning på Optimus-plattformen?
Svar: Intels IGP-videokapacitet varierar mellan styrkretsen. Medan Arrandale stöder full HD-videoacceleration utan hjälp utifrån, PineTrail kan inte skryta med detta. När NVIDIA GPU kan ge prestanda eller kraftfördelar, utnyttjar Optimus-drivrutinen GPU:n för att förbättra användarnas tillfredsställelse. För IGP-anslutna skärmar renderas video i SD-kvalitet alltid av IGP, precis som HD på de flesta chipset förutom PineTrail, som använder GPU. Om videon är kopieringsskyddad, till exempel uppspelning från Blu-ray-skivor, och avkodad på GPU:n, kan den nedgraderas till SD-kvalitet för överföring till en IGP-ansluten skärm. Videoutgång till skärmar som är direkt anslutna till GPU:n bearbetas alltid av GPU:n.
Fråga: Påverkar anslutning av bildskärmar till GPU-utgångarna prestanda för applikationer som matas ut via IGP på Optimus-plattformen?
Svar: Optimus-tekniken fungerar oavsett förekomsten av skärmar anslutna till GPU:n.
Fråga: Vilka skärmkombinationer är möjliga mellan GPU och IGP på ett Optimus-system?
Svar: Konfigurationen av IGP-skärmar bestäms helt av själva IGP och dess drivrutiner. Noll till två skärmar anslutna till IGP kan användas när som helst. Om systemet implementerar GPU-utgångar, stöds ytterligare en GPU-skärm. Totalt stöds upp till tre skärmar samtidigt för två videoadaptrar. Windows stöder inte bildkloningsläge för skärmar som är anslutna till olika grafikadaptrar, endast för skärmarna för en adapter, så att endast skrivbordsförlängningsläget är tillgängligt för skärmarna på alla adaptrar samtidigt.
Fråga: Hur hanteras bildskärmsanslutningar och videolägesinställningar på system med Optimus?
Svar: Om det inte finns några skärmar anslutna direkt till GPU:n är allt arbete med skärmarna gjort Intel drivrutin I.G.P. Om det finns GPU-skärmar kommer NVIDIA-drivrutinsfunktionerna också att anropas.
Fråga: Vilka skärmutgångar stöds för GPU:er i Optimus-plattformen? Hur bestäms anslutningen av displayen till dem?
Svar: För närvarande stöds endast HDMI, baserat på definitionsspecifikationen HDMI-anslutningar. Stöd för DisplayPort, DVI och VGA planeras för framtiden, men kan kräva speciella hårdvaruanpassningar (DDC MUX).
Fråga: Optimus stöder GPU-delade skärmutgångar som Hybrid?
Svar: Nej, i Optimus är varje utgång ansluten till endast en GPU. Men liksom Hybrid måste plattformen tillhandahålla gemensam IGP- och GPU-detektering av bildskärmsanslutningar, eftersom GPU:n kan inaktiveras.

En liten utvikning:
Till en början hade absolut alla bärbara datorer bara grafikutgångsenheter som inte alls stödde 3D-bearbetning, och även om de gjorde det var det väldigt dåligt.

Till exempel hade en av mina bärbara datorer från 2000 en NeoMagic-videoadapter, utrustad med endast 2,5 megabyte videominne och stödde endast D2D-läge (den körde mer eller mindre Diablo II), och den andra bärbara datorn (2003) hade en S3 med 8 megabyte videominne (du kan spela Counter Strike med bromsarna).

Dock hög grafikprestanda, särskilt i spel, var de inte nödvändiga: bärbara datorer var mycket dyra nischprodukter för företagsanvändare, som hade höga krav på rörlighet, och därför acceptabel batteritid.

Men åren gick 3D-grafik aktivt erövrade världen, och sedan började bärbara datorer bli en allt mer utbredd och, viktigare, universell produkt.

Följaktligen började de användas i ett brett spektrum av uppgifter - från vanliga kontorsuppgifter till multimedia, och användare slutade mycket snabbt att vara nöjda med den låga effektiviteten hos grafiklösningar inbyggda i bärbara datorer.

Tillverkare började stärka det grafiska undersystemet för bärbara datorer, och till och med en klass av enheter dök upp, kallade spelbärbara datorer ...

Men det är lätt att gissa att energiförbrukningen för sådana bärbara datorer har ökat kraftigt, vilket har en negativ inverkan på deras tid. Batteri-liv. Förresten, toppen Alienware bärbara datorer från Dell, utrustad med den högsta hårdvaran för tillfället, förbrukar cirka 300 watt vid topp. Ett sådant monster kommer uppenbarligen inte att hålla länge på batterier.

En splittring uppstod: den bärbara datorn var antingen kraftfull, men stor, tung och med mycket kort batteritid, eller liten, lätt, med bra tid batteritid, men dålig spelprestanda.

Ingenjörer ställdes inför komplexa (och till och med uteslutande) uppgifter, nämligen hur man samtidigt bevarar länge sedan batteritid och hög grafikprestanda.

För närvarande finns det en sådan lösning: den bärbara datorn har två videoacceleratorer - oftast grafikkärna Intel HD-grafik och diskret videoaccelerator från Nvidia, vars växlingsläge kan väljas i panelen Nvidia kontroll:


Totalt 3 lägen är tillgängliga: Välj automatiskt, Och Integrerad grafikhårdvara.

Om du sätter Välj automatiskt, då teoretiskt sett bör systemet självt välja en grafikaccelerator beroende på belastningen på det grafiska delsystemet.

Du kan välja ett av lägena (standard är Välj automatiskt); efter att ha valt läge, tryck på Tillämpa. Det kan fungera omedelbart, eller så kan du behöva starta om systemet.

Trots det faktum att i bärbara datorer med Nvidia-teknik Optimus har två grafiska enheter, bild på bildskärm Alltid matas ut genom en integrerad accelerator, och därav det speciella med driften av vissa spel som helt enkelt inte vet om existensen extern video eller av någon anledning inte kan komma åt det.

I den här artikeln kommer vi att titta på flera sätt att tvinga spel och applikationer att köras på ett diskret videochip från Nvidia.

Standardmetoder
A. Det enklaste sättet. Högerklicka på genvägen och välj Kör med GPU > Högpresterande Nvidia-processor

B. Programvarubindning av diskret video i Nvidia-panelinställningarna.
1. Öppna Nvidias kontrollpanel Hantera 3D-inställningar och gå till fliken Globala alternativ , där vi ställer ut Högpresterande Nvidia-processor och klicka Tillämpa.

Om du vill tvinga diskret (liksom integrerad; jag var tvungen att tilldela integrerad video till Firefox webbläsare, eftersom när du väljer diskret accelerator det började spy ut artefakter och kraschade med fel) video endast för vissa applikationer, gå till fliken Programvaruinställningar:


2. Tryck på knappen Lägg till och ange körbar fil spel som vi kommer att tvinga lansera med diskret video.
Ett specialfall - endast för spel och applikationer som använder Java maskin(till exempel Minecraft och andra). Det som behöver läggas till i listan är inte spelets körbara fil, utan själva Java-maskinen. För att göra detta måste du först hitta var javaw.exe-filen körs från. Du kan till exempel starta aktivitetshanteraren, gå till fliken Processer, för markören över processen vi är intresserade av, högerklicka och välj Egenskaper. Sökvägen kommer att anges i fönstret som öppnas. Jag har javaw.exe i mappen C:\Windows\SysWOW64(Windows 7 Ultimate 64 bitar, Java 7SE 32 bitar). När platsen för filen är känd lägger du till den enligt beskrivningen ovan.

3. Välj från rullgardinsmenyn Högpresterande Nvidia-processor.
4. Tryck på knappen Tillämpa.
Det kan fungera direkt, eller så kan du behöva starta om systemet.

Om standardmetoder hjälpte inte, det finns en annan - inte särskilt uppenbar, men ganska fungerande.
1. Öppna Skärmupplösning:

2. Tryck på knappen Hitta. Ytterligare två monitorer kommer att dyka upp med inskriptionerna Ingen annan skärm upptäcktes:

3. Välj en bildskärm som matchar den diskreta videoacceleratorn:

Som jämförelse valdes en bildskärm som motsvarar den integrerade Intel HD Graphics-videokärnan:

4. Välj från rullgardinsmenyn Flera skärmar paragraf Försök att ansluta till VGA ändå, tryck på knappen Tillämpa:

Resultatet blir följande:

5. Välj Utöka dessa skärmar, klick Tillämpa, bekräfta att du sparar parametrarna:

Vi observerar resultatet.
Båda grafikkorten är nu tillgängliga i spelinställningarna.
TES: Skyrim inställningsfönster:

OCH Dragon Age: Ursprung:

Onödigt att säga, går spelen snabbare nu?

Videokortets övervakningswidget från 0rbmu2k bestämmer nu normalt den totala mängden minne, mängden upptaget minne och GPU-belastning i procent:

Och här är Adobe Photoshops prestandainställningar:

Och PTGui-inställningsfönstret, där jag samlar panoramabilder:

Även på ett kort så långt ifrån det snabbaste som GT630M med 1 gigabyte DDR3-minne på en 128-bitars buss, återger Photoshop bilder och verktyg mycket snabbt. Så, till exempel, rör sig beskärningsramen över bilden smidigt, och inte ryckigt, som om hårdvaruacceleration fungerade inte.
Sfäriska panoramabilder i PTGui med en upplösning på cirka 26000 * 13000 (tjugosex tusen gånger tretton tusen är inte ett stavfel) med aktiverad hårdvaruacceleration sammanfogas på några minuter, medan på central processorÄven när alla 8 trådar användes tog vissa panoramabilder i genomsnitt 10-15 till 20-30 minuter att montera.

Förresten, jag spelade Crysis 2 och lade till en körbar fil Nvidia panel enligt den första metoden. Grafikinställningar med tweaker Crysis2AdvancedGraphicsOptions för bekvämt spel Jag var tvungen att ställa in den till ett minimum (det visade sig att Crysis 2 envist körde på Intel core HD4000). Nu går det smidigt vid extrema inställningar (dock med anisotropi inaktiverad).

Nackdelarna med denna lösning är:
1. Systemet har en andra bildskärm där markören, genvägar, widgets, fönster etc. kan gå.
2. Vissa spel körs på en andra osynlig bildskärm.

Och till sist, några ord om hur du återställer inställningarna:
1. Välj från rullgardinsmenyn Visa skrivbordet på endast 1:

tryck på knappen Tillämpa, bekräfta att du sparar parametrarna, ser vi följande:

2. Välj den andra monitorn, välj Ta bort denna monitor:

Klick Tillämpa.

Inställningarna har avbrutits.

Jag gjorde ett mycket bra jobb i kommentarerna intresse Fråga från Rodion från Kiev:
Tyvärr har jag personligen hamnat i en återvändsgränd, eftersom min monitor (TV) INTE är ansluten via VGA!!! och via HDMI ser jag inte den tredje utökade skärmen, vet du?
Jag har en bärbar LCD-skärm, jag har en LCD-TV där slaven dupliceras. tabell.
Som ett resultat av det som beskrivs i artikeln har jag en tredje bildskärm, och när jag utökar skrivbordet på den tar jag bort fönstren. Vad ska man göra? Hur tvingar man ett diskret grafikkort att mata ut allt direkt till HDMI?

Jag ska försöka svara på det också.
Genom att (o)vetenskapligt peta hittade jag följande.
Först utför vi alla procedurer som beskrivs ovan.
När allt är klart klickar du Ansluta till en projektor eller WinKey (aka kryssruta) + P, som Windows rekommenderar oss:

En panel öppnas

Välj här Duplicera. VÄLJ INTE BARA EN PROJEKTOR!!! Annars kan du få en svart skärm. Det finns inga fönster, markören rör sig inte, att trycka på Escape och starta om hjälper inte. Vad ska man göra? Du kan starta om till säkert läge och ta bort drivrutinen, eller så kan du bara agera blint - klicka WinKey + P, Vänsterpil och Enter.

Om allt är gjort korrekt får vi följande:

Det kan hända att en bild i en icke-inbyggd upplösning visas på skärmen. För att göra detta, välj varje skärm och ställ in önskad upplösning för var och en av dem. Glöm inte att bekräfta inställningsändringarna med knappen Tillämpa.

För att ångra de utförda åtgärderna, tryck igen Ansluta till en projektor eller WinKey+P och välj Bygga ut.

Datorn kommer att blinka på skärmen och bildskärmarna kommer att ställas in på samma sätt som i den första delen av denna artikel

Notera: sista metoden garanterat fungerar bara på Windows 7. På Windows 10 garanterat fungerar inte. På Windows 8/8.1 prestanda har inte testats.

För detta, ta ledigt. Jag hoppas att denna information var användbar för någon.

Presenteras ny version märkesvaror mjukvaruprodukt kallas Systemverktyg. Verktyget är designat för att finjustera och överklocka moderkort baserat på systemlogik nForce familj och GeForce grafikkort. Tillhandahåller funktioner för övervakning (temperatur, fläkthastighet, spänning) och ändring av "fina" inställningar av systemkomponenter (fläkthastighet, spänning), med enkla och tydligt gränssnitt. Den kan överklocka systemet och även kontrollera dess stabilitet med hjälp av en speciell guide.

Alla operationer utförs i miljön operativsystem Windows utan att behöva starta om datorn (förutom "automatisk överklockning") och gå in i BIOS. Beroende på moderkortsmodeller kan programmets möjligheter vara begränsade, i vissa fall avsevärt.


Systemverktyg är efterföljaren till den tidigare versionen, känd som nTune.

Den här utgåvan stöder officiellt hela utbudet av nForce-systemlogik, från och med fjärde generationen, och slutar på sjunde. Riktigt funktionell på äldre moderkort kommer att vara något begränsad, eftersom produkten är designad för de senaste lösningarna i nForce 680/780/790-familjen. Dessutom stöds ESA (Enthusiast System Architecture) officiellt. Detta öppen standard för hantering av strömförsörjning och kylsystem, vilket återigen främjas av nVIDIA ().



Programmet består av flera moduler. Alla av dem utför strikt tilldelade funktioner. Den första låter dig hantera hårdvaruinställningar och överklocka. Den andra är en mer tredimensionell applikation som övervakar tillståndet hos datorhårdvarukomponenter. Och den tredje låter dig söka via Internet efter de senaste tillgängliga drivrutinerna för enheter (återigen, tillverkade av nVIDIA).