Vilken serie bildskärmar har g sync-teknik. Vad är AMD FreeSync och Nvidia G-Sync


Det finns saker som inte bara är svåra att skriva om, utan väldigt svåra. Som du bara behöver se en gång, istället för att höra om dem hundra gånger eller läsa på Internet. Det är till exempel omöjligt att beskriva vissa naturliga underverk, som den majestätiska Grand Canyon eller de snötäckta Altaibergen. Du kan titta på vackra bilder med sina bilder hundra gånger och beundra videor, men allt detta kan inte ersätta liveintryck.

Ämnet för mjuk bildutmatning på monitorn med hjälp av teknik Nvidia G-Sync gäller även sådana ämnen - av textbeskrivningar Förändringarna verkar inte vara så betydande, men redan under de allra första minuterna av att spela ett 3D-spel på ett system med ett Nvidia Geforce-grafikkort kopplat till en G-Sync-monitor blir det tydligt hur stort ett kvalitativt språng detta är. Och även om det har gått mer än ett år sedan tillkännagivandet av tekniken, tappar tekniken inte sin relevans, den har fortfarande inga konkurrenter (bland de lösningar som har kommit in på marknaden), och motsvarande bildskärmar fortsätter att produceras.

Nvidia har arbetat med att förbättra den visuella upplevelsen för Geforce GPU-användare i moderna spel genom att göra renderingen smidigare under ganska lång tid. Du kan komma ihåg den adaptiva synkroniseringstekniken Adaptive V-Sync, som är en hybrid som kombinerar lägen med vertikal synkronisering aktiverad och inaktiverad (V-Sync On och V-Sync Off, respektive). Om grafikprocessorn tillhandahåller rendering med en bildhastighet som är lägre än bildskärmens uppdateringsfrekvens, är synkroniseringen inaktiverad och för FPS som överskrider uppdateringsfrekvensen, är den aktiverad.

Adaptive Sync löste inte alla problem med smidighet, men det var ändå ett viktigt steg i rätt riktning. Men varför var det nödvändigt att skapa några speciella synkroniseringslägen och till och med släppa mjukvaru- och hårdvarulösningar? Vad är det för fel på teknik som har funnits i decennier? Idag ska vi berätta hur Nvidia G-Sync-teknik hjälper till att eliminera alla kända visningsartefakter, såsom bildrivning, ojämn film och ökad fördröjning.

Ser vi långt fram kan vi säga att G-Sync synkroniseringsteknik gör att du kan få en mjuk rambyte med högsta möjliga prestanda och komfort, vilket märks mycket när du spelar på en sådan monitor – detta märks även för en vanlig person. hemanvändare, och för ivrig spelare kan det innebära förbättrad reaktionstid, och samtidigt spelprestationer.

Idag använder de flesta PC-spelare skärmar med en uppdateringsfrekvens på 60 Hz – typiska LCD-skärmar, de mest populära nu. Följaktligen, både när synkronisering är påslagen (V-Sync On) och när den är avstängd, finns det alltid några brister i samband med grundläggande problem uråldriga tekniker, som vi kommer att prata om senare: höga fördröjningar och FPS-ryck när V-Sync slås på och obehaglig bildrivning när den är avstängd.

Och eftersom förseningar och ojämna bildfrekvenser är mer störande och irriterande för spelet, är det sällan några spelare som slår på synkronisering alls. Och även vissa modeller av bildskärmar med en uppdateringsfrekvens på 120 och 144 Hz som har dykt upp på marknaden kan inte hjälpa till att eliminera problemen helt, de gör dem helt enkelt något mindre märkbara, uppdaterar skärmens innehåll dubbelt så ofta, men samma artefakter är fortfarande närvarande: eftersläpningar och frånvaron av samma bekväma jämnhet.

Och eftersom bildskärmar med G-Sync, parade med ett lämpligt Nvidia Geforce-grafikkort, inte bara kan ge en hög uppdateringsfrekvens, utan också eliminera alla dessa brister, kan köp av sådana lösningar anses vara ännu viktigare än att ens uppgradera till en kraftfullare GPU . Men låt oss först ta reda på varför det var nödvändigt att göra något annat än sedan länge kända lösningar - vad är problemet?

Problem med befintliga videoutgångsmetoder

Teknologier för att visa bilder på en skärm med en fast uppdateringsfrekvens har dykt upp sedan de tider då monitorerna är på katodstrålerör(CRT). De flesta läsare bör komma ihåg dem - grymma, precis som gamla tv-apparater. Dessa teknologier utvecklades ursprungligen för att visa tv-bilder med en fast bildhastighet, men när det gäller enheter för att visa 3D-bilder dynamiskt beräknade på en PC, orsakar denna lösning stora problem, har ännu inte lösts.

Även de modernaste LCD-skärmarna har en fast uppdateringsfrekvens på bilden på skärmen, även om tekniskt sett ingenting hindrar dig från att ändra bilden på dem när som helst, med vilken frekvens som helst (inom rimliga gränser förstås). Men PC-spelare sedan CRT-skärmarnas dagar har tvingats stå ut med en avgjort ofullständig lösning på problemet med att synkronisera bildfrekvensen för 3D-rendering och bildskärmens uppdateringsfrekvens. Hittills har det funnits väldigt få alternativ för bildutmatning - två, och båda har nackdelar.

Roten till alla problem är att med en fast uppdateringsfrekvens för bilden på monitorn renderar grafikkortet varje bildruta vid en annan tidpunkt - detta beror på scenens ständigt föränderliga komplexitet och belastningen på GPU:n. Och renderingstiden för varje bildruta är inte konstant, den ändrar varje bildruta. Det är inte konstigt att synkroniseringsproblem uppstår när man försöker visa ett antal bildrutor på skärmen, eftersom vissa av dem kräver mycket mer tid att rendera än andra. Som ett resultat får vi olika förberedelsetider för varje bildruta: ibland 10 ms, ibland 25 ms, till exempel. Och bildskärmar som fanns före G-Syncs tillkomst kunde bara visa bildrutor efter en viss tidsperiod – inte tidigare, inte senare.

Saken kompliceras ytterligare av mängden mjukvaru- och hårdvarukonfigurationer för speldatorer, i kombination med mycket olika belastningar beroende på spel, kvalitetsinställningar, videodrivrutininställningar etc. Som ett resultat är det omöjligt att konfigurera varje spelsystem så att utbildning genomförs med konstanta eller åtminstone inte alltför olika tider i alla 3D-applikationer och förhållanden - som är möjligt på spel konsoler med sin enda hårdvarukonfiguration.

Naturligtvis, till skillnad från konsoler med sina förutsägbara bildåtergivningstider, är PC-spelare fortfarande allvarligt begränsade i sin förmåga att uppnå en smidig spelupplevelse utan märkbara fall och fördröjningar. I ett idealiskt (läs - omöjligt i verkligheten) fall bör uppdatering av bilden på monitorn utföras strikt efter GPU Nästa ram beräknas och förbereds:

Som du kan se, i detta hypotetiska exempel har GPU:n alltid tid att rita en ram innan den behöver överföras till monitorn - bildrutetiden är alltid något mindre än tiden mellan uppdateringar av informationen på skärmen, och i mellan GPU:n vilar lite. Men i verkligheten är allt helt annorlunda - bildåtergivningstiden är väldigt annorlunda. Föreställ dig om grafikprocessorn inte har tid att rendera en bildruta på den tilldelade tiden - då måste ramen antingen visas senare, hoppa över en bilduppdatering på skärmen (vertikal synkronisering är aktiverad - V-Sync On), eller så måste ramarna vara visas i delar med synkronisering inaktiverad, och sedan på skärmen samtidigt kommer det att finnas bitar från flera intilliggande ramar.

De flesta användare stänger av V-Sync för att få lägre latens och jämnare bildrutor på skärmen, men den här lösningen introducerar synliga artefakter i form av bildrivning. Och med synkronisering aktiverad blir det ingen bildrivning, eftersom ramarna endast visas i sin helhet, men fördröjningen mellan spelarens handling och bilduppdateringen på skärmen ökar, och bildutmatningshastigheten är mycket ojämn, eftersom GPU:n ritar aldrig ramar strikt i enlighet med bilduppdateringstiden på monitorn.

Det här problemet har funnits i många år och stör uppenbarligen bekvämligheten med att se resultatet av 3D-rendering, men fram till en tid brydde sig ingen om att lösa det. Och lösningen, i teorin, är ganska enkel - du behöver bara visa information på skärmen strikt när GPU:n slutar arbeta på nästa bildruta. Men låt oss först ta en närmare titt på exempel på hur exakt befintlig bildutmatningsteknik fungerar och vilken lösning Nvidia erbjuder oss i sin G-Sync-teknik.

Nackdelar med utgång när synkronisering är inaktiverad

Som vi redan har nämnt föredrar de allra flesta spelare att hålla synkroniseringen avstängd (V-Sync Off) för att få ramarna som ritas av GPU:n att visas på skärmen så snabbt som möjligt och med minimal fördröjning mellan spelarens åtgärder (tangenttryckningar, muskommandon) och deras visning. För seriösa spelare är detta nödvändigt för segrar, och för vanliga spelare i det här fallet kommer sensationerna att vara trevligare. Så här ser det schematiskt ut att arbeta med V-Sync inaktiverad:

Det finns inga problem eller förseningar med utmatningen av ramar. Men även om inaktiverad vertikal synkronisering löser fördröjningsproblemet så mycket som möjligt, ger minimal latens, visas samtidigt artefakter i bilden - bildrivning, när bilden på skärmen består av flera bitar av intilliggande ramar ritade av GPU:n. Ojämnt är bristen på jämnhet i videon på grund av ojämnheten i ramarna som kommer från GPU:n till skärmen - bildbrott på olika ställen.

Denna bildrivning uppstår som ett resultat av en bild som består av två eller fler bildrutor som återges på GPU:n under en enda bildskärmsuppdateringscykel. Av flera - när bildfrekvensen överstiger bildskärmens uppdateringsfrekvens, och av två - när den ungefär motsvarar den. Titta på diagrammet som visas ovan - om innehållet i rambufferten uppdateras i mitten mellan tillfällen då information visas på monitorn, så kommer den slutliga bilden på den att förvrängas - en del av informationen i detta fall tillhör den föregående ram, och resten till den nuvarande som ritas.

Med synkronisering inaktiverad sänds ramar till monitorn utan hänsyn till frekvensen och tiden för dess uppdatering och sammanfaller därför aldrig med monitorns uppdateringsfrekvens. Med andra ord, med V-Sync inaktiverad kommer bildskärmar utan G-Sync-stöd alltid att uppleva sådan bildrivning.

Poängen är inte bara att det är obehagligt för spelaren att se ränder som rycker över hela skärmen, utan också att den samtidiga återgivningen av delar av olika bildrutor kan felinformera hjärnan, vilket är särskilt märkbart med dynamiska objekt i bilden - spelaren ser delar av objekt förskjutna i förhållande till varandra. Du måste stå ut med detta bara för att inaktivera V-Sync ger minimal utmatningsfördröjning för tillfället, men är långt ifrån idealisk dynamisk bildkvalitet, som du kan se på följande exempel(ramar med full upplösning tillgängliga genom att klicka):

Med hjälp av exemplen ovan, tagna med FCAT-programvaran och hårdvarukomplexet, kan du se att den verkliga bilden på skärmen kan bestå av delar av flera intilliggande ramar - och ibland ojämnt, när en smal remsa tas från en av ramarna, och de intilliggande upptar den återstående (märkbart större) delen av skärmen.

Mer problemet är tydligare med bildrivning märks i dynamiken (om ditt system och/eller webbläsare inte stöder uppspelning av MP4/H.264-videor i en upplösning på 1920x1080 pixlar med en uppdateringsfrekvens på 60 FPS, måste du ladda ner dem och se dem lokalt med hjälp av en mediaspelare med lämpliga funktioner):

Som du kan se, även i dynamik, är obehagliga artefakter i form av bildavbrott lätt märkbara. Låt oss se hur detta ser ut schematiskt - i ett diagram som visar utdatametoden när synkronisering är inaktiverad. I det här fallet anländer ramar till bildskärmen omedelbart efter att grafikprocessorn har slutfört att rendera dem, och bilden visas på skärmen även om utmatningen av information från den aktuella bildrutan ännu inte har slutförts helt - den återstående delen av bufferten faller på nästa skärmuppdatering. Det är därför varje bildruta i vårt exempel som visas på skärmen består av två ramar ritade på GPU:n - med en bildbrytning på den plats som är markerad i rött.

I det här exemplet dras den första bildrutan (Draw 1) av GPU:n till skärmbufferten snabbare än dess 16,7 ms uppdateringstid - och innan bilden överförs till monitorn (Scan 0/1). GPU:n börjar omedelbart arbeta på nästa bildruta (ritning 2), vilket bryter bilden på skärmen, som innehåller ytterligare en halva av föregående bildruta.

Som ett resultat uppträder i många fall en tydligt synlig rand på bilden - gränsen mellan den partiella visningen av intilliggande ramar. I framtiden upprepas denna process, eftersom GPU:n arbetar på varje bildruta under en annan tid, och utan att synkronisera processen, kommer ramarna från GPU:n och de som visas på bildskärmen aldrig överensstämma.

För- och nackdelar med Vsync

När traditionell vertikal synkronisering (V-Sync On) är aktiverad uppdateras informationen på bildskärmen först när arbetet med ramen är helt slutfört av GPU:n, vilket eliminerar rivning i bilden, eftersom ramarna endast visas på skärmen . Men eftersom bildskärmen uppdaterar innehållet endast med vissa intervall (beroende på egenskaperna hos utenheten), medför denna bindning andra problem.

De flesta moderna LCD-skärmar uppdaterar information med en hastighet av 60 Hz, det vill säga 60 gånger per sekund - ungefär var 16:e millisekund. Och med synkronisering aktiverad är bildutgångstiden strikt bunden till monitorns uppdateringsfrekvens. Men som vi vet är GPU-renderingshastigheten alltid variabel, och tiden det tar att rendera varje bildruta varierar beroende på den ständigt föränderliga komplexiteten i 3D-scenen och kvalitetsinställningar.

Det kan inte alltid vara lika med 16,7 ms, men kommer att vara antingen mindre än detta värde eller mer. När synkronisering är aktiverad slutförs grafikprocessorns arbete med ramar igen antingen tidigare eller senare än skärmens uppdateringstid. Om ramen renderades snabbare än detta ögonblick, finns det inga speciella problem - den visuella informationen väntar helt enkelt på att skärmen ska uppdateras för att visa hela ramen på skärmen, och GPU:n är inaktiv. Men om ramen inte har tid att rendera inom den tilldelade tiden, måste den vänta på nästa bilduppdateringscykel på monitorn, vilket orsakar en ökning av fördröjningen mellan spelarens handlingar och deras visuella visning på skärmen. I detta fall visas bilden av den tidigare "gamla" ramen igen på skärmen.

Även om allt detta händer ganska snabbt, är ökningen av latens visuellt lätt märkbar, och inte bara av professionella spelare. Och eftersom bildåtergivningstiden alltid är variabel, orsakar inkoppling av bindning till bildskärmens uppdateringsfrekvens ryck när en dynamisk bild visas, eftersom bildrutor visas antingen snabbt (lika med bildskärmens uppdateringsfrekvens) eller två gånger, tre eller fyra gånger långsammare. Låt oss titta på ett schematiskt exempel på sådant arbete:

Illustrationen visar hur ramar visas på monitorn när vertikal synkronisering är på (V-Sync On). Den första bildrutan (Draw 1) renderas av GPU:n snabbare än 16,7 ms, så GPU:n går inte till jobbet med att rita nästa bildruta och river inte sönder bilden, som är fallet med V-Sync Off, utan väntar full effekt den första bilden på monitorn. Och först efter det börjar den rita nästa ram (Rita 2).

Men att arbeta med den andra bildrutan (ritning 2) tar längre tid än 16,7 ms, så efter att de löper ut visas visuell information från föregående bild på skärmen och den visas på skärmen i ytterligare 16,7 ms. Och även efter att grafikprocessorn har slutat arbeta med nästa bildruta, visas den inte på skärmen, eftersom bildskärmen har en fast uppdateringsfrekvens. Totalt måste du vänta 33,3 ms på att den andra bilden ska matas ut, och all denna tid läggs till fördröjningen mellan spelarens handling och slutet av bilden som matas ut till monitorn.

Till problemet med tidsfördröjning är en lucka i videosekvensens jämnhet, märkbar i ryckigheten i 3D-animationen. Problemet visas mycket tydligt i en kort video:

Men även de mest kraftfulla grafikprocessorerna i krävande moderna spel kan inte alltid ge en tillräckligt hög bildfrekvens som överstiger den typiska bildskärmens uppdateringsfrekvens på 60 Hz. Och följaktligen kommer de inte att tillåta dig att spela bekvämt med synkronisering påslagen och utan problem som bildrivning. Speciellt när det kommer till spel som onlinespel Battlefield 4, mycket krävande Far Cry 4 och Assassin's Creed Unity i höga upplösningar och maximala spelinställningar.

Det vill säga, den moderna spelaren har lite val - antingen få en brist på jämnhet och ökade förseningar, eller nöja sig med ofullständig bildkvalitet med trasiga bitar av ramar. Visst, i verkligheten ser allt inte så illa ut, för på något sätt spelade vi hela den här tiden, eller hur? Men i tider när de försöker uppnå det ideala i både kvalitet och komfort vill man ha mer. Dessutom har LCD-skärmar den grundläggande tekniska förmågan att mata ut ramar när grafikprocessorn indikerar det. Det enda som återstår är att koppla ihop GPU och bildskärm, och en sådan lösning finns redan - Nvidia G-Sync-teknik.

G-Sync-teknik - Nvidias lösning på problem

Så, de flesta moderna spel, när synkronisering är avstängd, orsakar bildrivning, och när synkronisering är aktiverad, orsakar de ojämna bildändringar och ökade förseningar. Även med höga uppdateringsfrekvenser eliminerar inte traditionella bildskärmar dessa problem. Det är troligt att Nvidias anställda har varit så trötta på valet mellan två mindre än idealiska alternativ för att visa ramar i 3D-applikationer under många år att de beslutat sig för att bli av med problemen genom att ge spelarna ett fundamentalt nytt tillvägagångssätt för att uppdatera information om Skärmen.

Skillnaden mellan G-Sync-teknik och befintliga metoder bildutmatning till skärmar är att tiden och bildhastigheten i fallet med Nvidia-versionen bestäms av Geforce GPU:n, och den ändras dynamiskt, och inte fixerad, som tidigare var fallet. Med andra ord i det här fallet full kontroll GPU:n tar över utdata från bildrutor - så fort den är klar med nästa bildruta visas den på bildskärmen, utan fördröjningar eller bildrivning.

Använder en liknande anslutning mellan GPU och på ett speciellt sätt anpassad bildskärmshårdvara, ger spelarna den bästa utdatametoden - helt enkelt idealisk när det gäller kvalitet, vilket eliminerar alla problem vi nämnde ovan. G-Sync säkerställer perfekt jämna bildbyten på skärmen, utan några förseningar, ryck eller artefakter som orsakas av visningen av visuell information på skärmen.

G-Sync fungerar naturligtvis inte magiskt, och för att få tekniken att fungera på bildskärmssidan krävs tillägg av speciell hårdvarulogik i form av ett litet kort från Nvidia.

Företaget samarbetar med bildskärmstillverkare för att inkludera G-Sync-kort i sina modeller spelskärmar. För vissa modeller finns det till och med ett alternativ för en uppgradering av användaren själv, men det här alternativet är dyrare och är inte vettigt, eftersom det är lättare att omedelbart köpa en G-Sync-skärm. För en PC räcker det att ha något av de moderna Nvidia Geforce-grafikkorten i sin konfiguration, och en installerad G-Sync-optimerad videodrivrutin - någon av de senaste versionerna duger.

När Nvidia G-Sync-teknik är aktiverad, efter att ha avslutat bearbetningen av nästa bildruta i en 3D-scen, skickar Geforce-grafikprocessorn en speciell signal till G-Sync-kontrollkortet som är inbyggt i monitorn, och den talar om för monitorn när bilden ska uppdateras på skärmen. Detta gör att du kan uppnå helt enkelt perfekt jämnhet och lyhördhet när du spelar på en PC - du kan verifiera detta genom att titta på en kort video (nödvändigtvis med 60 bilder per sekund!):

Låt oss se hur konfigurationen ser ut med G-Sync-teknik aktiverad, enligt vårt diagram:

Som du kan se är allt väldigt enkelt. Aktivering av G-Sync låser bildskärmens uppdateringsfrekvens till slutet av varje bildruterendering på GPU:n. GPU:n kontrollerar hela arbetet: så snart den är klar med att rendera ramen visas bilden omedelbart på en G-Sync-kompatibel bildskärm, och resultatet är inte en fast skärmuppdateringsfrekvens, utan en variabel - precis som GPU:n bildfrekvens. Detta eliminerar problem med bildrivning (trots allt innehåller den alltid information från en bildruta), minimerar bildhastighetsstamning (skärmen väntar inte längre än att ramen fysiskt bearbetas på GPU) och minskar utmatningsfördröjningen jämfört med metoden med V -synkronisering aktiverad.

Det måste sägas att spelarna uppenbarligen inte hade tillräckligt med en sådan lösning, den nya metoden att synkronisera GPU:n och Nvidia G-Sync-skärmen har verkligen en mycket stark effekt på spelkomforten på en PC - den nästan perfekta jämnheten uppträder; , som inte fanns där tidigare - i vår tid med superkraftiga grafikkort! Sedan tillkännagivandet av G-Sync-tekniken har gamla metoder omedelbart blivit en anakronism och att uppgradera till en G-Sync-monitor med en variabel uppdateringsfrekvens på upp till 144 Hz verkar vara ett mycket attraktivt alternativ som gör att du äntligen kan bli av med problem , laggar och artefakter.

Har G-Sync några nackdelar? Naturligtvis, som vilken teknik som helst. Till exempel har G-Sync en obehaglig begränsning, som är att den ger en jämn bildruta på skärmen med en frekvens på 30 FPS. Och den valda uppdateringsfrekvensen för en bildskärm i G-Sync-läge anger den övre gränsen för den hastighet med vilken skärminnehållet uppdateras. Det vill säga, med en uppdateringsfrekvens inställd på 60 Hz, kommer maximal jämnhet att tillhandahållas vid en frekvens på 30–60 FPS och vid 144 Hz - från 30 till 144 FPS, men inte mindre än den nedre gränsen. Och med en variabel frekvens (till exempel från 20 till 40 FPS) kommer resultatet inte längre att vara idealiskt, även om det är märkbart bättre än traditionell V-Sync.

Men den största nackdelen med G-Sync är att det är Nvidias egen teknik, som konkurrenterna inte har tillgång till. Därför tillkännagav AMD i början av detta år en liknande FreeSync-teknik, som också består av att dynamiskt ändra bildskärmens bildhastighet i enlighet med förberedelserna av ramar från GPU:n. Viktig skillnad Poängen är att AMD:s utveckling är öppen och inte kräver ytterligare hårdvarulösningar i form av specialiserade bildskärmar, eftersom FreeSync har förvandlats till Adaptive-Sync, som blivit en valfri del av DisplayPort 1.2a-standarden från den välkända organisationen VESA (Video Electronics Standards Association). Det visar sig att AMD skickligt kommer att använda temat som utvecklats av sin konkurrent till sin fördel, eftersom utan G-Syncs tillkomst och popularisering skulle de inte ha haft någon FreeSync, som vi tror.

Intressant nog är Adaptive-Sync-tekniken också en del av VESA-standarden för inbyggd DisplayPort (eDP), och används redan i många bildskärmskomponenter som använder eDP för signalöverföring. En annan skillnad mot G-Sync är att VESA-medlemmar kan använda Adaptive-Sync utan att behöva betala någonting. Det är dock mycket troligt att Nvidia även kommer att stödja Adaptive-Sync i framtiden som en del av DisplayPort 1.2a-standarden, eftersom sådant stöd inte kommer att kräva mycket ansträngning från dem. Men företaget kommer inte heller att ge upp G-Sync, eftersom man ser sina egna lösningar som en prioritet.

De första bildskärmarna med stöd för Adaptive-Sync bör dyka upp under första kvartalet 2015, de kommer inte bara att ha DisplayPort 1.2a-portar, utan även specialstöd för Adaptive-Sync (alla bildskärmar med DisplayPort 1.2a-stöd kommer inte att kunna skryta med detta). I mars 2015 planerar Samsung således att lansera monitorlinjerna Samsung UD590 (23,6 och 28 tum) och UE850 (23,6, 27 och 31,5 tum) med stöd för UltraHD-upplösning och Adaptive-Sync-teknik. AMD hävdar att bildskärmar med stöd för denna teknik kommer att vara upp till 100 $ billigare än liknande enheter med G-Sync-stöd, men det är svårt att jämföra dem, eftersom alla bildskärmar är olika och kommer ut vid olika tidpunkter. Dessutom finns det redan inte så dyra G-Sync-modeller på marknaden.

Visuell skillnad och subjektiva intryck

Vi beskrev teorin ovan, och nu är det dags att visa allt tydligt och beskriva dina känslor. Vi testade Nvidia G-Sync-teknik i praktiken i flera 3D-applikationer med hjälp av ett Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra-grafikkort och en Asus PG278Q-skärm som stöder G-Sync-teknik. Det finns flera modeller av bildskärmar på marknaden som stödjer G-Sync från olika tillverkare: Asus, Acer, BenQ, AOC och andra, och för monitormodellen Asus VG248QE kan du till och med köpa ett kit för att uppgradera det för att stödja G-Sync på egen hand.

Den yngsta grafikkortsmodellen som använder G-Sync-teknik är Geforce GTX 650 Ti, med det extremt viktiga kravet på en DisplayPort-kontakt ombord. Bland andra systemkrav noterar vi operativsystemet som ett minimum Microsoft Windows 7, använd en bra DisplayPort 1.2-kabel, och det rekommenderas också att använda en kvalitetsmus med hög känslighet och pollingfrekvens. G-Sync-teknik fungerar med alla 3D-applikationer i helskärm som använder OpenGL och Direct3D grafik API:er när de körs på operativsystem Windows-system 7 och 8.1.

Alla moderna drivrutiner kommer att vara lämpliga för drift, vilket - G-Sync har stötts av alla företagets drivrutiner i mer än ett år. Om du har alla nödvändiga komponenter behöver du bara aktivera G-Sync i drivrutinerna, om detta inte redan har gjorts, och tekniken kommer att fungera i alla helskärmsapplikationer - och bara i dem, baserat på själva principen av tekniken.

För att aktivera G-Sync-teknik för helskärmsapplikationer och få ut det mesta bekvämt resultat, måste du aktivera 144Hz uppdateringsfrekvens i Nvidias kontrollpanel eller skrivbordsinställningar operativ system. Sedan måste du se till att användningen av tekniken är tillåten på motsvarande "G-Sync Setup"-sida...

Och även - välj lämplig post på sidan "Hantera 3D-parametrar" i parametern "Vertical Sync Pulse" för de globala 3D-parametrarna. Där kan du även inaktivera användningen av G-Sync-teknik för teständamål eller om några problem uppstår (om vi ser framåt så hittade vi inga under vår testning).

G-Sync-tekniken fungerar i alla upplösningar som stöds av bildskärmar, upp till UltraHD, men i vårt fall använde vi den ursprungliga upplösningen på 2560x1440 pixlar vid 144 Hz. I mina jämförelser med det nuvarande tillståndet använde jag ett 60Hz uppdateringsfrekvensläge med G-Sync inaktiverat för att efterlikna beteendet hos typiska icke-G-Sync-skärmar som finns på de flesta spelare. De flesta använder Full HD-skärmar som klarar ett maximalt läge på 60 Hz.

Det är definitivt värt att nämna att även om med G-Sync aktiverat kommer skärmuppdateringen att vara vid den idealiska frekvensen - när GPU:n "vill ha" det, kommer det optimala läget fortfarande att renderas med en bildhastighet på cirka 40-60 FPS - detta är den mest lämpliga bildfrekvensen för moderna spel, inte för liten för att nå den nedre gränsen på 30 FPS, men kräver inte heller att inställningarna sänks. Det är förresten den frekvensen man eftersträvar i Geforce-programmet Upplev företag Nvidia, tillhandahåller lämpliga inställningar för populära spel i programvaran med samma namn som ingår i drivrutinerna.

Förutom spel provade vi även en specialiserad testapplikation från Nvidia - . Denna applikation visar en 3D-pendelscen som är bekväm för att bedöma jämnheten och kvaliteten, låter dig simulera olika bildhastigheter och välja visningsläge: V-Sync Off/On och G-Sync. Med denna testmjukvara är det mycket enkelt att visa skillnaden mellan olika synkroniseringslägen - till exempel mellan V-Sync On och G-Sync:

Pendulum Demo-applikationen låter dig testa olika synkroniseringsmetoder i olika förutsättningar, simulerar den en exakt bildhastighet på 60 FPS för att jämföra V-Sync och G-Sync under idealiska förhållanden för den äldre synkroniseringsmetoden - i det här läget borde det helt enkelt inte vara någon skillnad mellan metoderna. Men 40–50 FPS-läget sätter V-Sync On i ett besvärligt läge, där fördröjningar och ojämna bildändringar är synliga för blotta ögat, eftersom bildåtergivningstiden överskrider uppdateringsperioden vid 60 Hz. När G-Sync är påslagen blir allt perfekt.

När det gäller att jämföra lägen med V-Sync inaktiverat och G-Sync aktiverat, hjälper Nvidia-applikationen också att se skillnaden här - vid bildhastigheter mellan 40 och 60 FPS är bildrivning tydligt synlig, även om det finns färre fördröjningar än med V- Synkronisera på. Och även en osmidig videosekvens i förhållande till G-Sync-läget märks, även om det i teorin inte borde vara fallet - kanske är det så här hjärnan uppfattar "trasiga" ramar.

Nåväl, med G-Sync aktiverat, säkerställer alla lägen i testapplikationen (konstant bildhastighet eller variabel - det spelar ingen roll) alltid den mjukaste möjliga videon. Och i spel är alla problem med det traditionella tillvägagångssättet för att uppdatera information på en bildskärm med en fast uppdateringsfrekvens ibland ännu mer märkbara - i det här fallet kan du tydligt utvärdera skillnaden mellan alla tre lägen med hjälp av exemplet med spelet StarCraft II (visar en tidigare sparad inspelning):

Om ditt system och din webbläsare stöder uppspelning av videoformatet MP4/H.264 med en frekvens på 60 FPS, kommer du tydligt att se att i det inaktiverade synkroniseringsläget finns det uppenbara rivningar av bilden, och när V-Sync är på, ryck och ojämnhet i videon observeras. Allt detta försvinner när slår på Nvidia G-Sync, där det inte finns några artefakter i bilden, ingen ökning av fördröjningar, ingen "raggad" bildhastighet.

Naturligtvis är G-Sync inte det Trollspö, och den här tekniken kommer inte att bli av med förseningar och nedgångar som inte orsakas av processen att mata ut ramar till en bildskärm med en fast uppdateringsfrekvens. Om själva spelet har problem med jämnheten i frame-output och stora ryck i FPS orsakade av laddning av texturer, databearbetning på processorn, suboptimalt arbete med videominne, bristande kodoptimering, etc., så kommer de att förbli på plats. Dessutom kommer de att bli ännu mer märkbara, eftersom utmatningen av de återstående ramarna kommer att vara perfekt jämn. Men i praktiken uppstår problem inte för ofta på kraftfulla system, och G-Sync förbättrar verkligen uppfattningen av dynamisk video.

Eftersom Nvidias nya utdatateknik påverkar hela utdatapipelinen kan den teoretiskt orsaka artefakter och ojämna bildhastigheter, speciellt om spelet artificiellt begränsar FPS vid någon tidpunkt. Förmodligen är sådana fall, om de finns, så sällsynta att vi inte ens märkte dem. Men de noterade en tydlig förbättring av spelkomforten - när man spelar på en bildskärm med G-Sync-teknik aktiverad får man intrycket att PC:n har blivit så mycket kraftfullare att den klarar en konstant bildhastighet på minst 60 FPS utan eventuella avhopp.

Känslan man får när man spelar på en G-Sync-skärm är väldigt svår att beskriva med ord. Skillnaden är särskilt märkbar vid 40-60 FPS – en bildhastighet som är väldigt vanlig i krävande moderna spel. Skillnaden jämfört med konventionella bildskärmar är helt enkelt fantastisk, och vi kommer att försöka inte bara berätta det i ord och visa det i videoexempel, utan också att visa bildhastighetsdiagram erhållna med olika lägen visar bilden.

I spel av sådana genrer som realtidsstrategi och liknande, som StarCraft II, League of Legends, DotA 2, etc., är fördelarna med G-Sync-teknik tydligt synliga, som du kan se från exemplet i videon ovan. . Dessutom kräver sådana spel alltid fartfylld action som inte tolererar förseningar och ojämna bildhastigheter, och mjuk rullning spelar en ganska viktig roll för komforten, vilket i hög grad hämmas av bildrivning med V-Sync Off och förseningar och fördröjningar med V -Synkronisera på. Så G-Sync-tekniken är idealisk för spel av den här typen.

Förstapersonsskjutare som Crysis 3 och Far Cry 4 är ännu vanligare, de är också mycket krävande på datorresurser, och med högkvalitativa inställningar får spelare ofta bildhastigheter på ungefär 30-60 FPS - perfekt för användning av G-Sync; , vilket verkligen förbättrar komforten avsevärt när man spelar under sådana förhållanden. Den traditionella vertikala synkroniseringsmetoden tvingar dig ofta att mata ut ramar med en frekvens på endast 30 FPS, vilket ökar fördröjningar och ryck.

Detsamma gäller tredjepersonsspel som Batman, Assassin's Creed och Tomb Raider-serien. Dessa spel använder också den senaste grafikteknologin och kräver ganska kraftfulla GPU:er för att uppnå höga bildhastigheter. Med maximala inställningar i dessa spel och inaktivering av V-Sync resulterar FPS ofta i storleksordningen 30–90, vilket orsakar obehaglig bildrivning. Att aktivera V-Sync hjälper bara i vissa scener med lägre resurskrav, och bildhastigheten hoppar från 30 till 60 steg, vilket orsakar nedgångar och ryck. Och att slå på G-Sync löser alla dessa problem, och det märks tydligt i praktiken.

Öva provresultat

I det här avsnittet kommer vi att titta på effekten av G-Sync och V-Sync på bildhastigheter - prestandadiagrammen ger dig en tydlig uppfattning om hur de fungerar olika tekniker. Under testningen testade vi flera spel, men alla av dem är inte bekväma med att visa skillnaden mellan V-Sync och G-Sync - vissa spelriktmärken tillåter dig inte att tvinga V-Sync, andra spel gör det inte bekväma medel medan du spelar den exakta spelsekvensen (de flesta moderna spel, tyvärr), kör ytterligare andra på vårt testsystem antingen för snabbt eller inom ett smalt bildfrekvensintervall.

Så vi bestämde oss för Just Cause 2 med maximala inställningar, samt ett par riktmärken: Unigine Heaven och Unigine Valley - också med maximala kvalitetsinställningar. Bildhastigheterna i dessa applikationer varierar ganska mycket, vilket är praktiskt för vårt syfte att visa vad som händer med bildruteutdata under olika förhållanden.

Tyvärr har vi för närvarande inte FCAT-mjukvaran och hårdvarusystemet i bruk, och vi kommer inte att kunna visa grafer över riktiga FPS och inspelade videor i olika lägen. Istället testade vi sekundärgenomsnittet och momentana bildfrekvenser med ett välkänt verktyg vid 60 och 120 Hz bildskärmsuppdateringshastigheter med hjälp av V-Sync On, V-Sync Off, Adaptive V-Sync skärmuppdateringsmetoder och G-Sync teknik vid 144 Hz för att visa den tydliga skillnaden mellan ny teknologi och nuvarande 60 Hz-skärmar med traditionell vertikal synk.

G-Sync vs V-Sync På

Vi kommer att börja vår studie med att jämföra lägen med vertikal synkronisering aktiverad (V-Sync On) och G-Sync-teknik - detta är den mest avslöjande jämförelsen, som kommer att visa skillnaden mellan metoder som inte har nackdelarna med bildrivning. Först kommer vi att titta på Heaven-testapplikationen med maximala kvalitetsinställningar i en upplösning på 2560x1440 pixlar (om du klickar på miniatyrbilder öppnas grafer i full upplösning):

Som kan ses i grafen är bildhastigheten med G-Sync aktiverad och utan synkronisering nästan densamma, förutom frekvensen över 60 FPS. Men FPS i läget med den vertikala synkroniseringsmetoden aktiverad är märkbart annorlunda, eftersom bildhastigheten i den kan vara lägre än eller lika med 60 FPS och en multipel av heltal: 1, 2, 3, 4, 5, 6. ., eftersom monitorn ibland måste visa samma föregående bildruta över flera uppdateringsperioder (två, tre, fyra och så vidare). Det vill säga möjliga "steg" för bildhastighetsvärdet med V-Sync On och 60 Hz: 60, 30, 20, 15, 12, 10, ... FPS.

Denna gradering är tydligt synlig i den röda linjen i grafen - under körningen av detta test var bildhastigheten ofta lika med 20 eller 30 FPS, och mycket mindre ofta - 60 FPS. Även om med G-Sync och V-Sync Off (No Sync) var det ofta inom ett bredare intervall: 35–50 FPS. Med V-Sync aktiverad är denna utmatningshastighet inte möjlig, så monitorn visar alltid 30 FPS i sådana fall - vilket begränsar prestandan och lägger till fördröjning till den totala utmatningstiden.

Det bör noteras att grafen ovan inte visar den momentana bildhastigheten, utan genomsnittliga värden inom en sekund, och i verkligheten kan FPS "hoppa" mycket mer - nästan varje bildruta, vilket orsakar obehaglig instabilitet och fördröjningar. För att se detta tydligt presenterar vi ett par grafer med omedelbar FPS - mer exakt med grafer över renderingstiden för varje bildruta i millisekunder. Första exemplet (linjerna är något förskjutna i förhållande till varandra, endast ungefärligt beteende i varje läge visas):

Som du kan se, i det här exemplet ändras bildhastigheten i fallet med G-Sync mer eller mindre smidigt, och med V-Sync On ändras den stegvis (det finns enstaka hopp i renderingstiden i båda fallen - detta är normalt) . Med Vsync aktiverat kan bildåtergivnings- och utdatatider vara så låga som 16,7 ms; 33,3 ms; 50 ms, som kan ses på grafen. I FPS-tal motsvarar detta 60, 30 och 20 bilder per sekund. Utöver detta finns det ingen speciell skillnad mellan beteendet hos de två linjerna, det finns toppar i båda fallen. Låt oss titta på en annan betydande tidsperiod:

I det här fallet finns det uppenbara fluktuationer i bildåtergivningstiden, och med dem är FPS i fallet med vertikal synkronisering aktiverad. Titta, med V-Sync On sker en abrupt förändring av bildåtergivningstiden från 16,7 ms (60 FPS) till 33,3 ms (30 FPS) och tillbaka - i verkligheten orsakar detta mycket obekväma ojämnhet och tydligt synliga ryck i videosekvensen . Jämnheten i rambytena i fallet med G-Sync är mycket högre och att spela i det här läget kommer att bli märkbart bekvämare.

Låt oss titta på FPS-grafen i den andra testapplikationen - Unigine Valley:

I detta riktmärke noterar vi ungefär samma sak som i himlen. Bildhastigheterna i lägena G-Sync och V-Sync Off är nästan desamma (förutom en topp över 60 Hz), och V-Sync påslagen orsakar en tydlig stegförändring i FPS, som oftast visar 30 FPS, ibland sjunkande till 20 FPS och stigande till 60 FPS - typiskt beteende för den här metoden, vilket orsakar fördröjningar, ryck och ojämna videofilmer.

I det här underavsnittet måste vi bara titta på ett segment från det inbyggda testet av spelet Just Cause 2:

Detta spel visar perfekt otillräckligheten hos den föråldrade V-Sync On-synkroniseringsmetoden! När bildhastigheten varierar från 40 till 60-70 FPS sammanfaller G-Sync och V-Sync Off-linjerna nästan, men bildhastigheten med V-Sync On når 60 FPS bara under korta perioder. Det vill säga, med de verkliga kapaciteterna hos GPU:n för att spela i 40-55 FPS, kommer spelaren att nöja sig med endast 30 FPS.

Dessutom, i den sektion av grafen där den röda linjen hoppar från 30 till 40 FPS, i verkligheten, när du tittar på bilden, finns det en tydlig ojämn bildhastighet - den hoppar från 60 till 30 nästan varje bildruta, vilket helt klart inte lägger till mjukhet och komfort när du spelar. Men kanske vertikal synkronisering klarar sig bättre med en bilduppdateringsfrekvens på 120 Hz?

G-Sync vs V-Sync 60/120 Hz

Låt oss titta på två lägen för aktiverad vertikal synkronisering V-Sync På vid 60 och 120 Hz bilduppdateringshastigheter, och jämföra dem med V-Sync Off-läget (som vi definierade tidigare, denna linje är nästan identisk med G-Sync). Vid en uppdateringshastighet på 120 Hz läggs fler värden till FPS-"steg" som vi redan vet: 120, 40, 24, 17 FPS, etc., vilket kan göra grafen mindre stegad. Låt oss titta på bildfrekvensen i Heaven benchmark:

Det märks att uppdateringsfrekvensen på 120Hz hjälper V-Sync On-läget att uppnå bättre prestanda och jämnare bildhastigheter. I de fall där grafen vid 60 Hz visar 20 FPS, ger 120 Hz-läget ett mellanvärde på minst 24 FPS. Och 40 FPS istället för 30 FPS syns tydligt på grafen. Men det finns inte färre steg, utan ännu fler, så att bildhastigheten med en 120 Hz-uppdatering, även om den ändras med en mindre mängd, gör det oftare, vilket också negativt påverkar den totala jämnheten.

Det finns färre förändringar i Valley-riktmärket, eftersom den genomsnittliga bildfrekvensen är närmast 30 FPS-nivån som är tillgänglig för både 60 och 120 Hz uppdateringsfrekvenser. Sync Off ger mjukare ramar men med visuella artefakter, och V-Sync On-lägen visar återigen ojämna linjer. I det här underavsnittet måste vi bara titta på spelet Just Cause 2.

Och återigen ser vi tydligt hur felaktig vertikal synkronisering är, vilket inte ger ett smidigt byte av ramar. Även om du byter till en uppdateringsfrekvens på 120 Hz får V-Sync On-läget bara några extra "steg" av FPS - hopparna i bildfrekvens fram och tillbaka från ett steg till ett annat har inte försvunnit - allt detta är mycket obehagligt när du tittar på animerade 3D-scener, du kan ta vårt ord för det eller titta på exempelvideorna ovan igen.

Utdatametodens inverkan på den genomsnittliga bildhastigheten

Vad händer med den genomsnittliga bildhastigheten när alla dessa synkroniseringslägen är aktiverade, och hur påverkar aktivering av V-Sync och G-Sync den genomsnittliga prestandan? Du kan grovt uppskatta hastighetsförlusten till och med med FPS-diagram visas ovan, men vi kommer också att presentera de genomsnittliga bildfrekvenserna vi fick under testningen. Den första blir Unigine Heaven igen:

Prestandan i lägena Adaptive V-Sync och V-Sync Off är nästan densamma – trots allt ökar hastigheten nästan inte över 60 FPS. Det är logiskt att aktivering av V-Sync också leder till en minskning av den genomsnittliga bildhastigheten, eftersom detta läge använder stegvisa FPS-indikatorer. Vid 60Hz var minskningen av den genomsnittliga bildhastigheten mer än en fjärdedel, och att slå på 120Hz gav bara tillbaka hälften av förlusten i genomsnittlig FPS.

Det mest intressanta för oss är hur mycket den genomsnittliga bildhastigheten sjunker i G-Sync-läge. Av någon anledning sänks hastigheten över 60 FPS, även om monitorn var inställd på 144 Hz-läge, så hastigheten när G-Sync är påslagen var något lägre än läget med synkronisering inaktiverad. Generellt sett kan vi anta att det inte finns några förluster alls, och de kan absolut inte jämföras med bristen på hastighet med V-Sync On. Låt oss överväga det andra riktmärket - Valley.

I det här fallet minskade minskningen av den genomsnittliga renderingshastigheten i lägen med V-Sync aktiverat, eftersom bildhastigheten under hela testet var nära 30 FPS - ett av frekvensstegen för V-Sync i båda lägena: 60 och 120 Hz. Tja, av uppenbara skäl var förlusterna i det andra fallet något lägre.

När G-Sync slogs på var den genomsnittliga bildfrekvensen återigen lägre än den som noterades i det inaktiverade synkroniseringsläget, allt av samma anledning - att slå på G-Sync "dödade" FPS-värden över 60. Men skillnaden är liten , och Nvidias nya läge ger märkbart högre hastigheter än med Vsync aktiverat. Låt oss titta på det sista diagrammet - den genomsnittliga bildfrekvensen i spelet Just Cause 2:

När det gäller detta spel drabbades V-Sync On-läget betydligt mer än i testapplikationer på Unigine-motorn. Den genomsnittliga bildhastigheten i detta läge vid 60 Hz är mer än en och en halv gånger lägre än med synkronisering avaktiverad helt och hållet! Att aktivera en uppdateringsfrekvens på 120 Hz förbättrar situationen avsevärt, men ändå låter G-Sync dig uppnå märkbart bättre prestanda även i genomsnittliga FPS-tal, för att inte tala om spelets bekvämlighet, som inte längre kan bedömas enbart med siffror - du har att se det med egna ögon.

Så i det här avsnittet fick vi reda på att G-Sync-teknik ger bildhastigheter nära läget med synkronisering inaktiverad, och dess inkludering har nästan ingen effekt på prestandan. Till skillnad från V-Sync, när den är aktiverad, ändras bildhastigheten i steg, och ofta sker det hopp från ett steg till ett annat, vilket orsakar ojämna rörelser vid utmatning av en animerad serie bildrutor och har en skadlig effekt på komforten i 3D-spel.

Med andra ord tyder både våra subjektiva intryck och testresultat på att Nvidias G-Sync-teknik verkligen förändrar den visuella komforten i 3D-spel till det bättre. Den nya metoden saknar grafiska artefakter i form av rivning av en bild som består av flera intilliggande ramar, som vi ser i läget med V-Sync inaktiverat, och det finns inga problem med jämnheten i bildutmatningen till monitorn och ökad utgångsfördröjningar, som i V-Sync-läget På.

Slutsats

Med alla svårigheterna med att objektivt mäta jämnheten i videoutgången vill jag först uttrycka en subjektiv bedömning. Vi var ganska imponerade av spelupplevelsen på Nvidia GeForce och den G-Sync-aktiverade skärmen från Asus. Till och med en engångsdemonstration av G-Sync gör verkligen ett starkt intryck med mjukheten i bildruteändringar, och efter en lång provning av denna teknik blir det väldigt trist att fortsätta spela på en bildskärm med gamla metoder för att visa bilder på skärmen.

Kanske kan G-Sync anses vara den största förändringen i processen att visa visuell information på skärmen på länge - vi såg äntligen något riktigt nytt i sambandet mellan skärmar och GPU:er, vilket direkt påverkar bekvämligheten med att titta på 3D-grafik, och jämn och så märkbar. Och innan Nvidia tillkännagav G-Sync-teknik var vi i många år bundna till föråldrade standarder för bildutmatning, rotade i kraven från TV- och filmindustrin.

Naturligtvis skulle jag vilja ha liknande kapacitet ännu tidigare, men nu är det inte en dålig tid för dess implementering, eftersom i många krävande 3D-spel med maximala inställningar toppen moderna grafikkort tillhandahålla bildhastigheter med vilka fördelarna med att aktivera G-Sync maximeras. Och före tillkomsten av teknik från Nvidia, "dödades" den realism som uppnåddes i spel helt enkelt överlägset ifrån den mest på bästa sätt uppdaterar bilden på monitorn, vilket orsakar bildrivning, ökade fördröjningar och ryck i bildhastigheten. G-Sync-tekniken låter dig bli av med dessa problem genom att likställa bildhastigheten på skärmen med grafikprocessorns renderingshastighet (om än med vissa begränsningar) - denna process hanteras nu av själva grafikprocessorn.

Vi har inte träffat en enda person som provat G-Sync på jobbet och varit missnöjd med denna teknik. Recensioner från de allra första lyckliga personerna som testade tekniken vid ett Nvidia-evenemang i höstas var helt entusiastiska. Med stöd av journalister från fackpress och spelutvecklare (John Carmack, Tim Sweeney och Johan Andersson) gav de också exklusivt positiva recensioner ny uttagsmetod. Vi ansluter oss nu - efter flera dagars användning av en monitor med G-Sync vill jag inte gå tillbaka till gamla enheter med sedan länge föråldrade synkroniseringsmetoder. Ah, om det bara fanns fler bildskärmar med G-Sync, och om de inte bara var utrustade med TN-matriser...

Tja, bland nackdelarna med Nvidias teknologi kan vi notera att den fungerar med en bildhastighet på minst 30 FPS, vilket kan anses vara en irriterande nackdel - det skulle vara bättre om bilden även vid 20-25 FPS visades tydligt efter den förbereddes på GPU:n. Men den största nackdelen med tekniken är att G-Sync är företagets egen lösning, som inte används av andra GPU-tillverkare: AMD och Intel. Du kan också förstå Nvidia, eftersom de spenderade resurser på utveckling och implementering av tekniken och förhandlade med bildskärmstillverkare för att stödja det just med önskan att tjäna pengar. Egentligen fungerade de återigen som motorn för tekniska framsteg, trots företagets påstådda vinstgirighet. Låt oss avslöja en stor "hemlighet": vinst är huvudmålet för alla kommersiella företag, och Nvidia är inget undantag.

Och ändå är det mer sannolikt att framtiden blir mer universell öppna standarder, som i huvudsak liknar G-Sync, som Adaptive-Sync - en valfri funktion i DisplayPort 1.2a. Men utseendet och distributionen av bildskärmar med sådant stöd kommer att behöva vänta ytterligare en tid - någonstans till mitten av nästa år, och G-Sync-skärmar från olika företag (Asus, Acer, BenQ, AOC och andra) har redan varit till försäljning i flera månader, även om det inte är för billigt. Ingenting hindrar Nvidia från att stödja Adaptive-Sync i framtiden, även om de inte officiellt har kommenterat detta ämne. Låt oss hoppas att GeForce-fans inte bara nu har en fungerande lösning i form av G-Sync, utan att det i framtiden kommer att vara möjligt att använda dynamiska uppdateringsfrekvenser inom ramen för en allmänt accepterad standard.

Bland andra nackdelar med Nvidia G-Sync-teknik för användarna, noterar vi att dess stöd på bildskärmssidan kostar tillverkaren en viss summa, vilket resulterar i en ökning av försäljningspris jämfört med standardskärmar. Men bland G-Sync-skärmar finns det modeller olika priser, inklusive de som inte är för dyra. Huvudsaken är att de redan är till försäljning, och varje spelare kan få maximal komfort när de spelar just nu, och än så länge bara när de använder Nvidia Geforce-grafikkort - företaget garanterar denna teknik.

Det här fotot visar hur ramen från spelet verkar vara uppdelad i två. Varför hände det här? Allt är mer än enkelt. Videokortet bildar bilden ruta för ruta, varje ny bildruta visas på skärmen. Men inte omedelbart efter att den skapats, utan bara under nästa uppdatering av bilden på skärmen. Bilden på den uppdateras ett strikt visst antal gånger per sekund, och, vad som är viktigt i vårt fall, inte på hela skärmen samtidigt, utan rad för rad från topp till botten. Samtidigt förbereder grafikkortet bildrutor inte med samma hastighet, utan var och en med en helt annan hastighet, beroende på scenens komplexitet. För att på något sätt synkronisera beredningen av bildrutor av grafikadaptern och utmatningen av dessa ramar till bildskärmen, använder videoadaptrar två så kallade buffertar: bildskärmen läser en ny bildruta från en buffert, och nästa bildas i Övrig. Detta är dock ofta inte tillräckligt för att säkerställa en jämn bild, och vi ser hälften av två olika bildrutor eller till och med flera bildrutor samtidigt på skärmen.

Det finns en utgång!

För att inte observera denna röra permanent finns det en teknik för vertikal synkronisering - synkronisering av utmatningen av ramar från grafikkortet och uppdatering av bilden på monitorn. Men om ditt grafikkort inte kan hantera det och nya ramar skapas mer sällan än vad bilden på monitorn uppdateras, kommer du att se samma sista bildruta på skärmen två eller flera gånger tills nästa är klar. Även om din grafikaccelerator i ett visst spel med vissa inställningar i genomsnitt håller Ett stort antal bildrutor per sekund, så snart en av de många bildrutorna inte hinner i tid för nästa uppdateringscykel av bilden på skärmen, kommer tiden innan denna ram visas att fördubblas. Detta kallas en "fris". Om du spelar snabba skjutspel, så kan naturligtvis alla förseningar i visningen kosta dig en odödad fiende eller till och med livet för ditt virtuella alter ego.

NVIDIA G-SYNC-teknik är designad för att befria spelare från båda "övervaka" åkommor samtidigt. Det är sant att detta inte är det första försöket från de "gröna" att hitta en lösning som eliminerar tårar och friser. Den tidigare var en annan teknik som heter Adaptive V-Sync. Det är sant att den bara automatiskt slår på och av vertikal synkronisering beroende på bildhastigheten.

Hur är det med AMD? Och det här företaget förstår att det är nödvändigt att ta hand om nerverna hos spelare, eftersom de praktiskt taget är motorn i PC-industrin och mycket av det som är kopplat till det. Tack vare AMD innehåller den kommande DisplayPort-revisionen, kallad 1.2a, teknik som låter dig justera bildskärmens uppdateringsfrekvens för att synkronisera den med bildfrekvensen på grafikkortet. Och samtidigt finns det inga proprietära styrelser i monitorerna. Det är intressant och definitivt mindre dyrt alternativ, men den har ännu inte sett dagens ljus, men mer än en tillverkare har redan aviserat bildskärmar med G-SYNC.

NVIDIA G-SYNC-skärmar har revolutionerande NVIDIA-teknik som eliminerar skärmavslitning och ingångsfördröjning med VSync-ramsynkronisering och förbättrar kapaciteten hos moderna bildskärmar, vilket resulterar i den smidigaste, mest responsiva spelupplevelsen du någonsin sett.

Som ett resultat visas spelscener omedelbart, föremål blir tydligare och spelet blir smidigare.

HUR FUNGERAR NVIDIA G-SYNC?

NVIDIA® G-SYNC™ är en innovativ lösning som bryter gammal mögel för att skapa de mest avancerade och responsiva datorskärmarna i historien. NVIDIA G-SYNC-modulen kan installeras oberoende eller köpas förinstallerad i de senaste spelmonitorerna. Det hjälper dig att glömma bort skärmslitage, ingångsfördröjning och ögonansträngningsinducerande jitter som orsakades av äldre teknologier som migrerade från analoga TV-apparater till moderna bildskärmar.

PROBLEM: GAMMEL MONITORTEKNIK

När tv-apparater uppfanns använde de katodstrålerör, som fungerade genom att skanna flödet av elektroner över ytan av ett fosforbelagt rör. Denna stråle fick pixeln att flimra och när tillräckligt många pixlar aktiverades ganska snabbt skapade katodstråleröret känslan av full-motion video. Tro det eller ej, dessa första TV-apparater fungerade med en uppdateringshastighet på 60 Hz, sedan den industriella frekvensen växelström i USA är det 60 Hz. Att matcha TV:ns uppdateringsfrekvens till industriell AC-frekvens gjorde det lättare att bygga tidig elektronik och minska skärmbruset.

När persondatorer uppfanns i början av 1980-talet var katodstråle-TV-tekniken fast etablerad som den enklaste och mest kostnadseffektiva tekniken att skapa. datorskärmar. 60Hz och fasta uppdateringsfrekvenser har blivit standarden, och systembyggare har lärt sig att få ut det mesta av en mindre än idealisk situation. Under de senaste tre decennierna, även om katodstråle-TV-tekniken har utvecklats till LCD-teknik Och LED-TV, inget större företag vågade utmana denna stereotyp, och synkronisering av GPU:n med bildskärmens uppdateringsfrekvens är fortfarande standard i branschen än i dag.

Problemet är att grafikkort inte återger bilder med en konstant frekvens. Faktum är att GPU-bildhastigheten varierar avsevärt även inom samma scen i samma spel beroende på den aktuella GPU-belastningen. Och om bildskärmar har en fast uppdateringsfrekvens, hur överför du bilder från GPU:n till skärmen? Det första sättet är att helt enkelt ignorera monitorns uppdateringsfrekvens och uppdatera bilden mitt i cykeln. Vi kallar detta VSync inaktiverat läge, vilket är hur de flesta spelare spelar som standard. Nackdelen är att när en bildskärmsuppdateringscykel innehåller två bilder, uppstår en mycket märkbar "brottslinje", vanligen kallad screen tearing. Ett välkänt sätt att bekämpa skärmrivning är att aktivera VSync-teknik, vilket gör att GPU:n fördröjer skärmuppdateringar tills början av en ny bildskärmsuppdateringscykel. Detta orsakar bildrörlighet när grafikprocessorns bildfrekvens är lägre än skärmens uppdateringsfrekvens. Det ökar också latensen, vilket leder till ingångsfördröjning - en märkbar fördröjning mellan att trycka på en tangent och resultatet visas på skärmen.

För att göra saken värre lider många spelare av ansträngda ögon på grund av bildskakningar, och andra utvecklar huvudvärk och migrän. Detta ledde till att vi utvecklade Adaptive VSync-teknik, en effektiv lösning som mottogs väl av kritiker. Trots skapandet av denna teknik kvarstår problemet med inmatningsfördröjning, och detta är oacceptabelt för många entusiastspelare och är helt olämpligt för professionella spelare (e-sport) som självständigt konfigurerar sina grafikkort, bildskärmar, tangentbord och möss för att minimera irriterande förseningar mellan handling och reaktion.

LÖSNING: NVIDIA G-SYNC

Möt NVIDIA G-SYNC-teknik, som eliminerar skärmsönderfall, VSync-visningsfördröjning och bildflimmer. För att uppnå denna revolutionerande förmåga skapade vi G-SYNC för bildskärmar, som gör att bildskärmen kan synkroniseras med bildhastigheten för GPU:n snarare än tvärtom, vilket resulterar i snabbare, mjukare, rivfria bilder som tar spel till nästa nivå.

Branschgurus John Carmack, Tim Sweeney, Johan Andersson och Mark Rein var imponerade av NVIDIA G-SYNC-teknik. Esportsspelare och eSportsligor står i kö för att använda NVIDIA G-SYNC-teknik, som kommer att släppa lös sina verkliga färdigheter, vilket kräver ännu snabbare reaktioner tack vare en omärklig fördröjning mellan åtgärder på skärmen och tangentbordskommandon. Under interna tester genomförde ivrig spelare lunchdags för onlinematcher över ett lokalt nätverk, med hjälp av monitorer med G-SYNC-stöd att vinna.

Om du har en bildskärm som stöder NVIDIA G-SYNC har du obestridlig fördelöver andra spelare, förutsatt att du också har en låg ping.

EN REVOLUTIONÄR LÖSNING ÄR HÄR

I dessa tider av tekniska underverk kan få framsteg kallas verkligt "innovativa" eller "revolutionära". NVIDIA G-SYNC är dock ett av de få genombrotten som revolutionerar föråldrad bildskärmsteknik med ett innovativt tillvägagångssätt som aldrig har prövats tidigare.

G-SYNC eliminerar ingångsfördröjning, rivning och jitter för en fantastisk visuell upplevelse på alla G-SYNC-aktiverade skärmar; de är så bra att du aldrig kommer att vilja använda en vanlig bildskärm igen. Förutom revolutionerande förändringar i visuella möjligheter, kommer spelare för multiplayer-spel att få ytterligare förmån när man kombinerar G-SYNC, höghastighets GeForce GTX-grafikkort och indataenheter med låg latens. Detta kommer definitivt att intressera fans av skyttar. För eSport-atleter är NVIDIA G-SYNC en betydande förbättring. Eftersom G-SYNC eliminerar ingångsfördröjning är framgång eller misslyckande nu upp till spelarna, vilket hjälper till att skilja proffsen från amatörerna.

Om du, som eSport-atleter, vill ha den skarpaste, smidigaste och mest responsiva spelupplevelsen som möjligt, så är NVIDIA G-SYNC-aktiverade monitorer ett genombrott som du inte hittar någon annanstans. NVIDIA G-SYNC är en sann innovation i förbättringarnas tid och kommer att revolutionera ditt sätt att spela spel.

Förutom realistiska, vackra bilder behöver du en stabil bildhastighet för maximal njutning av ett datorspel. Lite sättningar, såväl som visuella artefakter som ramslitage, kan göra det ospelbart. Tidigare har V-Sync-teknik använts för att lösa sådana problem, men resultaten lämnar ofta mycket övrigt att önska. För närvarande har båda stora GPU-tillverkarna, NVIDIA och AMD, utvecklat sina egna synkroniseringsteknologier som kallas G-Sync respektive FreeSync, tack vare vilka spel skiljer sig mycket mer jämn bildän tidigare.

Om frekvenserna inte är synkroniserade...

Varför uppstår stamning eller bildrivning under spelet? Faktum är att skärmuppdateringsfrekvensen för datorskärmar vanligtvis är fixerad till 60 Hz, det vill säga att skärmen uppdateras 60 gånger per sekund. Antalet bildrutor som skapas per sekund av grafikkortet under spelet är inte konstant. Det är när skärmens uppdateringsfrekvens inte matchar bildfrekvensen på grafikkortet som vi kan observera de ovan nämnda effekterna som obehagligt påverkar uppfattningen av spelet. Med tanke på att grafikkortens prestanda ständigt förbättras ökar bildfrekvensen i spel – även vid höga bildkvalitetsinställningar, men skärmens uppdateringsfrekvens på de flesta bildskärmar ligger kvar på 60 Hz. Som ett resultat av denna inkonsekvens får vi ännu fler oönskade visuella artefakter när vi spelar.

V-Sync-teknik

Tidigare slog vi på V-Sync för att få spel att se smidigare ut. Denna funktion talar om för grafikkortet att mata ut exakt 60 bilder per sekund till skärmen, som uppdateras samma 60 gånger per sekund. Resultatet är ingen ramslitage. Detta begränsar dock prestandan för flaggskeppsvideokort. Dessutom, om spelhastigheten inte når 60 bilder per sekund, till exempel på grund av att en scen är för grafiskt komplex, kommer grafikkortet att tvingas att mata ut ännu mindre - 30 bilder per sekund tills en mindre komplex scen uppnås, och sedan bildhastigheten kommer igen att stiga till 60. Eftersom fluktuationerna i bildhastigheten är för stora, kommer en sådan växling mellan 30 och 60 bilder per sekund att märkas för ögat som en "avmattning" av bilden.

NVIDIA G-Sync-teknik

Både största tillverkaren GPU:er, NVIDIA och AMD, strävar efter att förbättra bildkvaliteten i spel, så de löste båda problemet med att synkronisera grafikkortet och bildskärmen, men olika sätt. NVIDIA var först med att introducera sin teknologi som heter G-Sync. Detta är en hårdvarulösning som kräver att ett speciellt chip byggs in direkt i monitorn. Chipet har buffertminne, genom vilket data utbyts med grafikkortet i NVIDIA GeForce-serien. G-Sync-chippet läser bildrutor från grafikkortet och ändrar automatiskt monitorns uppdateringsfrekvens för att matcha den aktuella spelhastigheten så att de matchar varandra. I det här fallet kan skärmens uppdateringsfrekvens dynamiskt variera i intervallet från 0 till 240 Hz i realtid. Resultatet är en fullständig frånvaro av alla typer av visuella artefakter i spel, såsom ramslitage, stamning och skärmflimmer.

AMD FreeSync-teknik

AMD FreeSync-teknik dök upp senare, men har redan nått sin andra version. Precis som G-Sync ger den en dynamisk förändring av bildskärmens uppdateringsfrekvens - i enlighet med bildutmatningshastigheten för Radeon-seriens grafikkort. Detta eliminerar stamningsproblemet som är typiskt för traditionell V-Sync, vilket resulterar i mjukare bilder i spelet.

Till skillnad från NVIDIA G-Sync-teknik, som kräver användning av diskreta chips, implementeras FreeSync på gränssnittsnivå. Det är en implementering av industristandarden DisplayPort Adaptive-Sync, som låter dig ändra uppdateringsfrekvensen i realtid via DisplayPort-gränssnittet. Senaste versionen HDMI-gränssnittet stöder även FreeSync. FreeSync-tekniken kräver inga chips för att läggas till bildskärmar, men det kräver en DisplayPort- eller HDMI-skärm och ett grafikkort med en Radeon GPU för att fungera.

Förutom förbättrad bildjämnhet förbättrar FreeSync 2-tekniken bildkvaliteten. Low Framerate Compensation (LFC) har utökat uppdateringsfrekvensområdet för FreeSync-aktiverade monitorer, vilket säkerställer jämna bilder även när spelhastigheten sjunker under 30 bilder per sekund. Dessutom stöder FreeSync 2 dubbel sRGB-färgomfång och HDR högt dynamiskt omfång.


Slutsats

Båda adaptiva synkroniseringsteknikerna, NVIDIA G-Sync och AMD FreeSync, fungerar effektivt. Förbättringen i bilden efter aktiveringen kommer att märkas, särskilt i dynamiska spel med komplexa scener, som förstapersonsskjutare, racing och sportsimulatorer. Det är dock mycket svårt att jämföra båda teknologierna med varandra baserat på kvantitativ data. Vi kan bara lita på våra egna ögon, så varje användare kommer att ha sin egen subjektiva åsikt om vilken som är bäst.

Den objektiva skillnaden mellan de två teknikerna är kostnaden. Förutom att ha ett kompatibelt grafikkort med lämplig GPU, för NVIDIA fungerar G-Sync kräver en bildskärm med ett extra diskret chip och en betald licens från NVIDIA, vilket påverkar kostnaden och priset för den färdiga produkten. Bildskärmar med G-Sync är dyrare än sina motsvarigheter med AMD-teknik FreeSync, och det är därför det finns fler bildskärmar med FreeSync på marknaden. Å andra sidan är det verkligen värt det: bildskärmar med G-Sync är oftast fler hög klass när det gäller tekniska egenskaper och, i kombination med högpresterande GeForce grafikkort, ger en utmärkt bild. Om vi ​​tar hänsyn till prisskillnaden så representerar bildskärmar med FreeSync och Radeon grafikkort en mer lönsam lösning vad gäller maximal avkastning på investeringen.

Lär dig hur du ställer in FreeSync för en installation med tre bildskärmar i den här artikeln.

Har du en G-SYNC-kompatibel bildskärm och ett NVIDIA-grafikkort? Låt oss titta på vad G-SYNC är, hur man aktiverar det och konfigurerar det korrekt för att fullt ut använda potentialen och kapaciteten hos denna teknik. Tänk på att bara att slå på den är inte allt.

Varje spelare vet vad vertikal synkronisering (V-Sync) är. Denna funktion synkroniserar bildramarna på ett sådant sätt att effekten av skärmsönderfall elimineras. Om du inaktiverar vertikal synkronisering på en vanlig bildskärm kommer du att minska ingångsfördröjningen (latency) och du kommer att märka att spelet kommer att svara bättre på dina kommandon, men därmed kommer ramarna inte att synkroniseras ordentligt och det kommer att sluta med att skärmen rivs .

V-Sync eliminerar sönderrivning av skärmen, men orsakar samtidigt en ökning av fördröjningen av bildutmatningen i förhållande till kontrollerna, så att spelet blir mindre bekvämt. Varje gång du rör på musen verkar det som om rörelseeffekten uppstår med en liten fördröjning. Och här kommer G-SYNC-funktionen till undsättning, vilket gör att du kan eliminera båda dessa brister.

Vad är G-SYNC?

En ganska dyr men effektiv lösning för NVIDIA GeForce-grafikkort är användningen av G-SYNC-teknik, som eliminerar skärmrivning utan att använda ytterligare ingångsfördröjning. Men för att implementera det behöver du en monitor som innehåller G-SYNC-modulen. Modulen justerar skärmens uppdateringsfrekvens till antalet bilder per sekund, så det finns ingen ytterligare fördröjning och effekten av skärmavslitning elimineras.

Många användare, efter att ha köpt en sådan bildskärm, slår bara på NVIDIA-stöd G-SYNC i NVIDIA Control Panel-inställningarna med tron ​​att detta är allt den borde göra. Teoretiskt sett ja, eftersom G-SYNC kommer att fungera, men om du vill maximera användningen av denna teknik till fullo, måste du aktivera ett antal ytterligare funktioner relaterade till lämplig inställning av klassisk V-sync och begränsning av FPS i spel till ett antal bildrutor mindre än monitorn för maximal uppdateringsfrekvens. Varför? Du kommer att lära dig allt detta från följande rekommendationer.

Aktiverar G-SYNC i NVIDIAs kontrollpanel

Låt oss börja med det enklaste grundläggande lösning, det vill säga från det ögonblick som G-SYNC-modulen slås på. Detta kan göras med hjälp av NVIDIAs kontrollpanel. Högerklicka på skrivbordet och välj NVIDIA Control Panel.

Gå sedan till fliken Display - G-SYNC Setup. Här kan du aktivera tekniken genom att använda fältet "Enable G-SYNC". Tagga den.

Sedan kan du ange om det bara ska fungera i fullskärmsläge, eller kan även aktiveras i spel som körs i fönsterläge eller ett helskärmsfönster (utan ramar).

Om du väljer alternativet "Aktivera G-SYNC för helskärmsläge" kommer funktionen endast att fungera i spel som har helskärmsläget inställt (det här alternativet kan ändras i inställningarna för specifika spel). Spel i fönsterläge eller helskärm kommer inte att använda denna teknik.

Om du vill att fönsterspel också ska använda G-SYNC-teknik, aktivera alternativet "Aktivera G-SYNC för fönsterläge och helskärmsläge". När det här alternativet är valt, fångar funktionen upp det för närvarande aktiva fönstret och lägger över dess åtgärd på det, vilket gör det möjligt för den att stödja modifierad skärmuppdatering. Du kan behöva starta om datorn för att aktivera det här alternativet.

Hur man kontrollerar att denna teknik är aktiverad. För att göra detta, öppna Display-menyn högst upp i fönstret och kontrollera fältet "G-SYNC Indicator" i den. Detta kommer att informera dig om att G-SYNC är aktiverat när du startar spelet.

Gå sedan till fliken Hantera 3D-inställningar i sidomenyn. I avsnittet "Globala inställningar" ( Allmänna Inställningar) Hitta fältet "Önskad uppdateringsfrekvens".

Ställ in detta på "Högsta tillgängliga". Vissa spel kan kräva sin egen uppdateringsfrekvens, vilket kan leda till att G-SYNC inte utnyttjas fullt ut. Tack vare denna parameter kommer alla spelinställningar att ignoreras och möjligheten att använda den maximala bildskärmens uppdateringsfrekvens kommer alltid att vara aktiverad, vilket i enheter med G-SYNC oftast är 144Hz.

I allmänhet är detta den grundläggande inställningen du behöver göra för att aktivera G-SYNC. Men om du vill utnyttja potentialen i din utrustning fullt ut bör du läsa följande instruktioner.

Vad ska jag göra med V-SYNC om jag har G-SYNC? Lämna den på eller stänga av den?

Detta är det vanligaste dilemmat för ägare av G-SYNC-skärmar. Det är allmänt accepterat att denna teknik helt ersätter den klassiska V-SYNC, som helt kan inaktiveras i NVIDIAs kontrollpanel eller helt enkelt ignoreras.

Först måste du förstå skillnaden mellan dem. Båda funktionernas uppgift är teoretiskt sett densamma - att övervinna effekten av att skärmen rivs sönder. Men handlingssättet är betydligt annorlunda.

V-SYNC synkroniserar bildrutor för att matcha monitorns konstanta uppdateringsfrekvens. Följaktligen fungerar funktionen som en mellanhand och fångar bilden och därmed visningsramen för att anpassa dem till en konstant bildhastighet och därigenom förhindra att bilden rivs sönder. Som ett resultat kan detta leda till ingångsfördröjning (fördröjning), eftersom V-SYNC först måste "fånga och organisera" bilden och först sedan visa den på skärmen.

G-SYNC fungerar precis tvärtom. Den justerar inte bilden, utan skärmens uppdateringsfrekvens till antalet bildrutor som visas på skärmen. Allt görs i hårdvara med hjälp av G-SYNC-modulen inbyggd i monitorn, så det finns ingen ytterligare fördröjning i visningen av bilden, som är fallet med vertikal synkronisering. Detta är dess främsta fördel.

Hela problemet är att G-SYNC bara fungerar bra när FPS är inom det uppdateringsfrekvensområde som stöds. Detta område täcker frekvenser från 30 Hz till det maximala värdet som monitorn stöder (60Hz eller 144Hz). Det vill säga att den här tekniken fungerar till sin fulla potential när FPS inte sjunker under 30 och inte överstiger 60 eller 144 bilder per sekund, beroende på den maximala uppdateringsfrekvensen som stöds. Infografiken nedan, skapad av BlurBusters, ser riktigt bra ut.

Vad händer om fps går utanför detta intervall? G-SYNC kommer inte att kunna justera skärmuppdateringen, så allt utanför intervallet kommer inte att fungera. Du hittar exakt samma problem som på en vanlig bildskärm utan G-SYNC och klassisk vertikal synk kommer att fungera. Om den är avstängd kommer skärmen att rivas. Om den är påslagen kommer du inte att se gapeffekten, men en iputlag (fördröjning) visas.

Därför är det i ditt bästa intresse att hålla dig inom G-SYNC-uppdateringsintervallet, som är minst 30Hz och max vad monitorn maxar (144Hz är vanligast, men det finns 60Hz-skärmar också). Hur man gör det? Använda lämpliga vertikala synkroniseringsparametrar, samt genom att begränsa det maximala antalet FPS.

Vad är då slutsatsen av detta? I en situation där antalet bilder per sekund sjunker under 30 FPS, måste du lämna vertikal synkronisering fortfarande aktiverad. Dessa är sällsynta fall, men om det händer, säkerställer V-SYNC att det inte blir någon riveffekt. Om den övre gränsen överskrids är allt enkelt - du måste begränsa det maximala antalet bilder per sekund för att inte närma sig den övre gränsen, när den korsas är V-SYNC påslagen, vilket säkerställer kontinuerlig drift av G-SYNC .

Därför, om du har en 144 Hz-skärm måste du aktivera FPS-locket på 142 för att undvika att gå för nära den övre gränsen. Om bildskärmen är 60 Hz, ställ in gränsen på 58. Även om datorn klarar av att göra fler FPS kommer den inte att göra detta. Då slås inte V-SYNC på och endast G-SYNC kommer att vara aktiv.

Aktiverar Vsync i NVIDIA-inställningar

Öppna NVIDIAs kontrollpanel och gå till fliken "Hantera 3D-inställningar". I avsnittet Globala inställningar, hitta alternativet Vertikal synkronisering och ställ in alternativet på "På".

Tack vare detta kommer vertikal synkronisering alltid att vara redo att slås på om FPS sjunker under 30 FPS, och en monitor med G-SYNC-teknik skulle inte klara av detta.

Begränsa FPS till mindre än maximal skärmuppdateringsfrekvens

Det bästa sättet att begränsa bildrutor per sekund är att använda ett RTSS-program (RivaTuner Statistik Server). Otvivelaktigt, den bästa lösningenär att använda limitern som är inbyggd i spelet, men det är inte alla som har det.

Ladda ner och kör programmet, kontrollera sedan fältet Global i listan över spel på vänster sida. Här kan du ställa in en gemensam limiter för alla applikationer. På höger sida hittar du fältet "Framerate limit". Ställ in gränsen här för 144Hz-skärmar - 142 FPS, respektive för 60Hz-enheter -58 FPS.

När gränsen är inställd kommer det inte att finnas någon fördröjning i att aktivera klassisk vertikal synkronisering och spelet kommer att bli mycket bekvämare.







2024 gtavrl.ru.