Recension av ASUS GTX580 DirectCU II. En överklockares dröm


Inte så länge sedan, efter lanseringen av ett nytt "top-end" grafikkort från NVIDIA baserat på GeForce GTX 580 , kom vi i våra händer med en "referens" kopia av en sådan lösning, tillhandahållen till oss av ZOTAC. På den tiden, på grund av den partiella funktionaliteten hos drivrutinerna och programvaran för grafikkort av denna modell, kunde vi inte helt testa referensexemplet för grafikacceleratorn på GeForce GTX 580.Den största besvikelsen med den senaste recensionen var den svaga överklockningen av grafikkortet ZOTAC GeForce GTX 580. Och det var för att rätta till denna brist som vi tog det andra "referens"-provet av en grafikaccelerator baserad på GeForce GTX 580-kärnan, som tillhandahålls oss av ASUS.

ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5) har en helt referensdesign, både PCB-kortet och kylsystemet. Men huvud funktion Denna modell kommer att stödja överklockning med möjligheten att öka spänningen på grafikkortets kärna. ASUS-teknik Voltage Tweak har ett Smart Doctor mjukvarugränssnitt som låter dig överklocka ditt grafikkort och få en märkbar prestandaökning i krävande applikationer.

Låt oss inte uppehålla oss vid funktionerna i GPU:n nu. GeForce GTX 580, du kan läsa om det i föregående artikel. Läsaren kommer att vara mycket mer intresserad av prestationsjämförelse GeForce GTX 580 med kapaciteten hos en direkt konkurrent från AMD, Radeon HD 6970 grafikkort. Vi kommer också att försöka analysera priserna på "topp" produkter från båda tillverkarna så tillförlitligt som möjligt för vår marknad.

ASUS GeForce GTX 580

Som vanligt är det värt att börja med en detaljerad genomgång av de tekniska egenskaperna hos grafikkortet ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5), som presenteras på tillverkarens webbplats:

ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5)

Grafikkärna

NVIDIA GeForce GTX 580 (GF110-375-A1)

Transportband

512 unified streaming

API:er som stöds

DirectX 11, OpenGL 4.1

Kärnfrekvens, MHz

Frekvens för enhetliga processorer, MHz

Minnesfrekvens (effektiv), MHz

Minnesvolym (typ), MB

Minnesbuss, bit

Buss standard

PCI Express X16 2.0

Maximal upplösning

Upp till 2 560 x 1 600 (DVI med dubbla länkar) eller 1 920 x 1 200 (DVI med enkel länk)
Upp till 1920x1080 (HDMI)
Upp till 2048x1536 (VGA via adapter, ingår ej)

2xDVI-I, mini-HDMI

Stöd för HDCP och HD-video

Äta
Avkodning av MPEG-2, MPEG-4, DivX, WMV9, VC-1 och H.264/AVC

Mått, mm

Krav på strömförsörjning effekt, Watt

Högsta tillåtna kärntemperatur, °C

Förare

Färska drivrutiner kan laddas ner från supportsidor eller GPU-tillverkarens webbplats.

Produkters webbsida

http://www.asus.ua/

Som framgår av tabellen, ASUS modell GeForce GTX 580 (ENGTX580/2DI/1536MD5) skiljer sig från "referens"-exemplet endast i frekvensen på grafikkortets grafikkärna, den är 10 MHz högre än den rekommenderade och är lika med 782 MHz. De återstående egenskaperna överensstämmer helt med de som föreslagits av NVIDIA för lösningar baserade på GeForce GTX 580.

Det seriella grafikkortet med en "referens"-design från ASUS på GeForce GTX 580-chipet har en ganska enkel förpackning. Dess design är mycket lik designen av förpackningen av grafikkort av de "topp" lösningarna i 400-serien från denna tillverkare.

Förpackningen betonar möjligheten att öka matningsspänningen för grafikkortets kärna, vilket teoretiskt kan förbättra dess prestanda med 50%. Nedan är "GTX 580"-chippet som används i grafikacceleratorn, 1536 MB GDDR5-minne som finns på kortet, stöd för DirectX 11-specifikationen och NVIDIA GeForce CUDA och NVIDIA PhysX-teknologier.

På baksidan, förutom logotyperna NVIDIA SLI och NVIDIA 3D Vision Ready, finns det kort beskrivning kapacitet och teknik som stöds. Det finns ett omnämnande av stöd för ASUS Voltage Tweak och fullfjädrad arbete med DirectX 11-instruktioner betonas, vilket tydligt kan ses i spelet Metro 2033: The Last Refuge. Det finns ett litet diagram för att ansluta bildskärmar till gränssnitten på baksidan.

Innehållet i utskriften är ganska informativt, köparen kan omedelbart lära sig om alla fördelar och egenskaper hos produkten han köper.

Inuti finns själva grafikkortet och en liten extra uppsättning tillbehör. ASUS-ingenjörer lägger följande i lådan med grafikacceleratorn:

  • Användarmanual;
  • Disk med programvara och drivrutiner;
  • Strömadapter för grafikkort från två 6-stiftskontakter till en åttastifts PCI Express;
  • Adapter från Mini-HDMI till HDMI.

Ett ganska minimalistiskt kit, med tanke på priset för ett grafikkort baserat på "top" GeForce GTX 580-chippet Låt oss komma ihåg att i vår tidigare testning av "referens"-exemplet, som var GeForce GTX 580-videokortet från ZOTAC. paketet var lite bredare. ZOTAC GeForce GTX 580-paketet skilde sig med en DVI-till-VGA-adapter och en adapter från två 4-stifts perifera strömkontakter till en 6-stifts strömkontakt för grafikkort. Det är de två sista adaptrarna som ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5)-modellen saknar för en universell uppsättning som helt skulle fylla alla nyanser av att installera detta grafikkort i en modern systemenhet.

Det allmänna utseendet på grafikkortet lämnar ingen tvekan om att det tillhör "referens"-lösningarna baserade på GeForce GTX 580-kärnan. Kortets mörka textolit och formen på det svarta plasthöljet som täcker framsidan påminner om. tidigare testade ZOTAC GeForce GTX 580 grafikkort Den enda skillnaden mellan ASUS GeForce GTX 580-modellen (ENGTX580/2DI/1536MD5) är inskriptionen "ASUS" med silverbokstäver i den centrala delen av höljet.

De övergripande måtten på GeForce GTX 580 grafikkortet är helt identiska med GeForce GTX 480 - dess längd är 267 mm (10,5"), vilket är en centimeter kortare än acceleratorer med Radeon HD 5870 kärna. Tillverkaren placerade försiktigt två extra krafter kontakter överst på grafikkortet Mått på det granskade grafikkortet Acceleratorn kommer att göra det möjligt att passa in i nästan alla moderna fodral och kommer inte att komplicera proceduren för att ansluta ytterligare ström till grafikkortet.

Totalt använder grafikacceleratorns kraftsystem (utöver PCI bussar Express) en sexstifts och en åttastiftskontakt. Detta arrangemang låter dig leverera 300 W för att driva grafikkortet. NVIDIA uppger att referensexemplets grafikaccelerator på GeForce GTX 580 har ett termiskt paket (TDP) på 244 W. Det är något mindre än sin föregångare, GeForce GTX 480, och betydligt mindre än Radeon HD 5970, som knappt ryms inom 300W-gränsen. grupp etablerad PCI-SIG. För en "topplösning" rekommenderar NVIDIA därför en strömförsörjning med en effekt på 600 W eller högre. Även på bilden kan du se två SLI-portar, vilket kommer att öka prestandan flera gånger grafiksystem, som kombinerar flera liknande grafikkort.

ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5) grafikkort upptar två platser, vilket tvingar användaren att ta hänsyn till denna nyans när han väljer konfiguration för sin dator.

Gränssnittspanelen har två DVI-portar och en mini-HDMI. Den andra slitsen, som är ganska typisk för kylsystem av turbintyp, upptas av ett galler för att släppa ut varm luft utanför huset. En sådan uppsättning utgångsgränssnitt kräver helt klart ytterligare adaptrar, men frånvaron av DVI-till-VGA i paketet kan begränsa möjligheterna att använda kortet något. Men VGA-kontakten är redan ganska föråldrad, därför är sannolikheten för ett behov av den inte hög. Med hjälp av adaptern som ingår i satsen kan du enkelt ansluta en kabel med full HDMI-kontakt till mini-HDMI-kontakten. Sådana funktioner, tillsammans med två DVI-kontakter på gränssnittspanelen, kommer att ge ganska god mångsidighet för att ansluta bildskärmar och andra bildutmatningsenheter.

På andra sidan tryckt kretskort grafikkort från betydande inslag du kan notera systemchippet GPU strömförsörjning- CHiL Semiconductor CHL8266 PWM-kontroller som använder sex faser. En liknande användes på GeForce GTX 480-acceleratorer.

Vi undersökte i detalj det 6+2-fasiga kraftsystemet för "referens" -provet i recensionen av ZOTAC GeForce GTX 580, men här är det bara värt att notera den omfattande användningen av tantalkondensatorer för att fylla textoliten i denna modell, vilket bör öka stabiliteten på grafikkortet, minska dess värmegenerering och vi hoppas kunna ge det bra överklockningsmöjligheter.

NVIDIA GeForce GTX 580-grafikprocessorn som installeras här är märkt GF110-375-A1.

ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5)-modellen är mycket lik "referens"-versionen av acceleratorn på NVIDIA GeForce GTX 580. Grafikprocessorn arbetar med en frekvens på 782 MHz, vilket är 10 MHz mer än referens model, respektive shader-domäner har en frekvens på 1564 MHz. En sådan fabriksöverklocka, med drygt 1 %, behövs dock främst för att särskilja acceleratorn ASUS ENGTX580/2DI/1536MD5 från den allmänna massan av lösningar med referensdesign, och den kommer inte att ha någon märkbar effekt på prestandan. Videominnet fick 1002 MHz verklig eller 4008 MHz effektiv frekvens, vilket motsvarar den som rekommenderas av NVIDIA.

I viloläge sjunker frekvensen för GF110-grafikkretsen till 405 MHz och minnesfrekvensen sjunker till 162 MHz. Samtidigt med minskningen av frekvenserna sjunker matningsspänningen på grafikprocessorn till 0,957 V. Fläktens rotationshastighet minskade till 1410 rpm, vilket är 40 % av turbinens nominella hastighet. Vid sådana hastigheter blir bruset som avges av grafikkortet omärkbart mot systemets allmänna bakgrund och skapar inte obehag. Totalt sett bör detta ha en ganska stark inverkan på nivån på energiförbrukningen under vilotid.

Det 1536 MB GDDR5-minne som används här är utrustat med chips med en verklig arbetsfrekvens på 1250 MHz eller 5000 MHz effektivt, detta kan ge oss ett bra frekvensutrymme vid överklockning. Vi tog inte isär ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5) grafikkort som kom till oss för testning, eftersom PCB-innehållet i kortet och dess kylsystem är helt samma som modellen vi testade tidigare.

Kylsystem

Utformningen av kylsystemet på grafikkortet GeForce GTX 580 använder en förångningskammare, som gör att värmen som tas bort från GPU:n kan fördelas jämnt över alla plattor aluminium radiator. En fläkt av turbintyp installerad i kylsystemet, driver ett luftflöde genom dessa plattor, kyler dem och tar bort den uppvärmda luften utanför kroppen.

Kylsystemet har en extra kylarplatta som täcker den övre delen av grafikkortskortet och ger värmeavlägsnande, genom ett speciellt termiskt gränssnitt, från minneschipsen och kraftsystemets transistorer. Du kan läsa mer om designen och driften av kylsystemet i ZOTAC GeForce GTX 580 recension.

För att kontrollera kylsystemets effektivitet använde vi MSI Kombustor-verktyget, och detaljerad övervakning utfördes med MSI Afterburner 2.1.0.

Genom att arbeta med standardfrekvenser och automatiskt styra turbinens rotationshastighet, värmdes grafikprocessorn upp till 88°C. Samtidigt var den svalare rotationshastigheten 2910 rpm, vilket var 71% av det maximala, och hela systemet fungerade med lite brus. Sådana indikatorer för kylsystemet indikerar dess genomsnittliga kapacitet.

Tack vare ett unikt kylsystem med förångningskammare förbättrades effektiviteten hos den nya kylaren med 10%, om vi jämför det med "referens"-provet på GeForce GTX 480, gjorde detta att fläkten kunde arbeta med lägre hastigheter med mindre ljud. Trots grafikkortets "heta temperament" är brusnivån för ASUS GeForce GTX 580, även vid maximal belastning, inte särskilt hög och ligger i området för genomsnittliga värden. Dessutom, i videospel som laddar grafikkortet mindre än MSI Kombustor stresstest, kan ljudnivån helt beskrivas som under genomsnittet. Därför, för de flesta spelare, kommer turbinbruset från ett nytt grafikkort definitivt inte att orsaka några olägenheter.

Den nya designen av kylsystemet av turbintyp med en förångningskammare, som användes av NVIDIA på "referens" grafikkort med GeForce GTX 580-chipet, visade sig vara något effektivare, och viktigast av allt tystare, jämfört med sin motsvarighet på koppar värmerör i GeForce GTX 480-lösningar.

Testning

Under testningen använde vi Video Card Test Stand nr 3 (konfigurationen har inte ändrats sedan 2010-12-25).

Grafikacceleratorn på NVIDIA GeForce GTX 580 har ett bra prestandagap jämfört med föregångaren på GeForce GTX 480-kärnan. I vissa testapplikationer, med tunga 3D-scenbehandlingslägen, uppnås en prestandaökning på 20 %. Vi kan också konstatera att det finns en betydande eftersläpning efter konkurrentens grafikkort med ett chip, som är baserade på ATI Radeon HD 5870 och till och med på AMD Radeon HD 6970. Vi noterar dock att, på grund av bristen på "release"-drivrutiner för acceleratorer på AMD Radeon HD 6970-chippet, är noggrannheten i de erhållna prestandaresultaten lite tveksam. Vi hoppas att den nödvändiga mjukvaran kommer att dyka upp inom en snar framtid, och resultaten av att testa AMD Radeon HD 6970 kommer att bli mer tilltalande. Subjektivt kan vi bara prata om resultaten av den första testningen av AMD Radeon HD 6970, men de är helt klart inte för lösningar från AMD. Med tanke på allt ovanstående kan vi säkert konstatera att NVIDIA GeForce GTX 580 är den snabbaste på det här ögonblicket enkelchipslösning. Vi kan ännu inte jämföra detta grafikkort med flaggskeppet ATI Radeon HD 5970 med dubbla chip på grund av frånvaron av det senare i vårt testlaboratorium, men med hänvisning till tidigare tester av ZOTAC GeForce GTX 580, kan vi prata om den bättre prestandan hos ATI Radeon HD 5970 jämfört med lösningar baserade på NVIDIA GeForce GTX 580.

Jag skulle också vilja uppmärksamma strömförbrukningen för ASUS GeForce GTX 580 grafikkort i viloläge. Det var ungefär detsamma som ASUS GeForce GTX 480 grafikkort, d.v.s. på nivån 168 W, men märkbart mindre än den för den specialiserade överklockningslösningen MSI GeForce GTX 480 Lightning. Andra, mindre produktiva lösningar med färre ledande enheter visade naturligtvis lägre energiförbrukning, vilket är ganska naturligt.

Vid maximal belastning på ASUS GeForce GTX 580 grafikaccelerator var den totala systemets strömförbrukning 394 W. För att skapa ett sådant stressläge använde vi MSI Kombustor-verktyget, och detaljerad övervakning utfördes med MSI Afterburner 2.1.0. Detta "frosseri" är ganska typiskt för alla nya topplösningar från NVIDIA. Men vi noterar att "referens"-provet på GeForce GTX 480 har en högre strömförbrukning på 9 watt och är lika med 403 watt. Endast tvåchipsacceleratorn från ATI har ännu större strömförbrukning Radeon grafikkort HD 5970.

Att erövra marknaden för "topplösningar" från NVIDIA beror starkt på prissättningen av produkter i denna nisch från direkta konkurrenten AMD. GeForce GTX 580 grafikkortet erbjuds till försäljning till ett pris från $500 (enligt data från webbplatsen http://www.nvidia.com/), och lösningar för GeForce GTX 480 kan hittas från $400. Priset för "topp"-acceleratorn ATI Radeon HD 5870 har redan sjunkit till $280, och för AMD Radeon HD 6970 är det $370 för den amerikanska marknaden (enligt uppgifter från webbplatsen http://www.amd.com/) . Det finns en hel del erbjudanden för att sälja ett grafikkort med ett ATI Radeon HD 5970-chip, men fortfarande på hemsidan http://www.amd.com/ kan du hitta ett pris på $500-520 för sådana lösningar. Den resulterande prisstegen är ganska konsekvent med prestanda för de givna grafikkorten och deras kapacitet, men priserna för AMD-produkter är fortfarande betydligt lägre.

Överklockning av ASUS GeForce GTX 580 grafikkort

För att öka frekvenserna och övervaka temperaturerna på grafikacceleratorn använde vi MSI Afterburner 2.1.0 Beta 5-verktyget. Samtidigt kontrollerades driftstabiliteten i överklockat tillstånd med hjälp av det medföljande MSI Kombustor-verktyget. ett speciellt set speltester. Överklockning utfördes med förbättrad ventilation i väskan. Kylsystemet tvingades ställa in maximal fläkthastighet

För större stabilitet hos grafikacceleratorn under överklockning höjdes spänningen på GPU:n till 1.188 V. Detta gjorde det möjligt att överklocka CPU grafikkort upp till 925 MHz (18% ökning), och minneschips överklockade till en effektiv frekvens på 4348 MHz (8% ökning). Mycket bra resultat för GPU, men inte så fantastiskt för videominne. Låt oss nu kolla prestandavinsten vi fick av överklockning i riktiga testapplikationer.

Testpaket

Standardfrekvenser

Överklockat grafikkort

Produktivitetsökning, %

Prestandapoäng

Prestandapoäng

Crysis Warhead, DirectX 10, maximal kvalitet, fps

Aliens vs. Predator DX11 Benchmark, maximal kvalitet, INGEN AA/AF, fps

Colin McRae: DiRT 2, DirectX 11, Maximal Quality, NO AA/AF, fps

Metro 2033 Benchmark, DirectX 11, Maximal Quality, NO AA / AF4x, fps

Metro 2033 Benchmark, DirectX 11, Maximal Quality, AA4x/AF16x, fps

I vårt fall, genom att överklocka ASUS GeForce GTX 580 grafikkort, lyckades vi uppnå nästan 15% ökning i prestanda. En sådan ökning av prestanda för det redan mest kraftfulla grafikkortet med ett chip är mer för status än vad som faktiskt är nödvändigt för spelprocessen.

Slutsatser

Den här recensionen bekräftade återigen att grafikacceleratorn baserad på NVIDIA GeForce GTX 580 med 1,5 GB GDDR5-videominne är den mest produktiva lösningen med ett chip för den moderna spelindustrin, som bara kan konkurrera med ATI Radeon HD 5970 med dubbla chip. vad gäller prisnisch är det dessa som de två lösningarna kan anses vara likvärdiga. Även det senaste "topp"-erbjudandet från AMD, Radeon HD 6970 grafikaccelerator, kunde inte konkurrera i prestanda med ASUS GeForce GTX 580, även om priset för Radeon HD 6970 är något lägre än priset för GeForce GTX 480 och avsevärt lägre än kostnaden för lösningar baserade på GeForce GTX 580. Men, som vi redan noterade i recensionen, för Radeon HD 6970 finns det en möjlighet att öka prestanda med lanseringen av "release" drivrutiner, men sannolikheten för en radikal förändring i maktbalansen är nästan noll.

Jämför man kapaciteten hos acceleratorerna på GeForce GTX 580 med tidigare lösningar på GeForce GTX 480 kan man märka en tydlig prestandaökning i de nyare korten, vilket i vissa spel kan uttryckas som 15-20% överlägsenhet. Dessutom använder den nya referensdesignen, som ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5), en tystare och effektivare ångkammare. I stort sett är det bara dessa två förbättringar i det nya flaggskeppet som i slutändan kommer att uppskattas av avancerade spelare. Prestanda för lösningar på GeForce GTX 580 kommer att vara ganska tillräckliga för maximala inställningar i alla moderna spel, men förutsatt att en bildskärm används och utan att använda 3D-stereobildlägen på den.

Fördelar:

  • Mycket hög produktivitet;
  • Utmärkt överklockningspotential;
  • Acceptabel ljudnivå;
  • Hög kvalitet elementbas använder tantal och solid-state kondensatorer, vilket säkerställer tillförlitlighet och hållbarhet;
  • Liten fabriksöverklocka.

Brister:

  • Genomsnittlig utrustning;
  • Hög energiförbrukning;
  • Relativt hög kostnad.

Inte så länge sedan, efter lanseringen av ett nytt "top-end" grafikkort från NVIDIA baserat på GeForce GTX 580, kom vi i våra händer med en "referens" kopia av en sådan lösning, tillhandahållen till oss av ZOTAC. På den tiden, på grund av den partiella funktionaliteten hos drivrutinerna och programvaran för grafikkort av denna modell, kunde vi inte helt testa referensexemplet för grafikacceleratorn på GeForce GTX 580.Den största besvikelsen med den senaste recensionen var den svaga överklockningen av grafikkortet ZOTAC GeForce GTX 580. Och det var för att rätta till denna brist som vi tog det andra "referens"-exemplet av grafikacceleratorn på GeForce GTX 580-kärnan. oss från ASUS.

Den har en helt referensdesign, både PCB-kortet och kylsystemet. Men huvudfunktionen hos denna modell kommer att vara överklockningsstöd med möjligheten att öka spänningen på grafikkortets kärna. ASUS Voltage Tweak-teknik har ett Smart Doctor-programvarugränssnitt som låter dig överklocka ditt grafikkort och få en märkbar prestandaökning i krävande applikationer.

Låt oss inte uppehålla oss vid funktionerna i GPU:n nu. GeForce GTX 580, du kan läsa om det i föregående artikel. Läsaren kommer att vara mycket mer intresserad av prestationsjämförelse GeForce GTX 580 med kapaciteten hos en direkt konkurrent från AMD, Radeon HD 6970 grafikkort. Vi kommer också att försöka analysera priserna på "topp" produkter från båda tillverkarna så tillförlitligt som möjligt för vår marknad.

ASUS GeForce GTX 580

Som vanligt är det värt att börja med en detaljerad genomgång av de tekniska egenskaperna hos grafikkortet ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5), som presenteras på tillverkarens webbplats:

Grafikkärna

NVIDIA GeForce GTX 580 (GF110-375-A1)

Transportband

512 unified streaming

API:er som stöds

DirectX 11, OpenGL 4.1

Kärnfrekvens, MHz

Frekvens för enhetliga processorer, MHz

Minnesfrekvens (effektiv), MHz

Minnesvolym (typ), MB

Minnesbuss, bit

Buss standard

PCI Express X16 2.0

Maximal upplösning

Upp till 2 560 x 1 600 (DVI med dubbla länkar) eller 1 920 x 1 200 (DVI med enkel länk)
Upp till 1920x1080 (HDMI)
Upp till 2048x1536 (VGA via adapter, ingår ej)

2xDVI-I, mini-HDMI

Stöd för HDCP och HD-video

Äta
Avkodning av MPEG-2, MPEG-4, DivX, WMV9, VC-1 och H.264/AVC

Mått, mm

Krav på strömförsörjning effekt, Watt

Högsta tillåtna kärntemperatur, °C

Förare

Färska drivrutiner kan laddas ner från supportsidor eller GPU-tillverkarens webbplats .

Produkters webbsida

Som framgår av tabellen skiljer sig ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5) modellen från "referens"-exemplet endast i frekvensen för grafikkortets grafikkärna, den är 10 MHz mer än den rekommenderade och är lika med 782 MHz. De återstående egenskaperna överensstämmer helt med de som föreslagits av NVIDIA för lösningar baserade på GeForce GTX 580.

Det seriella grafikkortet med en "referens"-design från ASUS på GeForce GTX 580-chipet har en ganska enkel förpackning. Dess design är mycket lik designen av förpackningen av grafikkort av de "topp" lösningarna i 400-serien från denna tillverkare.

Förpackningen betonar möjligheten att öka matningsspänningen för grafikkortets kärna, vilket teoretiskt kan förbättra dess prestanda med 50%. Nedan är "GTX 580"-chippet som används i grafikacceleratorn, 1536 MB GDDR5-minne som finns på kortet, stöd för DirectX 11-specifikationen och NVIDIA GeForce CUDA och NVIDIA PhysX-teknologier.

På baksidan, förutom logotyperna NVIDIA SLI och NVIDIA 3D Vision Ready, finns det en kort beskrivning av funktionerna och teknikerna som stöds. Det finns ett omnämnande av stöd för ASUS Voltage Tweak och fullfjädrad arbete med DirectX 11-instruktioner betonas, vilket tydligt kan ses i spelet Metro 2033: The Last Refuge. Det finns ett litet diagram för att ansluta bildskärmar till gränssnitten på baksidan.

Innehållet i utskriften är ganska informativt, köparen kan omedelbart lära sig om alla fördelar och egenskaper hos produkten han köper.

Inuti finns själva grafikkortet och en liten extra uppsättning tillbehör. ASUS-ingenjörer lägger följande i lådan med grafikacceleratorn:

  • Användarmanual;
  • Disk med programvara och drivrutiner;
  • Strömadapter för grafikkort från två 6-stiftskontakter till en åttastifts PCI Express;
  • Adapter från Mini-HDMI till HDMI.

Ett ganska minimalistiskt kit, med tanke på priset för ett grafikkort baserat på "top" GeForce GTX 580-chippet Låt oss komma ihåg att i vår tidigare testning av "referens"-exemplet, som var GeForce GTX 580-videokortet från ZOTAC. paketet var lite bredare. ZOTAC GeForce GTX 580-paketet skilde sig med en DVI-till-VGA-adapter och en adapter från två 4-stifts perifera strömkontakter till en 6-stifts strömkontakt för grafikkort. Det är de två sista adaptrarna som ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5)-modellen saknar för en universell uppsättning som helt skulle fylla alla nyanser av att installera detta grafikkort i en modern systemenhet.

Det allmänna utseendet på grafikkortet lämnar ingen tvekan om att det tillhör "referens"-lösningarna baserade på GeForce GTX 580-kärnan. Kortets mörka textolit och formen på det svarta plasthöljet som täcker framsidan påminner om. tidigare testade ZOTAC GeForce GTX 580 grafikkort Den enda skillnaden mellan ASUS GeForce GTX 580-modellen (ENGTX580/2DI/1536MD5) är inskriptionen "ASUS" med silverbokstäver i den centrala delen av höljet.

De övergripande måtten på GeForce GTX 580 grafikkortet är helt identiska med GeForce GTX 480 - dess längd är 267 mm (10,5"), vilket är en centimeter kortare än acceleratorer med Radeon HD 5870 kärna. Tillverkaren placerade försiktigt två extra krafter kontakter överst på grafikkortet Mått på det granskade grafikkortet Acceleratorn kommer att göra det möjligt att passa in i nästan alla moderna fodral och kommer inte att komplicera proceduren för att ansluta ytterligare ström till grafikkortet.

Totalt använder grafikacceleratorns strömförsörjningssystem (utöver PCI Express-bussen) en sexstifts och en åttastiftskontakt. Detta arrangemang låter dig leverera 300 W för att driva grafikkortet. NVIDIA uppger att referensexemplets grafikaccelerator på GeForce GTX 580 har ett termiskt paket (TDP) på 244 W. Det är något mindre än sin föregångare, GeForce GTX 480, och betydligt mindre än Radeon HD 5970, som knappt ryms inom PCI-SIG:s 300W-gräns. För en "topplösning" rekommenderar NVIDIA därför en strömförsörjning med en effekt på 600 W eller högre. Också på bilden kan du se två SLI-portar, vilket gör att du kan öka prestanda för grafiksystemet flera gånger genom att kombinera flera liknande grafikkort.

ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5) grafikkort upptar två platser, vilket tvingar användaren att ta hänsyn till denna nyans när han väljer konfiguration för sin dator.

Gränssnittspanelen har två DVI-portar och en mini-HDMI. Den andra slitsen, som är ganska typisk för kylsystem av turbintyp, upptas av ett galler för att släppa ut varm luft utanför huset. En sådan uppsättning utgångsgränssnitt kräver helt klart ytterligare adaptrar, men frånvaron av DVI-till-VGA i paketet kan begränsa möjligheterna att använda kortet något. Men VGA-kontakten är redan ganska föråldrad, därför är sannolikheten för ett behov av den inte hög. Med hjälp av adaptern som ingår i satsen kan du enkelt ansluta en kabel med full HDMI-kontakt till mini-HDMI-kontakten. Sådana funktioner, tillsammans med två DVI-kontakter på gränssnittspanelen, kommer att ge ganska god mångsidighet för att ansluta bildskärmar och andra bildutmatningsenheter.

På baksidan av grafikkortets tryckta kretskort är en av de viktigaste delarna GPU-kraftsystemchippet - CHiL Semiconductor CHL8266 PWM-kontroller, som använder sex faser. En liknande användes på GeForce GTX 480-acceleratorer.

Vi undersökte i detalj det 6+2-fasiga kraftsystemet i "referens"-provet i recensionen av ZOTAC GeForce GTX 580, men här är det bara värt att notera den omfattande användningen av tantalkondensatorer för att fylla textoliten i denna modell, vilket bör öka stabiliteten på grafikkortet, minska dess värmegenerering och vi hoppas kunna ge det bra överklockningsmöjligheter.

NVIDIA GeForce GTX 580-grafikprocessorn som installeras här är märkt GF110-375-A1.

ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5)-modellen är mycket lik "referens"-versionen av acceleratorn på NVIDIA GeForce GTX 580. Grafikprocessorn arbetar på 782 MHz, vilket är 10 MHz mer än referensen modell, respektive shader-domäner har en frekvens på 1564 MHz. En sådan fabriksöverklocka, med drygt 1 %, behövs dock främst för att särskilja acceleratorn ASUS ENGTX580/2DI/1536MD5 från den allmänna massan av lösningar med referensdesign, och den kommer inte att ha någon märkbar effekt på prestandan. Videominnet fick 1002 MHz verklig eller 4008 MHz effektiv frekvens, vilket motsvarar den som rekommenderas av NVIDIA.

I viloläge sjunker frekvensen för GF110-grafikkretsen till 405 MHz och minnesfrekvensen sjunker till 162 MHz. Samtidigt med minskningen av frekvenserna sjunker matningsspänningen på grafikprocessorn till 0,957 V. Fläktens rotationshastighet minskade till 1410 rpm, vilket är 40 % av turbinens nominella hastighet. Vid sådana hastigheter blir bruset som avges av grafikkortet omärkbart mot systemets allmänna bakgrund och skapar inte obehag. Totalt sett bör detta ha en ganska stark inverkan på nivån på energiförbrukningen under vilotid.

Det 1536 MB GDDR5-minne som används här är utrustat med chips med en verklig arbetsfrekvens på 1250 MHz eller 5000 MHz effektivt, detta kan ge oss ett bra frekvensutrymme vid överklockning. Vi tog inte isär ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5) grafikkort som kom till oss för testning, eftersom PCB-innehållet i kortet och dess kylsystem är helt samma som modellen vi testade tidigare.

Kylsystem

Utformningen av kylsystemet på grafikkortet GeForce GTX 580 använder en förångningskammare, som gör att värmen som avlägsnas från GPU:n kan fördelas jämnt över alla plattor på aluminiumradiatorn. En fläkt av turbintyp installerad i kylsystemet, driver ett luftflöde genom dessa plattor, kyler dem och tar bort den uppvärmda luften utanför kroppen.

Kylsystemet har en extra kylarplatta som täcker den övre delen av grafikkortskortet och ger värmeavlägsnande, genom ett speciellt termiskt gränssnitt, från minneschipsen och kraftsystemets transistorer. Du kan läsa mer om designen och driften av kylsystemet i recensionen av ZOTAC GeForce GTX 580.

För att kontrollera kylsystemets effektivitet använde vi MSI Kombustor-verktyget, och detaljerad övervakning utfördes med MSI Afterburner 2.1.0.

Genom att arbeta med standardfrekvenser och automatiskt styra turbinens rotationshastighet, värmdes grafikprocessorn upp till 88°C. Samtidigt var den svalare rotationshastigheten 2910 rpm, vilket var 71% av det maximala, och hela systemet fungerade med lite brus. Sådana indikatorer för kylsystemet indikerar dess genomsnittliga kapacitet.

Tack vare ett unikt kylsystem med förångningskammare förbättrades effektiviteten hos den nya kylaren med 10%, om vi jämför det med "referens"-provet på GeForce GTX 480, gjorde detta att fläkten kunde arbeta med lägre hastigheter med mindre ljud. Trots grafikkortets "heta temperament" är brusnivån för ASUS GeForce GTX 580, även vid maximal belastning, inte särskilt hög och ligger i området för genomsnittliga värden. Dessutom, i videospel som laddar grafikkortet mindre än MSI Kombustor stresstest, kan ljudnivån helt beskrivas som under genomsnittet. Därför, för de flesta spelare, kommer turbinbruset från ett nytt grafikkort definitivt inte att orsaka några olägenheter.

Den nya designen av kylsystemet av turbintyp med en förångningskammare, som användes av NVIDIA på "referens" grafikkort med GeForce GTX 580-chipet, visade sig vara något effektivare, och viktigast av allt tystare, jämfört med sin motsvarighet på koppar värmerör i GeForce GTX 480-lösningar.

Under testningen använde vi Video Card Test Stand nr 3
Välj vad du vill jämföra GeForce GTX 580 1,5 GB GDDR5 ASUS med


Grafikacceleratorn på NVIDIA GeForce GTX 580 har ett bra prestandagap jämfört med föregångaren på GeForce GTX 480-kärnan. I vissa testapplikationer, med tunga 3D-scenbehandlingslägen, uppnås en prestandaökning på 20 %. Vi kan också konstatera att det finns en betydande eftersläpning efter konkurrentens videokort med ett chip, som är baserade på ATI Radeon HD 5870 och till och med AMD Radeon HD 6970. Vi noterar dock att på grund av bristen på "release" drivrutiner för acceleratorer på AMD Radeon HD 6970-chipet, är noggrannheten hos de erhållna resultaten lite tveksam. Vi hoppas att den nödvändiga mjukvaran kommer att dyka upp inom en snar framtid, och resultaten av att testa AMD Radeon HD 6970 kommer att bli mer tilltalande. Subjektivt kan vi bara prata om resultaten av den första testningen av AMD Radeon HD 6970, men de är helt klart inte för lösningar från AMD. Med tanke på allt ovanstående kan vi med säkerhet konstatera att NVIDIA GeForce GTX 580 är den snabbaste enchipslösningen för tillfället. Vi kan ännu inte jämföra detta grafikkort med flaggskeppet ATI Radeon HD 5970 med dubbla chip på grund av frånvaron av det senare i vårt testlaboratorium, men med hänvisning till tidigare tester av ZOTAC GeForce GTX 580, kan vi prata om den bättre prestandan hos ATI Radeon HD 5970 i förhållande till lösningar baserade på NVIDIA GeForce GTX 580.

Jag skulle också vilja uppmärksamma strömförbrukningen för ASUS GeForce GTX 580 grafikkort i viloläge. Det var ungefär detsamma som ASUS GeForce GTX 480 grafikkort, d.v.s. på nivån 168 W, men märkbart mindre än den för den specialiserade överklockningslösningen MSI GeForce GTX 480 Lightning. De återstående mindre produktiva lösningarna med färre utförandeenheter visade naturligtvis lägre energiförbrukning, vilket är ganska naturligt.

Vid maximal belastning på ASUS GeForce GTX 580 grafikaccelerator var den totala systemets strömförbrukning 394 W. För att skapa ett sådant stressläge använde vi MSI Kombustor-verktyget, och detaljerad övervakning utfördes med MSI Afterburner 2.1.0. Detta "frosseri" är ganska typiskt för alla nya topplösningar från NVIDIA. Men vi noterar att "referens"-provet på GeForce GTX 480 har en högre strömförbrukning på 9 watt och är lika med 403 watt. Endast tvåchipsacceleratorn från företaget har ännu större strömförbrukning ATI grafikkort Radeon HD 5970.

Att erövra marknaden för "topplösningar" från NVIDIA beror starkt på prissättningen av produkter i denna nisch från direkta konkurrenten AMD. GeForce GTX 580 grafikkortet erbjuds till försäljning till ett pris från $500 (enligt data från webbplatsen http://www.nvidia.com/), och lösningar för GeForce GTX 480 kan hittas från $400. Priset för "topp"-acceleratorn ATI Radeon HD 5870 har redan sjunkit till $280, och för AMD Radeon HD 6970 är det $370 för den amerikanska marknaden (enligt uppgifter från webbplatsen http://www.amd.com/) . Det finns en hel del erbjudanden för att sälja ett grafikkort med ett ATI Radeon HD 5970-chip, men fortfarande på hemsidan http://www.amd.com/ kan du hitta ett pris på $500-520 för sådana lösningar. Den resulterande prisstegen är ganska konsekvent med prestanda för de givna grafikkorten och deras kapacitet, men priserna för AMD-produkter är fortfarande betydligt lägre.

Överklockning av ASUS GeForce GTX 580 grafikkort

För att öka frekvenserna och övervaka temperaturerna på grafikacceleratorn använde vi MSI Afterburner 2.1.0 Beta 5-verktyget. Samtidigt kontrollerades driftstabiliteten i överklockat tillstånd med hjälp av det medföljande MSI Kombustor-verktyget. en speciell uppsättning speltester. Överklockning utfördes med förbättrad ventilation i väskan. Kylsystemet tvingades ställa in maximal fläkthastighet

För bättre stabilitet hos grafikacceleratorn under överklockning höjdes spänningen på GPU:n till 1,188 V. Detta gjorde det möjligt att överklocka grafikkortets centralprocessor till 925 MHz (en ökning med 18%), och minneschipsen var överklockad till en effektiv frekvens på 4348 MHz (en ökning med 8%). Mycket bra resultat för GPU:n, men inte så fantastiskt för videominnet. Låt oss nu kolla prestandavinsten vi fick av överklockning i riktiga testapplikationer.

Testpaket

Standardfrekvenser

Överklockat grafikkort

Produktivitetsökning, %

Prestandapoäng

Prestandapoäng

Aliens vs. Predator DX11 Benchmark, maximal kvalitet, INGEN AA/AF, fps

Colin McRae: DiRT 2, DirectX 11, Maximal Quality, NO AA/AF, fps

I vårt fall, genom att överklocka ASUS GeForce GTX 580 grafikkort, lyckades vi uppnå nästan 15% ökning i prestanda. En sådan ökning av prestanda för det redan mest kraftfulla grafikkortet med ett chip är mer för status än vad som faktiskt är nödvändigt för spelprocessen.

Slutsatser

Den här recensionen bekräftade återigen att grafikacceleratorn baserad på NVIDIA GeForce GTX 580 med 1,5 GB GDDR5-videominne är den mest produktiva lösningen med ett chip för den moderna spelindustrin, som bara kan konkurrera med ATI Radeon HD 5970 med dubbla chip. vad gäller prisnisch är det dessa som de två lösningarna kan anses vara likvärdiga. Även det senaste "topp"-erbjudandet från AMD, Radeon HD 6970 grafikaccelerator, kunde inte konkurrera i prestanda med ASUS GeForce GTX 580, även om priset för Radeon HD 6970 är något lägre än priset för GeForce GTX 480 och avsevärt lägre än kostnaden för lösningar baserade på GeForce GTX 580. Men, som vi redan noterade i recensionen, för Radeon HD 6970 finns det en möjlighet att öka prestanda med lanseringen av "release" drivrutiner, men sannolikheten för en radikal förändring i maktbalansen är nästan noll.

Jämför man kapaciteten hos acceleratorerna på GeForce GTX 580 med tidigare lösningar på GeForce GTX 480 kan man märka en tydlig prestandaökning i de nyare korten, vilket i vissa spel kan uttryckas som 15-20% överlägsenhet. Dessutom använder den nya referensdesignen, som ASUS GeForce GTX 580 (ENGTX580/2DI/1536MD5), en tystare och effektivare ångkammare. I stort sett är det bara dessa två förbättringar i det nya flaggskeppet som i slutändan kommer att uppskattas av avancerade spelare. Prestanda för lösningar på GeForce GTX 580 kommer att vara ganska tillräckliga för maximala inställningar i alla moderna spel, men förutsatt att en bildskärm används och utan att använda 3D-stereobildlägen på den.

Fördelar:

  • Mycket hög produktivitet;
  • Utmärkt överklockningspotential;
  • Acceptabel ljudnivå;
  • Högkvalitativ elementbas med tantal och solid-state kondensatorer, vilket säkerställer tillförlitlighet och hållbarhet;
  • Artikel läst 21060 gånger

    Prenumerera på våra kanaler

...Vi tittade söderut, det fanns berg bakom alla möjliga byggnader. De var inte så höga, men de drog till sig ögat. Bergskedjorna täckta med molnkapar verkade levande. Precis som det finns levande tänder, och det finns tätade tänder med nerverna borttagna, redan döda - så är det här. Levande berg, de täckte större delen av ön med ett hårt skal, så jordens magma kunde inte bryta igenom dem och orsaka skakningar i skorpan, men bergen stod emot slaget, inte en enda spricka dök upp. Tektoniska plattor rörde sig, magma vajade och jorden behövde akut ett utlopp för energi. Och bara täta, nästan dagliga jordbävningar skakade den lilla ön med en långsträckt, nästan oval form. Ibland nådde slagen 6 poäng, men skorpan höll i sig, och under de senaste många, många hundra åren bildades inte en enda ny vulkan.

Med svårighet att slita blicken från de bergen, gick vi till hissen för att gå ner från 91:a våningen i Taipei 101, en halv kilometer lång skyskrapa. Vi insåg vagt att det fanns något intressant på andra sidan bergskedjan. Och denna intressanta sak finns verkligen, och visas på bilden ovan. Läsarna får lösa gåtan igen, men vilken får du reda på nedan.

Idag ska vi studera det förmodligen mest kraftfulla av alla grafikkort på marknaden baserat på Geforce GTX 580. Dessutom är det kraftfullt inte bara när det gäller prestanda, utan också rikt på inställningar och justeringar. Bara en skatt för överklockare. Tillverkningsföretaget AsusTeK är också direkt relaterat till de platser som nämns ovan: dess huvudkontor ligger i den staden.

Och vi går vidare till att studera produkten.

Betala

  • GPU: GeForce GTX 580 (GF110)
  • Gränssnitt: PCI Express x16
  • GPU-driftsfrekvenser (ROP): 815 MHz (nominellt - 775 MHz)
  • Minnesdriftsfrekvenser (fysiska (effektiva)): 1000 (4000) MHz (nominell - 1000 (4000) MHz)
  • Minnesbuss bredd: 384 bitar
  • Antal beräkningsenheter i GPU/blockdriftsfrekvensen: 512/1630 MHz (nominell - 512/1550 MHz)
  • Antal operationer (ALU) per block: 1
  • Totalt antal operationer (ALU): 512
  • Antal textureringsenheter: 64 (BLF/TLF/ANIS)
  • Antal rastreringsenheter (ROP): 48
  • Mått: 280×110×65 mm (det sista värdet är grafikkortets maximala tjocklek)
  • PCB färg: svart
  • RAMDAC/TMDS: GPU integrerad
  • Utgångar: 2×DVI (Dual-Link/HDMI), 1×HDMI, 1×DisplayPort
  • Stöd för flera processorer: SLI (maskinvara)

Asus Matrix GTX 580 Platinum 1536 MB 384-bitars GDDR5 PCI-E

Kortet har 1536 MB GDDR5 SDRAM-minne, placerat i 12 chips på framsidan av PCB:n.

Det är vettigt att komma ihåg att kortet kräver ytterligare ström, och det kräver att strömmen ansluts via två 8-stiftskontakter. Endast 1 sådan adapter kan levereras i förpackningen.

Och en sak till. På kylarhöljet finns en stor inskription "MATRIX", som lyser under drift. I det här fallet ändras färgen på bakgrundsbelysningen beroende på belastningen på GPU:n: blå färg - 2D eller lätt 3D, röd - tung belastning i 3D. Det är en liten sak, men det är trevligt!

Om kylsystemet.

Asus Matrix GTX 580 Platinum 1536 MB 384-bitars GDDR5 PCI-E

Kylsystemet består av tre delar: två radiatorer anslutna till varandra med värmerör och en gemensam ram, som också bär 2 fläktar; en rektangulär radiator för kylning av kraftkretstransistorerna, såväl som höljet.

En av radiatorerna har en kopparsula, erhållen från de komprimerade baserna av kopparrör, och det är med denna sula som kylaren berör kärnan. Värmen överförs genom värmerören till båda radiatorerna och förs sedan bort av luftflödet från de två fläktarna.

Minneschips kyls inte. Jag sa redan tidigare att detta ser väldigt irriterande ut: sådana skrymmande enheter har inte banala kylflänsar för installation på minneschips.

Systemet visade sig vara mycket stort grafikkortet upptar tre platser i systemenheten. Samtidigt ökade även gaspedalens längd. Men det här är en nödvändig åtgärd, eftersom kortet har en tvånivåuppsättning utgångsuttag, som upptar 2 platser, och du behöver fortfarande utrymme för varmluftsutgång. Eftersom produkten har en massiv kylfläns och stor storlek fläktar, de senare arbetar med låga hastigheter, och CO är nästan tyst.

Vi genomförde en temperaturstudie med hjälp av MSI Afterburner-verktyget (författare A. Nikolaychuk AKA Unwinder) och fick följande resultat:

Du kan märka att även med extrem överklockning (för att inte tala om standard) är kylarens driftseffektivitet mycket hög, och uppvärmningen är bara 83 grader.

Vi kommer inte att kunna prata om förpackningen, eftersom kortet kom till oss i OEM-förpackning utan ett kit.

Installation och drivrutiner

Testbänkkonfiguration:

  • Datorbaserat Intel core i7-975 (Socket 1366)
    • Intel Core i7-975-processor (3340 MHz);
    • Asus P6T Deluxe moderkort baserat på Intel X58 chipset;
    • RAM 6 GB DDR3 SDRAM Corsair 1600 MHz;
    • hårddisk WD Caviar SE WD1600JD 160 GB SATA;
    • strömförsörjning Tagan TG900-BZ 900 W.
  • Operations rum Windows-system 7 64-bitars; DirectX 11;
  • Dell 3007WFP-skärm (30 tum);
  • ATI-drivrutinversion Catalyst 11.7; Nvidia version 280.19.

VSync är inaktiverat.

Testresultat: prestandajämförelse

Vi använde följande verktyg:

  • Far Cry 2 (Ubisoft) - DirectX 10.0, shaders 4.0 (HDR), verktyget som ingår i spelet (mellannivå) användes för testning. Alla inställningar är inställda på maximal kvalitet.
  • Unigine Tropics Benchmark 1.3 (Unigine) - DirectX 10.0, . Testinställningar - Hög.
    Unigine företag och personligen Alexandra Zapryagaeva för hjälp med att ställa in riktmärket.
  • 3DMark 11 (FutureMark) - DirectX 11.0, testinställningar - Prestanda.
  • Aliens vs. Predator (2010) (Rebellion/SEGA), DirectX 11.0, testinställningar - Mycket hög, starta benchmark från menyn.
  • Crysis Warhead (Crytek/EA), DirectX 10.0, (batchfil och demo för lansering), testinställningar - Mycket hög, lastnivå används.
    Tack Nvidia företag för att tillhandahålla en licensierad produkt.
  • Formel 1 (2010) (Codemasters) - DirectX 11.0, testinställningar - Ultra High (benchmark lansering: formulaone.exe -benchmark example_benchmark.xml).
    Vi tackar Nvidia för att du tillhandahåller den licensierade produkten.
  • Unigine Heaven Benchmark 2.5 Pro (Unigine) - DirectX 11.0, . Testinställningar - Hög.
    Vi vill särskilt tacka teamet Unigine företag och personligen Alexander Zapryagaev och Denis Shergin för att tillhandahålla riktmärket och hjälp med att sätta upp arbetet.
  • Colin McRae: DiRT2 (Codemasters) - DirectX 11.0, testinställningar - Ultra High (kör benchmark: dirt2.exe -benchmark example_benchmark.xml).
    Vi tackar AMD för att du tillhandahåller den licensierade produkten.
  • Metro 2033 (4A Games/THQ) - DirectX 11.0, testinställningar - Super High, PhysX inaktiverad (kör riktmärket i själva spelet som en separat fil).
  • Just Cause 2 (Avalanche Studios/Eidos Interactive) - DirectX 10.0, testinställningar - Super High (kör riktmärket i själva spelet i inställningarna).
    Vi tackar Nvidia för att du tillhandahåller den licensierade produkten.

Läsare som är väl insatta i 3D-grafikkort kommer att kunna dra sina egna slutsatser genom att titta på resultaten som presenteras i diagrammen nedan. Och för nybörjare och de som precis har tagit upp frågan om att välja ett grafikkort, kommer vi att göra några förklaringar.

Det är vettigt att bekanta dig med våra korta familjeguider moderna grafikkort och de processorer som de tillverkas på. Det bör noteras driftfrekvenserna, stöd för modern teknik (shaders), såväl som rörledningsarkitekturen.

Låt oss nu titta på testerna.

Vi kommer inte att visa grafikkortets prestationer vid nominellt ökade frekvenser, eftersom produkten låter dig uppnå mycket mer. I vårt fall fungerar den vid frekvenser på 910/1820/4500 MHz, vilket vi kommer att demonstrera.

  1. Unigine Tropics Benchmark

  2. Far Cry 2
    • Alla behörigheter på en sida, ingen AA, ingen AF
    • Alla upplösningar på en sida, AA 4x + AF 16x

  3. Unigine Heaven Benchmark DirectX 11.0
    • Alla behörigheter på en sida, ingen AA, ingen AF
    • Alla upplösningar på en sida, AA 4x + AF 16x

  4. Aliens versus Predator (2010)
    • Alla behörigheter på en sida, ingen AA, ingen AF
    • Alla upplösningar på en sida, AA 4x + AF 16x

  5. Crysis Warhead, Cargo
    • Alla behörigheter på en sida, ingen AA, ingen AF
    • Alla upplösningar på en sida, AA 4x + AF 16x

  6. Formel 1 (2010)
    • Alla behörigheter på en sida, ingen AA, ingen AF
    • Alla upplösningar på en sida, AA 4x + AF 16x

  7. 3DMark 11 grafikmärken
    • Alla behörigheter på en sida, ingen AA, ingen AF
    • Alla upplösningar på en sida, AA 4x + AF 16x

  8. Colin McRae: DiRT2

En överklockares dröm. Recension av ASUS GTX580 DirectCU II

Omedelbart efter de första testerna av GeForce GTX 580 blev det klart att denna accelerator kommer att ta platsen absolut mästare bland enchipslösningar. Förutom klassens bästa prestanda kännetecknas GeForce GTX 580-referensproverna av en relativt cool disposition (naturligtvis för acceleratorer på denna nivå) och ett inte särskilt bullrigt kylsystem, åtminstone jämfört med den tidigare singel- chip flaggskepp - GeForce GTX 480. Naturligtvis skyndade alla tillverkare omedelbart att tillkännage lanseringen av sina produkter baserade på GF110. Och enligt en redan etablerad tradition skilde sig produkterna som presenterades först från varandra endast i lådorna och klistermärkena på kylsystemens höljen. Bara några månader senare började några av leverantörerna ta ut icke-standardiserade lösningar på marknaden, på ett eller annat sätt annorlunda än standarden, till exempel för inte så länge sedan ASUS företag introducerade acceleratorn GTX580 DirectCU II, som nästan omedelbart fick erkännande från entusiaster. I den här artikeln kommer vi att prata om vad som skiljer GTX580 DirectCU II från standarden och varför överklockare älskar den här produkten så mycket.

Om vi ​​betraktar den nya ASUS-produkten ur synvinkeln av frekvensegenskaper, så är GTX580 DirectCU II-acceleratorn inte mycket överlägsen standardversionen. Som standard skiljer sig frekvensen för GTX580 DirectCU II-grafikkärnan från de värden som rekommenderas av NVIDIA med endast 10 MHz. För oerfarna användare indikerar detta en liten, cirka 1,5 %, överlägsenhet hos GTX580 DirectCU II jämfört med standard GTX 580, medan entusiaster inte har någon fördel av sådan överklockning, eftersom de föredrar att uppnå maximal prestanda på egen hand, och som regel använder de mer seriösa kylsystem. Fabriksfrekvensen för GTX580 DirectCU II är dock långt ifrån den viktigaste egenskapen. Låt oss ta en närmare titt på gaspedalen och prata om vad som verkligen skiljer GTX580 DirectCU II från sina konkurrenter. Låt oss börja med extern bekantskap.

ASUS GTX580 DirectCU II-acceleratorn kommer i en stor kartong, designad i enlighet med de traditioner som är karakteristiska för alla ASUS grafikkort baserade på NVIDIA GPU:er. Om du i en datorbutik ser ett svart och grönt paket med en hästkrigare på framsidan, så tittar du nästan säkert på en ASUS grafikaccelerator. Alla de viktigaste fördelarna med GTX580 DirectCU II är noterade både på framsidan och baksidan av förpackningen. Först och främst fokuserar tillverkaren på ett kraftfullare kylsystem och pratar också om fördelarna med att använda högkvalitativt elektroniska komponenter, som arbetar mer effektivt, värmer mindre och är hållbara.

ASUS GTX580 DirectCU II-paketet är inte speciellt rikt, men det kan inte heller kallas fattigt. Allt du behöver till normal drift gaspedalen, - på plats:

  • Skiva med drivrutiner, programvara och elektronisk version Bruksanvisningar;
  • Adapter från DVI till VGA;
  • Flexibel SLI-brygga, vars längd tillåter installation av grafikkort placerade 5 platser från varandra;
  • Strömadapter från ett par 6-stifts PCI-Ex till en 8-stifts PCI-Ex-kontakt.

Vi noterar också att inuti lådan är alla komponenter snyggt arrangerade i separata fack, vilket nästan helt eliminerar risken för skador på gaspedalen under transport. Själva gaspedalen är "klädd" i en antistatisk påse. Låt oss extrahera det.

Darrande. Så här kan du karakterisera känslorna hos en person som möter ASUS GTX580 DirectCU II för första gången. Du kan uppleva liknande känslor när du håller ASUS Mars i dina händer. Designen på kylsystemet och dimensionerna på GTX580 DirectCU II-acceleratorn är verkligen imponerande. Grafikkortet är längre och högre än referensversionen av GeForce GTX 580. Längden på kretskortet på ASUS GTX580 DirectCU II-acceleratorn är cirka 27 cm, som standardversionen av GeForce GTX 580, men pga. massiv kylare är ASUS gaspedalen nästan ett par centimeter längre. Höjden på ASUS GTX580 DirectCU II är 1 cm högre än standarden.

För ASUS strömförsörjning GTX580 DirectCU II kräver ett par 8-stifts PCI-Ex-kontakter, medan den vanliga GTX 580 nöjer sig med en 8-stifts och en 6-stifts kontakter. Denna ersättning ger större ström vid samma spänning än referensacceleratorn GTX 580. Detta tyder i sin tur på att GTX580 DirectCU II är bättre lämpad för extrem överklockning, om du först tar bort skyddet för GPU-spänningskontrollerna och videon. minne, samt säkerställa tillräcklig kylning.

ASUS GTX580 DirectCU II kylsystem är verkligen monumentalt. Vi är redan vana vid det faktum att moderna grafikkort upptar en plats bredvid acceleratorn, men i fallet med GTX580 DirectCU II-kylaren räckte inte detta. Totalt upptar grafikkortet tre platser i systemet, så du måste ta hänsyn till denna faktor innan du köper. På utgångspanelen finns, förutom ventilationsgaller som tjänar till att avleda värme utanför systemenheten, plats för ett par DVI-kontakter, samt fullstora HDMI- och DP-kontakter. En betydande fördel med detta portarrangemang är att det inte finns något behov av att använda adaptrar från Mini-DP/HDMI till fullfjädrade kontakter.

ASUS GTX580 DirectCU II kylsystem monteras helt enkelt: endast fyra skruvar behöver skruvas loss för att ta bort kylaren.

En massiv kylare med tre platser är ansvarig för att ta bort värme från grafikprocessorn och kyla kraftsystemets element och videominneschips. Kylardesignen består av ett par aluminiumradiatorer anslutna till basen via fem kopparvärmerör. Värmerören är i direkt kontakt med GPU:n, vilket bör ha en positiv effekt på hastigheten för värmeöverföringen från GPU:n till kylflänsarna. Ett par 100 mm fläktar monterade på ett metallhölje CO målat med mattsvart färg är ansvariga för att blåsa igenom radiatorerna. baksidan Det tryckta kretskortet är täckt med en metallplatta, vilket främjar en jämnare värmefördelning över kretskortets yta. Plattan tar värme från elementen i kraftsystemet genom en speciell termisk dyna. På framsidan av brädan finns ett annat kylelement - en radiator installerad på kortets strömförsörjningssystem. Värme avlägsnas från denna radiator tack vare luftflöden som skapas av CO-fläktar.

Strömförsörjningssystemet för ASUS GTX580 DirectCU II-grafikprocessorn är gjord enligt en 8-fas design. videominnets strömförsörjning är tvåfasig. Nära PCI-Ex-strömkontakterna finns säkringar som skyddar grafikkortet från strömstörningar. Vid tillverkningen av sina acceleratorer använder ASUS högkvalitativa element, som fått marknadsföringsnamnet Super Alloy Power, eller SAP. Enligt tillverkaren har dessa element längre livslängd och genererar dessutom mindre värme jämfört med konventionella komponenter. Om du förstorar fotot på framsidan av grafikkortet, syns choken märkta SAP tydligt på bilden. För att stabilisera strömförsörjningen av GF110 GPU, beslutade ASUS ingenjörer att använda en NEC TOKIN Proadlizer kondensator.

Kortet har 12 GDDR5 minneschip installerade, vilket ger totalt 1536 MB videominne. Chipsen är tillverkade av Samsung och är märkta K4G10325FE-HC04. Deras åtkomsttid är 0,4 ns och deras nominella frekvens är 1250 MHz (5000 MHz QDR). I vårt fall arbetar minnet med en frekvens på 1000 MHz (4000 MHz QDR). Videominnets bussbredd är 384 bitar.

Nåväl, nu när vi har bekantat oss med funktionerna i ASUS GTX580 DirectCU II, är det dags att gå vidare till praktiska tester. Låt oss se hur effektiva ändringarna som utfördes av ASUS-ingenjörer visade sig vara.

Innan vi presenterar resultaten för din uppmärksamhet, vänligen bekanta dig med listan över testpaket, samt testbänkens konfiguration.

Testa bänkkonfiguration
CPU Intel Core i7-870 @ 4,0 GHz (200x19)
Kylsystem GlacialTech F101 + 2 x 120mm kylare
Moderkort ASUS Maximus III Extreme
Bagge DDR3 Super Talent 2x2 GB @ 1890 MHz @ 9-9-9
kraftenhet IKONIK Vulcan 1200 W
HDD Samsung SpinPoint 750 GB
Ram Cooler Master Test Bench 1.0
operativ system Windows 7 Ultimate x64
Drivrutinversion för AMD-kort 8.84.3Beta2_Radeon_HD6990_Antilles_Win7_Vista_Feb28 + Catalyst App Profiler för Radeon HD 6990
Catalyst 11.4 Alpha för Radeon HD 6970
Drivrutinversion för NVIDIA-kort programvara NVIDIA version 266.58 WHQL för GeForce GTX 580 och ASUS GTX580 DirectCU II
NVIDIA-programvaruversion 267.71 för GeForce GTX 590

Testning utfördes i följande applikationer:

3DMark Vantage Prestanda, Hög, Extrem förinställningar
3DMark 11 Prestanda, extrema förinställningar
Battleforge DX 10 Maximal detalj, 1920x1200/ 1680x1050 ingen AA/AF
Maximal detalj, 1920x1200/1680x1050 4xAA/AF
Colin McRae DiRT 2 DX 11
Crysis v 1.2 x64 DX 10
Just Cause 2 DX 10 Mycket hög detaljrikedom, 1920x1200/ 1680x1050 ingen AA/AF
Mycket hög detaljrikedom, 1920x1200/ 1680x1050 4xAA/AF.
Alien kontra Predator DX 11 Benchmark Mycket hög detaljrikedom, 1920x1200/1680x1050 ingen AA/AF
Mycket hög detaljrikedom, 1920x1200/ 1680x1050 4xAA/AF
FarCry 2 DirectX 10 benchmark Ultradetaljer, 1920x1200/1680x1050 utan AA/AF
Ultradetaljer, 1920x1200/1680x1050 4xAA/AF
Final Fantasy XIV Högt läge, 1920x1200 ingen AA/AF
Mafia II Maximal detalj, 1920x1200/ 1680x1050 ingen AA/AF, NVIDIA-teknik PhysX inaktiverad
Maximal detalj, 1920x1200/1680x1050 ingen 4xAA/16xAF, NVIDIA PhysX-teknik inaktiverad
Metro 2033 DX11 Benchmark Maximal detalj, 1920x1200/1680x1050 ingen AA/AF, NVIDIA PhysX inaktiverad, DOF och tessellation aktiverade
Maximal detalj, 1920x1200/1680x1050 ingen 4xAA/16xAF, NVIDIA PhysX inaktiverad, DOF och tessellation aktiverade
Unigine Heaven 2.0 Maximal detaljrikedom, tessellation i extremt läge, 1920x1200/1680x1050 ingen AA/AF
Maximal detaljrikedom, tessellation i extremt läge, 1920x1200/1680x1050 4xAA/16xAF
Lost Planet 2 Benchmark
HAWX 2 Benchmark DX11, maximal detalj, tessellation aktiverad, 1920x1200/1680x1050 ingen AA/AF
DX11, Maximal detalj, tessellation aktiverad, 1920x1200/1680x1050 4xAA/16xAF
inställningar AMD-drivrutiner Katalysator - Standard
Kantutjämning Applikationsinställningar
Anisotropisk filtrering Applikationsinställningar
Tessellation AMD optimerad
Katalysator A.I. Texturfilterkvalitet Kvalitet, aktivera optimering av ytformat
Vänta på vsync Inaktivera, om inte programmet anger
AA-läge Multiprov
Trippel buffert Inaktivera
NVIDIA-drivrutinsinställningar - Standard
CUDA GPU:er Allt
Anisotropisk filtrering Applikationshantering
Vertikal synk Använd 3D-applikationsinställning
Skuggning för bakgrundsbelysning Av
Maximalt antal förberedda ramar 3
Strömoptimering Bil
Energisparläge Adaptiv
Kantutjämning - gammakorrigering Av
Kantutjämning - läge Applikationskontroll
Trippelbuffring Av
Accelerera flera skärmar Multi-Display Performance Mode
Texturfiltrering - anisotropisk optimering Av
Texturfiltrering - kvalitet Kvalitet
Texturfiltrering - negativ LOD-avvikelse Tillåta
Texturfiltrering - trilinjär optimering

Följande grafikkort deltog i testet:

  • NVIDIA GeForce GTX 580 1536 MB (772/1544/4008)
  • ASUS GTX580 DirectCU II @ 900/1800/4600
  • AMD Radeon HD 6970 (880/5500)
  • AMD Radeon HD 6990 (830/5000)
  • AMD Radeon HD 6990 (880/5000)
  • NVIDIA GeForce GTX 590 (607/1215/3414)

Innan jag visar provresultaten vill jag göra en liten anmärkning. Faktum är att ASUS GTX580 DirectCU II-acceleratorn som standard bara har något högre frekvenser jämfört med referensversionen av GeForce GTX 580, cirka 1,5%. Det är helt logiskt att anta att skillnaden i resultat mellan dessa två grafikkort inte kommer att överstiga samma mängd. Det är därför vi inte testade ASUS GTX580 DirectCU II vid nominella frekvenser, utan fokuserade uteslutande på överklockning, eftersom denna accelerator skapades främst för entusiaster.

När det gäller att testa strömförbrukning och GPU-uppvärmning, här, tvärtom, utförde vi mätningar vid nominella frekvenser så att en potentiell köpare tydligt kan se skillnaden mellan samma indikatorer på GTX580 DirectCU II-acceleratorn och standard GeForce GTX 580.

Som vi sa lite tidigare skapades ASUS GTX580 DirectCU II med entusiaster i åtanke. Och i I detta fall detta är inte en tom fras. Om du tittar på data från det globala överklockarbetyget HWBOT.org kan du se att i nästan alla tester finns de första två eller till och med tre platserna i GeForce GTX 580-kategorin kvar med ASUS GTX580 DirectCU II-acceleratorer. Enligt vår mening är detta mycket betydelsefullt. Naturligtvis, för att uppnå sådana resultat, gjorde överklockare voltmods och använde flytande kväve för att kyla acceleratorerna, men när målet med överklockning är att komma in i topp tre är detta tillvägagångssätt för överklockning vanligt.

Det finns också entusiaster i vårt land som har provat ASUS GTX580 DirectCU II i aktion. För inte så länge sedan ägde en presentation av moderkortet ASUS Rampage III Extreme Black Edition rum i Moskva. Den nya produkten presenterades av ledande ASUS-ingenjörer, och efter evenemanget ägde en kväveshow rum, till vilken ett av de bästa överklockningsteamen i CIS - Team MXS - var inbjuden. Under showen testade Team MXS-representanter inte bara nya moderkort ASUS, men även ASUS GTX580 DirectCU II grafikkort

Trots tidsbrist lyckades vi överklocka GTX580 DirectCU II-acceleratorn bra. Bedöm själv, av en av överklockningsspecialisterna, S_A_V, godkändes 3DMark 2003-testet med en frekvensformel på 1315/2630/4600. Imponerande. Men de bästa exemplaren av ASUS DirectCU II kunde överklockas till högre frekvenser.

Extremt är naturligtvis bra, men det är dags att återvända från himlen till jorden. Låt oss kolla vad ASUS GTX580 DirectCU II-acceleratorn med ett standardkylsystem kan. För överklockning använde vi MSI Afterburner-verktyget, som låter dig ändra inte bara klockhastigheten på grafikkärnan och minnet, utan även spänningen på GPU:n. Som ett resultat av våra manipulationer klarade grafikkortet enkelt alla tester med en frekvensformel på 900/1800/4600 MHz för grafikkärnan, shader-domänen respektive videominnet för detta var vi tvungna att öka spänningen på GPU:n till 1,1 V. Enligt vår mening är detta ett mycket värdigt resultat.

Temperatur och strömförbrukning

Resultaten talar för sig själva. Uppenbarligen hade användningen av DirectCU II-kylsystemet den bästa effekten på GPU-uppvärmningen. Både i vilotid och i spelläge ASUS GTX580 DirectCU II-acceleratorn värms upp mindre än andra testdeltagare. När det gäller ljudnivån, enligt våra subjektiva uppskattningar, visade den sig vara tillräckligt låg för att gaspedalen inte skilde sig från det allmänna bullret från kylsystemen i testbänkens komponenter. För ett grafikkort av denna klass är detta ett mer än anständigt resultat.

När det gäller strömförbrukningen för systemet med den installerade ASUS GTX580 DirectCU II-acceleratorn är detta också i perfekt ordning. Både vid tomgång och under belastning visade den nya ASUS-produkten bättre resultat i jämförelse med referensversionen av GeForce GTX 580. I vila var förstärkningen cirka 20 W och under belastning - cirka 10 W. Sådana resultat uppnåddes tack vare omdesignen av acceleratorkraftsystemet och användningen av SAP-komponenter.

Prestanda

Som vi redan har sett är prestandanivån som GeForce GTX 580 visar i de flesta fall ouppnåelig för AMD:s flaggskepp Radeon HD 6970 med ett chip, och i fallet med ASUS-acceleratorn är situationen oförändrad. Huvudfrågan är hur väl den överklockade GTX580 DirectCU II-acceleratorn kommer att närma sig mycket dyrare dual-chip-lösningar när det gäller prestanda. Vi får se.

I 3DMark Vantage har skalbarheten av resultat från att installera ett andra grafikkort eller lägga till ytterligare en GPU alltid implementerats ganska bra av både AMD och NVIDIA. I det här fallet är allt sig likt. Bland enkelchipslösningar är den överklockade ASUS GTX580 DirectCU II-acceleratorn oöverträffad, men den svagaste dual-chipacceleratorn är fortfarande ganska långt borta.

Efter att NVIDIA fixat en bugg i sina drivrutiner fungerade 3DMark 11 äntligen SLI-teknik, så även här hamnade den överklockade GTX580 DirectCU II-acceleratorn från ASUS någonstans mitt emellan de snabbaste enkelchips- och dualchiplösningarna.

Ganska naturliga resultat. Dual-chip flaggskepp är i täten, följt av den överklockade ASUS GTX580 DirectCU II acceleratorn.

I DiRT-spel 2 finns det en generell överlägsenhet hos NVIDIA-produkter, vilket gör att ASUS GTX580 DirectCU II, efter överklockning, kan komma ganska nära Radeon HD 6990, som, vi minns, har två GPU:er ombord.

Men i Crysis är situationen lite annorlunda. Här, bland enchipslösningar, går förstaplatsen till Radeon HD 6970, som även utan överklockning lyckas överträffa det överklockade GTX580 DirectCU II grafikkortet något. För att vara ärlig verkar detta resultat väldigt konstigt, speciellt med tanke på att ökningen av resultat från överklockning av ASUS GTX580 DirectCU II är cirka 6 %, medan acceleratorfrekvenserna ökar med cirka 15 %. Kanske är flaskhalsen i det här fallet processorn?

Far Cry 2 har en övergripande fördel NVIDIA-lösningar gör sig påmind igen. Efter överklockning kan grafikkortet ASUS GTX580 DirectCU II närma sig Radeon HD 6990 eller till och med köra om det, dock endast i lätta lägen, utan kantutjämning och anisotropisk filtrering.

I Just Cause 2 skiljer sig bilden väldigt mycket från tidigare spel. Det finns inga fördelar med lösningar baserade på NVIDIA GPU:s AMD-produkter. Två fakta är värda att notera här. För det första visar sig den överklockade ASUS GTX580 DirectCU II-acceleratorn vara snabbare än GeForce GTX 580 (vilket inte är förvånande) och något långsammare än Radeon HD 6970. För det andra, otillräcklig optimering av drivrutiner för spelet Just Cause 2 när SLI-tekniken är aktiverad gör att GTX580 DirectCU II i vissa fall kan komma ganska nära GeForce GTX 590 när det gäller prestanda, naturligtvis först efter överklockning.

I HAWX 2 hjälpte överklockning av ASUS GTX580 DirectCU II denna accelerator att slå nästan alla testdeltagare, med undantag för GeForce GTX 590.

Långt ifrån den bästa skalbarheten av resultat vid aktivering av SLI/CrossFireX ledde till att i Mafia II kunde ASUS GTX580 DirectCU II-acceleratorn, efter överklockning i nästan alla lägen, besegra Radeon HD 6990.

Våra tester visade att alla modifieringar som ASUS-ingenjörer gjorde när de utvecklade sin version av GeForce GTX 580 verkligen gynnade saken. Bedöm själv: ett kraftfullt och tyst kylsystem, lägre strömförbrukning och utmärkt överklockningspotential - allt detta gör att du enkelt kan skilja ASUS GTX580 DirectCU II från sina konkurrenter. Den nya produkten är bokstavligen skapad för överklockning, vilket, att döma av de data vi fick, gör att vi kan förbättra acceleratorns prestanda ganska bra, vilket i vissa fall gör att den fungerar ännu snabbare än flaggskeppskort med dubbla chip. Vissa, trots alla de uppenbara fördelarna med ASUS GTX580 DirectCU II, kan bli upprörda av kylsystemets gigantiska storlek, men det verkar för oss att för en produkt av denna klass och kategorin människor som denna accelerator är designad för , storleken på kylsystemet spelar en sekundär roll.

Nu är det viktigaste priset. Återförsäljningspriset för GTX580 DirectCU II i Moskvas detaljhandel, i skrivande stund, är cirka 16 800 rubel, medan vanliga versioner av GeForce GTX 580 kostar cirka 15 300 rubel. Skillnaden i kostnad är cirka 1 500 rubel, vilket enligt vår mening inte är så mycket, med tanke på alla fördelar med ASUS GTX580 DirectCU II.

Kapitel: ,
Källa: 3D Nyheter |

Omedelbart efter de första testerna blev det klart att denna accelerator kommer att ta platsen som den absoluta mästaren bland enchipslösningar. Förutom klassens bästa prestanda, kännetecknas referensproverna av en relativt cool disposition (naturligtvis för acceleratorer på denna nivå) och ett inte särskilt bullrigt kylsystem, åtminstone jämfört med det tidigare flaggskeppet med en chip - GTX 480. Naturligtvis skyndade alla tillverkare omedelbart att rapportera om lanseringen av deras produkter baserade på GF110. Och enligt en redan etablerad tradition skilde sig produkterna som presenterades först från varandra endast i lådorna och klistermärkena på kylsystemens höljen. Bara några månader senare började några av leverantörerna ta med icke-standardiserade lösningar på marknaden, på ett eller annat sätt annorlunda än standarden, till exempel, för inte så länge sedan introducerade företaget DirectCU II-acceleratorn, som nästan omedelbart fick ett erkännande från entusiaster. I den här artikeln kommer vi att prata om vad som skiljer DirectCU II från standarden och varför denna produkt är så älskad av överklockare.

Om vi ​​betraktar den nya produkten ur synvinkel frekvensegenskaper, här är DirectCU II-acceleratorn inte mycket överlägsen standardversionen. Som standard skiljer sig DirectCU II-grafikkärnfrekvensen från de värden som rekommenderas av NVIDIA med endast 10 MHz. För oerfarna användare indikerar detta en liten, cirka 1,5 %, överlägsenhet hos DirectCU II jämfört med standard, medan entusiaster inte har någon fördel av sådan överklockning, eftersom de föredrar att uppnå maximal prestanda på egen hand, och dessutom, som regel, de använda mer seriösa systemkylning. Fabriksfrekvensen DirectCU II är dock långt ifrån den högsta viktig egenskap. Låt oss ta en närmare titt på gaspedalen och prata om vad som verkligen skiljer DirectCU II från sina konkurrenter. Låt oss börja med extern bekantskap.

Kortet har 12 GDDR5 minneschip installerade, vilket ger totalt 1536 MB videominne. Chipsen är tillverkade av Samsung och är märkta K4G10325FE-HC04. Deras åtkomsttid är 0,4 ns och deras nominella frekvens är 1250 MHz (5000 MHz QDR). I vårt fall arbetar minnet med en frekvens på 1000 MHz (4000 MHz QDR). Videominnets bussbredd är 384 bitar.

Nåväl, nu när vi har blivit bekanta med funktionerna i DirectCU II är det dags att gå vidare till praktiska tester. Låt oss se hur effektiva de ändringar som utfördes av ingenjörerna visade sig vara.

Innan vi presenterar resultaten för din uppmärksamhet, vänligen bekanta dig med listan över testpaket, samt testbänkens konfiguration.

Testa bänkkonfiguration
CPU Intel Core i7-870 @ 4,0 GHz (200×19)
Kylsystem GlacialTech F101 + 2 x 120mm kylare
Moderkort Maximus III Extreme
Bagge DDR3 Super Talent 2×2 GB @ 1890 MHz @ 9-9-9
kraftenhet IKONIK Vulcan 1200 W
HDD Samsung SpinPoint 750 GB
Ram Cooler Master Test Bench 1.0
operativ system Windows 7 Ultimate x64
Drivrutinversion för AMD-kort 8.84.3Beta2_Radeon_HD6990_Antilles_Win7_Vista_Feb28 + Catalyst App Profiler för Radeon HD 6990
Catalyst 11.4 Alpha för Radeon HD6970
Drivrutinversion för NVIDIA-kort NVIDIA-programvaruversion 266.58 WHQL för och DirectCU II
NVIDIA-programvaruversion 267.71 för GTX590

Testning utfördes i följande applikationer:

3DMark Vantage Prestanda, Hög, Extrem förinställningar
3DMark 11 Prestanda, extrema förinställningar
Battleforge DX 10 Maximal detalj, 1920×1200/ 1680×1050 ingen AA/AF
Maximal detalj, 1920×1200/ 1680×1050 4xAA/AF
Colin McRae DiRT 2 DX 11
Crysis v 1.2 x64 DX 10
Just Cause 2 DX 10 Mycket hög detaljrikedom, 1920×1200/ 1680×1050 ingen AA/AF
Mycket hög detaljrikedom, 1920x1200/ 1680x1050 4xAA/AF.
Alien kontra Predator DX 11 Benchmark Mycket hög detaljrikedom, 1920×1200/ 1680×1050 ingen AA/AF
Mycket hög detaljrikedom, 1920x1200/ 1680x1050 4xAA/AF
FarCry 2 DirectX 10 benchmark Ultradetaljer, 1920×1200/1680×1050 ingen AA/AF
Ultradetaljer, 1920x1200/1680x1050 4xAA/AF
Final Fantasy XIV Högt läge, 1920×1200 ingen AA/AF
Mafia II Maximal detalj, 1920×1200/ 1680×1050 ingen AA/AF, NVIDIA PhysX-teknik inaktiverad
Maximal detalj, 1920×1200/ 1680×1050 ingen 4xAA/16xAF, NVIDIA PhysX-teknik inaktiverad
Metro 2033 DX11 Benchmark Maximal detaljrikedom, 1920×1200/1680×1050 ingen AA/AF, NVIDIA PhysX inaktiverad, DOF och tessellation aktiverade
Maximal detalj, 1920×1200/ 1680×1050 ingen 4xAA/16xAF, NVIDIA PhysX inaktiverad, DOF och tessellation aktiverade
Unigine Heaven 2.0 Maximal detaljrikedom, tessellation i extremt läge, 1920×1200/1680×1050 ingen AA/AF
Maximal detaljrikedom, tessellation i extremt läge, 1920x1200/1680x1050 4xAA/16xAF
Lost Planet 2 Benchmark
HAWX 2 Benchmark DX11, Maximal detalj, tessellation aktiverad, 1920×1200/1680×1050 ingen AA/AF
DX11, Maximal detalj, tessellation aktiverad, 1920x1200/1680x1050 4xAA/16xAF
Drivrutinsinställningar AMD Catalyst- Standard
Kantutjämning Applikationsinställningar
Anisotropisk filtrering Applikationsinställningar
Tessellation AMD optimerad
Katalysator A.I. Texturfilterkvalitet Kvalitet, aktivera optimering av ytformat
Vänta på vsync Inaktivera, om inte programmet anger
AA-läge Multiprov
Trippel buffert Inaktivera
NVIDIA-drivrutinsinställningar - Standard
CUDA GPU:er Allt
Anisotropisk filtrering Applikationshantering
Vertikal synk Använd 3D-applikationsinställning
Skuggning för bakgrundsbelysning Av
Maximalt antal förberedda ramar 3
Strömoptimering Bil
Energisparläge Adaptiv
Kantutjämning - gammakorrigering Av
Kantutjämning - läge Applikationskontroll
Trippelbuffring Av
Accelerera flera skärmar Multi-Display Performance Mode
Texturfiltrering - anisotropisk optimering Av
Texturfiltrering - kvalitet Kvalitet
Texturfiltrering - negativ LOD-avvikelse Tillåta
Texturfiltrering - trilinjär optimering

Följande grafikkort deltog i testet:

  • NVIDIA 1536 MB (772/1544/4008)
  • DirectCU II @ 900/1800/4600
  • AMD Radeon HD6970 (880/5500)
  • AMD Radeon HD 6990 (830/5000)
  • AMD Radeon HD 6990 (880/5000)
  • NVIDIA GTX590 (607/1215/3414)

Innan jag visar provresultaten vill jag göra en liten anmärkning. Faktum är att DirectCU II-acceleratorn som standard bara har något högre frekvenser jämfört med referensversionen, cirka 1,5 %. Det är helt logiskt att anta att skillnaden i resultat mellan dessa två grafikkort inte kommer att överstiga samma mängd. Det är därför vi inte testade DirectCU II vid nominella frekvenser, utan fokuserade uteslutande på överklockning, eftersom denna accelerator skapades främst för entusiaster.

När det gäller att testa strömförbrukning och GPU-uppvärmning, här, tvärtom, utförde vi mätningar vid nominella frekvenser så att en potentiell köpare tydligt kan se skillnaden mellan samma indikatorer för DirectCU II-acceleratorn och standard GTX 580.

Som vi sa lite tidigare skapades DirectCU II med entusiaster i åtanke. Och i det här fallet är detta inte en tom fras. Om du tittar på data från det globala överklockarbetyget HWBOT.org kan du se att i nästan alla tester finns de första två eller till och med tre platserna i kategorin kvar med DirectCU II-acceleratorer. Enligt vår mening är detta mycket betydelsefullt. Naturligtvis, för att uppnå sådana resultat, gjorde överklockare voltmods och använde dem ett flytande kväve för att kyla acceleratorer, men när målet med överklockning är att komma in i topp tre är det här förhållningssättet till överklockning vanligt.

Det finns även entusiaster i vårt land som har provat DirectCU II i aktion. För inte så länge sedan ägde en presentation av Rampage III Extreme Black Edition-moderkortet rum i Moskva. Den nya produkten presenterades av ledande ingenjörer och efter evenemanget ägde en kväveshow rum, till vilken ett av de bästa överklockningsteamen i CIS, Team MXS, var inbjuden. Under showen testade Team MXS-representanter inte bara nya moderkort utan även DirectCU II-grafikkort

Trots tidsbrist lyckades vi överklocka DirectCU II-acceleratorn bra. Bedöm själv, av en av överklockningsspecialisterna, S_A_V, godkändes 3DMark 2003-testet med en frekvensformel på 1315/2630/4600. Imponerande. Men de bästa exemplen på DirectCU II kunde överklockas till högre frekvenser.

Extremt är naturligtvis bra, men det är dags att återvända från himlen till jorden. Låt oss kolla vad DirectCU II-acceleratorn med ett standardkylsystem kan. För överklockning använde vi MSI Afterburner-verktyget, som låter dig ändra inte bara klockhastigheten på grafikkärnan och minnet, utan även spänningen på GPU:n. Som ett resultat av våra manipulationer klarade grafikkortet enkelt alla tester med en frekvensformel på 900/1800/4600 MHz för grafikkärnan, shader-domänen respektive videominnet för detta var vi tvungna att öka spänningen på GPU:n till 1,1 V. Enligt vår mening är detta ett mycket värdigt resultat.

Temperatur och strömförbrukning

Resultaten talar för sig själva. Uppenbarligen hade användningen av DirectCU II-kylsystemet den bästa effekten på GPU-uppvärmningen. Både i viloläge och i spelläge värmer DirectCU II-acceleratorn mindre än andra testdeltagare. När det gäller ljudnivån, enligt våra subjektiva uppskattningar, visade den sig vara tillräckligt låg för att gaspedalen inte skilde sig från det allmänna bullret från kylsystemen i testbänkens komponenter. För ett grafikkort av denna klass är detta ett mer än anständigt resultat.

När det gäller strömförbrukningen för ett system med DirectCU II-acceleratorn installerad, är detta också i perfekt ordning. Både på tomgång och under belastning visade den nya produkten bättre resultat jämfört med referensversionen. I vila var förstärkningen cirka 20 W, och under belastning - cirka 10 W. Sådana resultat uppnåddes tack vare omdesignen av acceleratorkraftsystemet och användningen av SAP-komponenter.

Prestanda

Som vi redan har sett är prestandanivån som visas av , i de flesta fall ouppnåelig för AMD:s flaggskepp med en chip Radeon HD6970, och när det gäller acceleratorn är situationen oförändrad. Huvudfrågan är hur väl den överklockade DirectCU II-acceleratorn kommer att närma sig betydligt dyrare dual-chip-lösningar när det gäller prestanda. Vi får se.

I 3DMark Vantage har skalbarheten av resultat från att installera ett andra grafikkort eller lägga till ytterligare en GPU alltid implementerats ganska bra av både AMD och NVIDIA. I det här fallet är allt fortfarande sig likt. Bland enkelchipslösningar är den överklockade DirectCU II-acceleratorn oöverträffad, men den svagaste dual-chipacceleratorn är fortfarande ganska långt borta.

Efter att NVIDIA fixat en bugg i sina drivrutiner fungerade SLI-tekniken äntligen i 3DMark 11, så även här hamnade den överklockade DirectCU II-acceleratorn någonstans mitt emellan de snabbaste enkelchips- och dualchiplösningarna.

Ganska naturliga resultat. Dual-chip flaggskepp är i täten, följt av den överklockade DirectCU II-acceleratorn.

I DiRT 2-spelet observeras den övergripande överlägsenheten hos NVIDIA-produkter, vilket gör att DirectCU II, efter överklockning, kan komma ganska nära Radeon HD 6990, som, vi minns, har två GPU:er ombord.

Men i Crysis är situationen lite annorlunda. Här, bland enchipslösningar, går förstaplatsen till Radeon HD6970, som även utan överklockning lyckas överträffa det överklockade DirectCU II-grafikkortet något. För att vara ärlig verkar detta resultat väldigt konstigt, särskilt med tanke på att ökningen av resultatet är överklockning







2024 gtavrl.ru.