Rysiu Ver. 1.09B W poniższym ebooku zostały wykorzystane materiały z serwisu internetowego oraz szeroko dostępne dokumenty udostępnione na podstawie GNU Free Documentation License. Autor nie czerpie jakichkolwiek korzyści materialnych w związku z rozprowadzaniem poradnika, oraz nie jest odpowiedzialny za szkody do jakich może dojść z powodu nieprawidłowego obsługiwania się oprogramowaniem lub sprzętem. - 1 -
Poradnik dotyczący kart graficznych i wszystkich rzeczy z nimi związanymi. Dokument z 2006 roku, autor: "Rysiu" http://forum.pclab.pl/user/35414-RYSIU/
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Rysiu
Ver. 1.09B
W poniższym ebooku zostały wykorzystane materiały z serwisu internetowego
oraz szeroko dostępne dokumenty udostępnione na podstawie GNU Free Documentation License.
Autor nie czerpie jakichkolwiek korzyści materialnych w związku z rozprowadzaniem poradnika, oraz nie
jest odpowiedzialny za szkody do jakich może dojść z powodu nieprawidłowego obsługiwania się
Spis treści:1. Historia kart graficznych.................................................................................................................. 6
1.1. Kalendarium najważniejszych wydarzeń..................................................................................61.2. W 1981 IBM............................................................................................................................. 8
2. Czym jest karta graficzna............................................................................................................... 162.1. Definicja..................................................................................................................................162.2. Budowa................................................................................................................................... 16
2.2.1. Pamięć............................................................................................................................. 172.2.2. GPU - Graphics Processing Unit.................................................................................... 192.2.3. Porty................................................................................................................................ 192.2.4. Śledź wraz z wejściami/wyjściami ................................................................................ 21
3.4. HDR - High Dynamic Range .................................................................................................264. Instalacja oraz możliwości sterowników........................................................................................27
4.1. nVidia - ForceWare................................................................................................................ 274.2. ATI - Catalyst......................................................................................................................... 334.2. Omegi......................................................................................................................................45
5. ABC własnych komponentów........................................................................................................515.1. Everest.................................................................................................................................... 51
6. Podkręcanie.................................................................................................................................... 596.1. PowerStrip.............................................................................................................................. 596.2. RivaTuner............................................................................................................................... 666.3. Coolbits...................................................................................................................................726.3. Czy warto z tym wszystkim się bawić?.................................................................................. 79
7. Modowanie..................................................................................................................................... 817.1. Zmiana BIOSu karty graficznej..............................................................................................81
8.4. ORB...................................................................................................................................... 1199. Pomiar ilości FPS w środowisku 3D............................................................................................ 12510. Tryby współbierzności............................................................................................................... 130
11. Specyfikacje GPU kart graficznych........................................................................................... 13411.1. Co i jak................................................................................................................................13411.2. ATI......................................................................................................................................135
„Nigdy nie przestanie mnie zdumiewać, jak długą drogę pokonały komputery PC. Ale jeszcze bardziej zdumiewa mnie to,
że wciąż jesteśmy dopiero na początku ich rewolucji.”
Bill Gates
Nigdy nie mogłem zebrać się do napisania tak obszernego poradnika i co tu pisać - uwzględnienie wszystkich aspektów dotyczących tej tematyki wydaje mi się po dzień
dzisiejszy niemożliwe. Na poniższych stronach zaprezentowałem tylko wybraną część wątków, które nie stanowią nawet promila całkowitej ilości informacji,
ulegających zmianie nawet z dnia na dzień.
Sam jednak nie sądziłem, że coś będzie w stanie zmusić mnie do takiego wysiłku. Jak się jednak okazuje wszystko jest dla ludzi i zawsze są dwie strony medalu, a każde
najbardziej negatywne zjawisko można wykorzystać w przeciwstawny wręcz sposób. Tak właśnie powstał niniejszy poradnik.
Duża część poniższego tekstu początkowo znajdowała się na forum PcLab.pl. Można tam znaleźć wszystkie treści do dnia dzisiejszego i będą one aktualizowane
tak często jak tylko czas na to mi pozwoli.
Wszystkie materiały zaprezentowane w poniższych działach można znaleźć pod adresem: ftp://ebooks.hopto.org/symfonia3d oraz na innych serwerach do których
linki podałem w odpowiednich miejscach w ebooku. Podstawowe informacje można także znaleźć na stronie www.symfonia3d.xt.pl.
Na koniec chciałbym gorąco podziękować wszystkim , którzy udzielili mi wsparcia podczas opracowywania treści (kolejność losowa):
Data WydarzenieSierpień 1981 IBM MDA (Monochrome Display Adapter) – pierwsza karta (tryb tekstowy
25 wierszy x 80 znaków)Październik 1981 CGA (Color Graphics Adapter) – pierwsza czterokolorowa karta graficzna
Sierpień 1982 HGC (Hercules Graphics Controller) – standard dla PC (720x348 pikseli)Sierpień 1984 EGA (Enhanced Graphics Adapter)
Magistrala ISA - 15,9 MB/sSierpień 1985 Powstaje firma ATIKwiecień 1987 VGA (Video Graphics Array) Kwiecień 1988 Powstaje pierwszy akcelerator 2D - IBM 8514/A Kwiecień 1989 Powstaje VESA (Video Electronics Standards Association)
Powstaje S3 Czerwiec 1992 Magistrala VESA Local Bus
Magistrala PCI Styczeń 1993 Powstaje nVidia
Grudzień 1994 Powstaje 3dfxPremiera pierwszego akceleratora 3D - Matrox MGA-2064W
Maj 1995 Powstaje NV1 – pierwszy układ nVidii, oraz akcelerator 3D do gierPaździernik 1995 S3 ViRGE – tani akcelerator 3D
Listopad 1995 Microsoft oficjalnie wprowadza DirectX 1.0 Pierwszy akcelerator 3D od ATI - ATI Rage3D
Lipiec 1996 DirectX 3.0 Sierpień 1996 Premiera 3dfx Voodoo Kwiecień 1997 Wprowadzenie na rynek magistrali AGP
Nvidia Riva 128 – pierwszy 128-bitowego akceleratora 3D Październik 1997 DirectX 5.0
Karty 3dfx działające w trybie SLI czyli Voodoo 2 S3 Trio3D
Luty 1998 Pierwsza karta graficzna Intela nazwana i740Marzec 1998 Nvidia RivaTNT
Kwiecień 1998 Matrox G100/G200 Maj 1998 S3 Savage 3D
Październik 2005 ATI Radeon X1800 Lipiec 2006 AMD przejmuje ATI
Listopad 2006 Premiera GeForce 8800
- 7 -
1.2. W 1981 IBM...
W 1981 IBM razem z premierą komputera 5150 zaprezentowało pierwszy układ graficzny, który nazwano MDA - Monochrome Display Adapter. Chip ten potrafił generować 25 wierszy tekstu po 80 znaków każdy i był przystosowany do komunikacją z resztą komputera za pośrednictwem ośmio-bitowej szyny ISA. Nie posiadał on jednak możliwości pracy w trybie graficznym, co było istotną wadą tego układu. Jednak krótko po premierze, IBM przedstawiło nową udoskonaloną wersję tego produktu wspierającą standard CGA - Color Graphics Adapter.
Nowy MDA oferował dwa tryby pracy:● rozdzielczość 620x400 / 2 kolory● rozdzielczość 320x200 / 4 kolory
Rok później firma Hercules zaprezentowała nowy standard HGC - Hercules Graphics Controller, który pozwolił na pracę w rozdzielczości 720x348 przy dwóch kolorach. HGC bardzo dobrze przyjęły się na rynku i szybko zostały uznane za standard, czego nie byli w stanie zmienić nawet IBM wprowadając karty EGA. Pomimo tego, że tego typu układy były w stanie generować obaraz aż 16 kolorowy i posiadały wsparcie MDA/CGA wymagały specjalistycznego, a co za tym idzie drogiego monitora.
Rok 1985 kojarzy się głównie z założeniem przez K.Y. Ho, Benny Lau i Lee Lau firmy Array Technology Inc – dzisiejsze ATI.
Kwiecień 1987 przyniósł nowy standard nazwany VGA - Video Graphics Array, który był zgodny ze wszystkimi starszymi kartami IBM.
1988 rok zaowocował pojawieniem się pierwszego akceleratora 2D, który w odróżnieniu od swoich poprzedników (buforów ramek) wspierał sprzętowe wspomaganie rysowania ramek. Nazwano go IBM 8514/A. W latach kolejnych doszło do pościgu różnych producentów za zwiększaniem rozdzielczości, przez co powstało wiele niekompatybilnych ze sobą standardów, określonych skrótem SVGA – Super VGA. Z powodu ogromnego zmieszania na rynku w kwietniu 1989 powołano do życia nową organizację VESA (Video Electronics Standards Association) mającą na celu kontrolę wszystkich standardów pracy kart graficznych i monitorów. Światło dzienne zobaczyło wiele nowych układów wspierających grafikę 2D. Początkowo w tej roli królowała firma S3 wraz ze swoimi chipami z serii Vision 868/Vision 968. Nie można jednak zapomnieć o konkurencji - należy tutaj wymienić układy ATI Mach32 oraz Mach64.
Mach32 Mach64
- 8 -
Pierwszą kartę graficzną umożliwiającą pracę w trybie 3D zaprezentowała w grudniu 1994 niepozorna na dzień dzisiejszy firma Matrox. Najnowszy układ nosił nazwę Matrox MGA-2064W i posiadał wiele innowacji m. in. nakładanie tekstur czy cieniowanie brył.
Kolejnym układem był NV1. Jak sama nazwa wskazuje był to pierwszy produkt firmy nVidia, która powstała w 1993. Do premiery chipu doszło w 1995 roku, jednak ze względu na swoją bardzo wysoką cenę nie podbił rynku.
NV1 na karcie Edge3D.
Pomimo wysokich cen NV1, przeciętni użytkownicy mogli cieszyć się środowiskiem 3D jeszcze w 1995 roku dzięki S3 ViRGE oraz ATI Rage 3D. Problemów jednak nie udało się pozbyć i każda z powyższych kart posiadała własny interfejs, przez co dane gry działały tylko i wyłącznie na danej karcie.
S3 ViRGE
W tym momencie problemom postanowił zaradzić Microsoft wprowadzając nowy moduł Direct3D do swojego pakietu DirectX. Od tego momentu najnowsze oprogramowanie działało na wszystkich kartach graficznych.
W 1996 roku przebojem wszedł na rynek układ 3dfx – Voodoo. Był w stanie generować dwukrotnie szybciej od swoich konkurentów. Chip ten jednak mógł prawidłowo pracować w parze z inną kartą graficzną z którą kontaktował się za pomocą specjalnego kabla.
- 9 -
3dfx Voodoo
Początkowo wyróżniająca się konstrukcja Voodoo była zaletą, jednak z czasem gdy inni producenci opanowali integrację akceleratorów 2 i 3D, mało kto chciał już dokupywać oddzielną kartę wspomagającą wyświetlanie grafiki.
3dfx zdecydowało się na wydanie Voodoo Banshee, które było połączeniem Voodoo 2 ze standardową kartą graficzną i nie wymagało do pracy jakichkolwiek dodatkowych układów.
Voodoo Banshee
Upadku firmy 3dfx można jednak upatrywać się nie tylko w początkowej polityce firmy – pierwszych układach Voodoo pełniących rolę kart wspomagających ale też indywidualnym interfejsem Glide, który nie zyskał wielkiej popularności przez brak kompatybiloności zarówno z OpenGL jak i DirectX. Gwoździem do trumny okazały się kolejne układy, które były zawsze krok za konkurencją. Po ogłoszeniu upadłości przez 3dfx w 2000 roku nVidia postanowiła wykupić tą firmę.
Voodoo 5500
- 10 -
W 1997 roku nowe konstrukcje przedstawiła Zarówno nVidia jak i ATI. Tego pierwszego producenta reprezentowała Riva128, której przeciwnikiem był 3DRage Pro. W tych latach do producentów chipów graficznych dołączyły także kolejne firmy - 3Dlabs i Intel.
Swoje nowe produkty zaprezentowało także S3 – Trio3D oraz Savage 3D, oraz Matrox - G100 i G200. Rok 1998 był jednak zwieńczeniem skukcesów nVidii, które były widoczne pod postacią królujących na rynku układów Riva128 ZX i Riva TNT.
Riva128 ZX
W sierpniu 1999 roku doszło do premiery rewolucyjnego układu GeForce 256. Nowy chip potrafił wyręczyć procesor z wielu obliczeń dotyczących geometrii oraz oświetlenia sceny – te udogodnienie nazwano T&L (Transform and Lighting) i uwzględniono je w kolejnej już wersji DirectX – 7.0.
GeForce 256
T&L przyczyniło się do sprowadzenia wielu firm na skraj bankructwa. Wiele układów nie było w stanie poprawnie generować obiektów. Na rynku pozostały tylko dwie liczące się firmy – nVidia z wcześniej wspomnianym GeForce 256 oraz ATI z późniejszym Radeonem 256.
Radeon 256
- 11 -
Do premiery nowych kart nVidii NV11 i NV 15 doszło w marcu 2005 roku. Pierwszemu z nich nadano rynkową nazwę GeForce2 MX i był to układ kierowany na niższe półki, natomiast drugi GeForce2 GTS był nowym flagowym układem producenta.
GeForce 2 GTS
Pół roku później zaprezentowano GeForce 2 Ti, będącą szybszą odmianą wersji GTS.
Listopad 2000 to premiera DirectX 8.0, w który po raz pierwszy wbudowano moduły Pixel i Vertex Shader. Pierwszą kartą graficzną posiadającą pełne wsparcie dla DirectX 8.0 był GeForce 3, którego premiera miała miejsce w 2001 roku. Wyrób nVidii jako pierwszy otrzymał miano pełnowartościowego GPU (Graphics Processing Unit). ATI zaprezentowało swojego Radeona 8500, który oczywiście był także zgodny z najnowszysmi bibliotekami. Dzięki technologi TrueForm oraz wielu innym udogodnieniom generowania obrazu karty ATI okazywały się niejednokrotnie szybsze od swoich odpowiedników konkurencji.
GeForce 3Ti Radeon 8500
W lutym 2002 na półkach sklepowych ukazały się pierwsze układy GeForce 4 Ti (nazwa kodowa NV25). Nie wprowadzono tutaj szczególnych zmian w odniesieniu do poprzednika – zmianie uległa częstotliwość pracy układów a wsparcie ciągle pozostało dla DirectX 8.1. Jednakże NV25 bardzo dobrze przyjęły się na rynku. Pojawiły się także układy GeForce 4 MX, lecz bliżej im było do GeForce 2 MX niż 4 Ti
Jednak konkurencja nie spała i jeszcze w lutym tego samego roku zaprezentowała całkowicie innowacyjny chip R300 czyli Radeon 9700. Posiadał on wsparcie dla jeszcze nie zaprezentowanego DirectX 9.0 (premiera dopiero w grudniu). Dzięki zastosowaniu 256-bitowej magistrali pamięci oraz 8 potoków, wręcz nokautował konkurencyjne układy nVidii.
- 12 -
GeForce 4 Ti 4600 Radeon 9700
W pośpiechu nVidia postanowiła jak najszybciej zaprezentować GeForce FX, który miał być odpowiedzią na R300. Jednak premiera jeszcze przed końcem 2002 roku dobrze nie posłużyła, ponieważ zaprezentowano kompletnie nieudany chip, który nie dość, że nie był dość szybki to jeszcze wydzielał masę ciepła przez co wymagał dobrego i hałaśliwego chłodzenia.
GeForce FX 5800
Drobne zmiany wprowadzone w nowym FX 5900 jednak praktycznie nie zmieniły pozycji nVidii za ATI. O ile w DirectX 8 karty były porównywalne to w nowym DirectX 9, szala przechyliła się
na korzyść Radeona 9800 – następcy 9700.
GeForce 5900 Ultra Radeon 9800 Pro
Sytuacja na rynku uległa zmianie dopiero w kwietniu 2004, gdy nVidia zaprezentowała bardzo udany GeForce 6800. Układ ten posiadał pełne wsparcie dla DirectX 9 (Shadery w wersji 3.0). Karty te zaprezentowano także na nowym, szybszym złączu PCI-E x16. Nowy port charakteryzował się dwukrotnie większą przepustowością od starego AGP x8, oraz możliwością montażu na płycie kilku takich slotów, co umożliwiło powrót do systemów współbieżnego
- 13 -
przetwarzania danych. Wraz z premierą nowych kart nVidia wykorzystała ten fakt i zaprezentowała nowy system – SLI, który umożliwił niemal dwukrotnie szybsze generowanie obrazu w niektórych aplikacjach.
W maju 2004 ATI zaprezentowało Radeona X800, który pomimo braku wsparcie dla najnowszych bibliotek DirectX, był i tak bardzo dobrą propozycją. Konkurencją dla SLI okazał się być także odpowiednik tej technologii ATI – CrossFire.
Radeon X800 GeForce 6800 Ultra
Po ponad roku – w czerwcu 2005 pojawiła się całkowicie nowa seria kart graficznych – GeForce 7. Zmieniono chłodzenie na jednoslotowe oraz jak to zawsze bywa znacząco zwiększono wydajność nowego układu. Nvidia zmieniła także zapis kodowy - wszystkie wcześniejsze chipy nosiły nazwę NVx (gdzie x to jakaś liczba), nowy GeForce 7800GTX to natomiast G70.
4 miesiące później (październik 2005) ATI zaprezentowało Radeona X1800, który posiadał pełne wsparcie dla DirectX 9.0c.
Radeon X1800 GeForce 7800 GTX
- 14 -
Przez kolejne półtora roku obie firmy doskonaliły swoje serie produktów i tak otrzymaliśmy Radeon'a X1950XTX oraz GeForce 7900GTX.
Radeon X1950XTX GeForce 7900GTX
Należy tutaj wspomnieć także o dwuprocesorowej karcie nVidii – GeForce 7950GX2, który składał się z dwóch układów 7950, które są odpowiednikami 7900.
GeForce 7950GX2
10 listopada poszło do światowej premiery całkowicie nowych układów graficznych ukrywających się pod kryptonimem G80. Producentem chipu, jak łatwo zauważyć po nazwie kodowej jest nVidia.
W nowej serii dodano sprzętową zgoność z DirectX 10. Nazwa rynkowa nowych układów to oczywiście GeForce 8, a dokładniej 8800 GTX i GTS.
GeForce 8800 GTX
- 15 -
2. Czym jest karta graficzna
2.1. Definicja
Definicja mówi, że karta graficzna jest elementem komputera odpowiedzialnym za tworzenie sygnału dla monitora.
2.2. Budowa
Przejdźmy rozmieszczenia elementów na karcie graficznej.
- 16 -
1. Kości pamięci RAM2. Chłodzenie pod którym znajduje się GPU
3. Port4. Śledź wraz z wyjściami/wejściami
Omówmy teraz dokładniej powyższe elementy.
2.2.1. Pamięć
To właśnie w niej przechowywane są wszystkie tekstury niezbędne do generowania obrazu, jej szybkość jest jednym z kluczowych elementów decydujących o efektywnym działaniu całej konstrukcji.
Podstawowe różnice między pamięciami instalowanymi na kartach graficznych to [w nawiasach podano jednostki]:
- Pojemność [MB]- Częstotliwość taktowania [MHz]
- Szerokość magistrali [bity]- Czas dostępu [ns]
Jak odczytać czas dostępu pamięci?
Czasu dostępu do pamięci nie można odczytać w żadnym oprogramowaniu. Aby dowiedzieć się ile on wynosi musimy dokładniej przyjrzeć się kościom pamięci zamontowanymi na samej karcie
graficznej. Wartość tą ujawnia nam ostatnie liczby w oznaczeniu kości.
W tym przypadku czas dostępu wynosi 3.3 ns.
- 17 -
Czasami jednak odczytanie tych wartości jest nie możliwe, ponieważ np. na pamięciach zamontowane są radiatory lub całe chłodzenie obejmuje również moduły pamięci.
- 18 -
2.2.2. GPU - Graphics Processing Unit
Chip ten jest główną jednostką obliczeniową znajdującą się w kartach graficznych.
Główne różnice w specyfikacji GPU polegają na:
● Strukturą GPU[ilość jednostek ROP, TMU, ZS, Vertex, Pixel czy Unified Shader w rdzeniu]
● Częstotliwości taktowania rdzenia● Wsparciem różnych wersji DirectX
Magistrala ta od lat nie jest stosowana już do podłączania kart graficznych - oferuje zbyt niskie transfery i potrafi dostarczyć małe ilości mocy.
Specyfikacja kolejnych wersji PCI:
- 19 -
AGP - Accelerated [lub Advanced] Graphics Port
Zmodyfikowana przez firmę Intel magistrala PCI.
Wersje AGP:
- AGP 1x, maksymalny transfer 266 MB/s przy napięciu 3,3 V.- AGP 2x, maksymalny transfer 533 MB/s, napięcie takie same jak przy 1x- AGP 4x, transfer maksymalny 1066 MB/s (1 GB/s); napięcie sygnału 1.5 V.- AGP 8x, transfer maksymalny 2133 MB/s (2 GB/s)
PCI-Express - 3GIO [3rd Generation I/O]
Przyszłościowa magistrala mająca zastąpić AGP oraz PCI.
Wraz ze wzrostem liczby linii wydłużeniu ulega gniazdo, jego konstrukcja (poprzez wspólna część początkową i jedynie dodawanie na końcu nowych linii) umożliwia włożenie wolniejszej karty do szybszego gniazda (w drugą stronę jest niemożliwe).
Gniazdo 1x ma 18 pinów z każdej strony, gniazdo 4x - 32, gniazdo 8x - 49, zaś gniazdo 16x - 82 piny z każdej strony.
PCI-E nie jest kompatybilne z złączem AGP:
- 20 -
Wersje PCI-E:
2.2.4. Śledź wraz z wejściami/wyjściami
Od lewej widzimy kolejno:
2.2.4.1. DVI
DVI jest jednym z standardów złącza pomiędzy kartą graficzną, a monitorem komputera.
Złącze DVI występuje w 3 rodzajach:
● DVI-I przesyła zarówno dane cyfrowe, jak i analogowe. Po zastosowaniu właściwej przejściówki można go połączyć ze zwykłym złączem D-Sub karty graficznej.
Przejściówka z DVI na D-SUB
● DVI-D przesyła tylko dane cyfrowe.
● DVI-A - przesyła sygnały tylko analogowe.
- 21 -
2.2.4.2. S-Video lub VIVO
S-Video - Standard przesyłania sygnału wizyjnego umożliwiający uzyskanie lepszej jakości niż w najczęściej spotykanym Composite video dzięki oddzieleniu sygnału luminancji. Często jest nazywany również Super Video.
Standard ten jest popularny w odtwarzaczach DVD, niektórych magnetowidach, oraz wielu nowoczesnych odbiornikach telewizyjnych - dzięki czemu możliwe jest podłączenie ich do komputera.
Jakość sygnału S-Video jest zależna od jakości przewodu połączeniowego i może się znacznie pogarszać jeśli jego długość przekracza 5 metrów.
2.2.4.3. D-Sub
D-Sub - Złącze anologowe wykorzystywane do przenoszenia sygnału z karty graficznej do monitora. Charakteryzuje się gorszą jakością od nowocześniejszego DVI.
- 22 -
2.2.5. Chłodzenie
Podczas pracy GPU wydziela spore ilości ciepła dlatego musi być w specjalny sposób chłodzony. Rozróżniamy dwa główne sposoby chłodzenia kart graficznych:
2.2.5.1. Aktywne
System posiada elementy aktywne [wiatraczki] odpowiedzialne za wymuszenie większego przepływu powietrza.
2.2.5.2. Pasywne
System opiera się tylko na radiatorach [brak elementów aktywnych]. Dzięki takiemu rozwiązaniu zyskujemy ciszę jednak tracimy potencjał podkręcania. Chłodzenie te zazwyczaj stosowane jest na wolniejszych kartach, które nie wydzielają dużo ciepła.
- 23 -
2.2.5.3. Wodne
Z czasem gdy nawet chłodzenie aktywne przestaje być wystarczające, pozostaje nam „zamienić” powietrze na wodę. Aktualnie chłodzenie cieczą nie jest popularene ze względu na swoją cenę, jednak patrząc na rozwój współczesnych akceleratorów 3D jest to jedynie kwestią czasu.
2.3. Zasada działania
Zasadę generowania obrazu można bardzo prosto spisać w kilku punktach:
1. GPU wykonuje obliczenia niezbędne do wwygenerowania danej klatki a wyniki zapisuje pamięci RAM.
2. Dzięki sterownikom karty dane zapisane w pamięci przesyłane są do układów RAMDAC.3. Z RAMDAC dane w postaci analogowej transportowane są do monitora [przy zastosowaniu
złącza D-SUB, w przpadku DVI transportowane są w postaci cyfrowej].
Powinniśmy także wiedzieć, że współcześnie wszystkie karty graficzne wspierają dwa tryby generowania obrazu:
● Tryb tekstowy ● Tryb graficzny
- 24 -
3. Podstawowe technologie
3.1. Filtrowanie anizotropowe
Technologia ta umożliwia znaczne wyostrzenie tekstur znajdujących się w znacznej odległości oraz likwidację zniekszta łceń tekstur położonych ukośnie względem płaszczyzny. Daje znacznie lepsze efekty od filtrowania trójliniowego.
Po lewej filtrowanie trójliniowe, a po prawej filtrowanie anizotropowe.
3.2. Full Scene Anti-Aliasing
Skrótowo FSAA. Technologia zapewnia wygładzanie krawędzi w aplikacjach 3D.
Po prawej bez a po lewej z włączonym FSAA.
- 25 -
3.3. Shader
3.3.1. Pixel Shader[słowniczek]
Jednostka układu graficznego odpowiedzialna za cieniowanie pikseli i dostępny jest aktualnie w trzech wersjach:
Jednostka odpowiedzialna za wyliczanie położenia wierzchołków wielokątów w przestrzeni. Zastąpiła ona wcześniejszą T&L (Transformation & Lighting Engine).
3.4. HDR - High Dynamic Range [słowniczek]
Jeden z efektów stosowanych w współczesnych grach. Po włączeniu jesteśmy w stanie zaobserwować wyświetlanie efektów świetlnych o znacznie większym zakresie intensywności.
Następnie wybieramy do jakiego urządzenia [rodziny urządzeń] chcemy pobrać sterowniki oraz naciskamy "Dalej".
Następnie klikamy na link prowadzący do serwera z którego będziemy pobierać plik - naciśnijmy np. "Główny serwer".
Na następnej stronie pojawi się licencja oprogramowania. Na samym dole możemy ją zaakceptować.
Zapisujemy plik na dysku.
- 28 -
Po zakończeniu pobierania uruchamiamy plik. Odczekujemy chwilę i naciskamy "Dalej".
Instalator rozpoczyna pracę - proces może potrwać parę minut w zależności od konfiguracji PC.
Teraz pozostaje nam tylko zrestartować komputer.
- 29 -
Po ponownym uruchomieniu systemu klikamy prawym przyciskiem myszy na monitorze oraz wybieramy "Właściwości".
W nowym oknie przechodzimy na zakładkę "Właściwości". Tam możemy także zmienić rozdzielczość wyświetlanego obrazu. Klikamy "Zaawansowane".
Następnie przechodzimy z zakładki "Ogólne" na inną nazwaną naszą kartę - w moim przypadku "GeForce 6200".
- 30 -
Na tej karcie widzimy właściwości posiadanego sprzętu i nie tylko: posiadany CPU, zainstalowaną wersję DX, rodzaj procesora graficznego czy ilość pamięci na grafice.
Przejdźmy do ustawień wydajności i jakości. Mamy tam kontrolę nad np. wygładzaniem krawędzi obrazu [inaczej FSAA], czy filtrowaniem anizotropowym.
Aby uzyskać dostęp do kontrolowania tych funkcji należy odznaczyć "Pod kontrolą aplikacji" [tak jak na zdjęciu].
- 31 -
Natomiast w ustawieniach temperatury jeżeli nasza karta umożliwia taką opcję będziemy mogli kontrolować nagrzanie GPU.
W "Rozdzielczości ekranu i tempa odświeżania" tak jak sama nazwa mówi będziemy mogli dostosować do swoich potrzeb główne atrybuty wyświetlanego obrazu.
- 32 -
Ponadto do opcji sterownika mamy też dostęp po kliknięciu prawym przyciskiem myszy na nową ikonę w zasobniku.
4.2. ATI - Catalyst
Wchodzimy na stronę www.ati.com
Wybieramy "Driver & Software".
Następnie wybieramy posiadany system oraz model chipu graficznego, który posiadamy [w tym przypadku Windows XP Pro/Home i Radeon X850 series] i naciskamy „go”.
Następnie mamy dwie możliwości – pierwsza opcja pobieramy pełen pakiet oprogramowania wraz z różnymi dodatkami, druga – same sterowniki.
Klikamy na wybrany przez nas link i pobieramy dany plik.
Po pobraniu pliku uruchamiamy go. Instalacja jest jak zwykle bardzo prosta, jednak i tym razem omówię dokładnie jej proces.
- 34 -
W pierwszym oknie możemy zmienić lokalizację gdzie zainstalują nam się sterowniki naciskając przycisk „Browse”, lub po prostu wpisując odpowiednią dla nas ścieżkę. Jeżeli nie chcemy
kombinować możemy zostawić ustawienia domyślne bez zmian.
Następnie dochodzi do rozpakowywania plików – chwilkę czekamy.
- 35 -
Od tego momentu rozpoczyna się „prawidłowa” instalacja softu. Naciskamy „Next”.
Następnie naciskamy „Yes” dzięki czemu akceptujemy licencję oprogramowanie.
Następnie wybieramy szybką instalację naciskając na ikonę obok napisu „Express Recommended”.
- 36 -
W następnym oknie widzimy składniki jakie zostaną zainstalowane. Pozostawiamy wszystko bez zmian i naciskamy „Next”.
Po chwili system poprosi nas o restart komputera. Wykonujemy restart maszyny.
- 37 -
Pozaładowaniu systemu pokazują nam się pierwsze okana efektownego panelu Catalyst. Początkowo musimy zdefiniować opcje wyglądu. Zaznaczamy „Advenced” oraz zaznaczamy
„Don't show this page again” dzięki czemu więcej nie zobaczymy tego okna.
Po chwilki może pokazać się poniższy komunikat. Nie przejmujemy się – zaznaczamy „Don't display this message again.” oraz standardowo naciskamy „Next”.
- 38 -
Powinniśmy teraz zobaczyć w całej okazałości Control Center. W polu „Graphics Adapter” widzimy nazwę naszej karty graficznej [w tym przypadku jest to Radeon X1800 GTO].
Po prawej stronie widzimy „Graphics Settings” gdzie możemy zobaczyć znacznie więcej ciekawych opcji.
Przechodzimy do „Information Center”a następnie wybieramy „Graphics Software”. Widzimy teraz dość rozbudowane informacje dotyczące oprogramowania.
- 39 -
Następna pozycja jak łatwo można się domyślić dotyczy sprzętu. Widzimy takie detale jak nazwę chipu karty graficznej, ilość pamięci czy jej rodzaj.
Następna zakładka to „Displays Manager”. W tym miejscu możemy regulować takie ustawienia jak rozdzielczość ekranu, częstotliwość odświeżania i głębię kolorów.
- 40 -
W „Display Options” widzimy głównie ustawienia dotyczące odświeżania obrazu w trybie 3D, oraz wykrywania TV.
Pole „Monitor Properties” umożliwia nam kontrolowanie końcowych ustawień generowanego obrazu.
Dzięki „Attributes” zobaczymy szczegółowe ustawienia dotyczące naszego monitora.
- 41 -
W „Avivo Color” jak sama nazwa mówi możemy kontrolować korekcję kolorów widocznych na platformie AVIVO.
Dzięki „Adjustments” pozycjonowanie obrazu na naszym ekranie nie powinno nam sprawić najmnieszych problemów.
- 42 -
„HDTV Support” umożliwi nam kontrolę wyświetlanego obazu w formacie HDTV.
W sekcji „3D” możemy regulować wszystkie ustawienia dotyczące m. in. Anti-Aliasingu czy filtrowania anizotropowego. W oknie sterownika widzimy także podgląd jak wygląda generowany
obraz przy aktualnych ustawieniach.
- 43 -
Ostatnią zakładką, którą omówię jest „ATI Overdrive”. Tutaj możemy zobaczyć aktualne taktowania rdzenia oraz pamięci naszej karty graficznej oraz je modyfikować.
Po instalacji sterowników powinna także pokazać nam się nowa ikona w zasobniku systemowym.
Klikając na niej prawym przyciskiem myszy mamy dostęp do skromnego menu sterownika.
- 44 -
4.2. Omegi
Już na pierwszy rzut oka łatwo zauważyć, że instalator Omeg znacznie się różni od tego zastosowanego w standardowych Catalystach. W pierwszym
oknie standardowo naciskamy „Next”.
Następnie zaznaczamy, że rozumiemy i akceptujemy licensję oprogramowania, oraz naciskamy „Next”.
- 45 -
Teraz pora na wybranie lokalizacji gdzie mają zostać zainstalowane sterowniki.
W następnej kolejności możemy zmienić dość nietypowe ustawienia bo dotyczące m. in. zapisu FastWrite. Przechodzimy dalej naciskając „Next”.
Teraz widzimy składniki, które zostaną zainstalowane. Naciskamy „Next” aby kontynuować.
- 46 -
Nadszedł czas na podsumowanie ustawień instalacji.
Czekamy, aż zakończy się proces kopiowania plików.
Teraz automatycznie rozpocznie się proces instalacji MultiRes. Akceptujemy umowę oraz naciskamy „Next”.
- 47 -
Wybieramy lokalizację oraz naciskamy „Start”.
„Create a MultiRes program group in the Start menu.” - Dodaj ikonę MultiRes do menu Start.„Place a shortcut to MultiRes on the desktop.” - Dodaj skrót na pulpicie.
„Run MultiRes when Setup finishes.” - Uruchom MultiRes po zakończeniu instalacji.„Auto-load with Windows.” - Uruchamiaj razem z startem systemu.
Na koniec widzimy podsumowanie. Naciskamy „OK”.
- 48 -
Po chwili może ukazać się nam poniższy komunikat. Zatwierdzamy naciskając tak jak zwykle „OK”.
Po chwili pokaże się poniższe okno.
Nie powinien nas zdziwić także komunikat dotyczący „niezgodności” oprogramowania. Naciskamy „Mimo to kontynuuj”.
- 49 -
Po chwili pojawi się komunikat z zapytaniem czy utworzyć skrót na pulpicie do ATI Control Panel. Zatwierdzamy naciskając „Tak”.
Może jeszcze pojawić się komunikat dotyczący pełnej kompatybilności sterowników.
Zwieńczeniem naszych sukcesów powinno być poniższe okno. Pozostaje nam nacisnąć „Finish”...
- 50 -
... oraz zrestartować maszynę naciskając „Tak”.
Po ponownym uruchomieniu systemu możemy cieszyć się w pełni funkcjonalnymi sterownikami.
5. ABC własnych komponentów
5.1. Everest
Dzięki programowi Everest będziemy mogli dowiedzieć się wielu ciekawostek o naszym PC... także o karcie graficznej.
Powyższe oprogramowanie można pobrać z oficjalnej strony http://www.lavalys.com
Teoretycznie do wyboru mamy trzy wersje:CORPORATE Edition,ULTIMATE Edition,
HOME Edition
Dwie pierwsze możemy pobrać w licencji trial [po pewnym czasie tracimy możliwość korzystania z programu] natomiast Home Edition jest całkowicie darmowa jednak już nie jest aktualizowana i nie pojawiają się nowe, całkowicie darmowe wersje tego programu. Nie odnajdziemy już jej także na
oficjalnej stronie ale możemy ją pobrać z tej strony.
Osobiście jednak zalecam pominięcie wersji Home, ponieważ będzie miała ona problemy z rozpozaniem najnowszego sprzętu.
Nie będę teraz podawał, gotowego „przepisu” na pobranie plików z strony Lavalys tylko podam linki do najnowszych wersji oprogramowania:
Po pobraniu odpowiedniej wersji uruchamiamy instalator [w tym przypadku jest to wersja Ultimate]
W pierwszym oknie naciskamy "Next".
Następnie zaznaczamy, że akceptujemy umowę oraz standardowo klikamy "Next".
- 52 -
Teraz możemy wybrać lokalizację gdzie ma zainstalować się program.
Ustawiamy gdzie/pod jaką nazwą ma zostać umieszczony skrót do programy w menu "Start".
- 53 -
Kontrolujemy dodanie nowych ikon:"Create a desktop icon" - [standardowo włączone] dodaje ikonę na pulpicie
"Create a Quick Launch icon" - dodaję ikonę szybkiego uruchamiania
Widzimy wcześniej skonfigurowane ustawienia. Pozostaje nacisnąć "Install".
- 54 -
Czekamy chwilę aż program się zainstaluje.
Powoli kończymy proces instalacji...
"Launch EVEREST Ultimate Edition" - [standardowo włączone] uruchom program EVEREST"Visit Lavalys Web Site" - odwiedź stronę Lavalys
"View EVEREST Ultimate Edition Documentation" - zobacz dokumentację programu
Naciskamy "Finish"
- 55 -
Po chwili uruchamia nam się oprogramowanie.
Otwarte okno programu wygląda następująco. Klikamy "Ekran".
- 56 -
Tak na marginesie: widzimy w zasobniku nowe ikony powiązane z Everestem: - wskazują m. in. temperaturę karty graficznej czy procesora.
Wracając jednak do sedna sprawy - dalej należy wybrać "Procesor Graficzny". Teraz już widzimy dokładne właściwości swojej karty graficznej... nie będę teraz wszystkiego opisywać
- 57 -
Możemy także sprawdzić model/właściwości monitora...
Nic nie szkodzi aby sprawdzić temperaturę podzespołów, które umożliwiają taką kontrolę.
- 58 -
6. Podkręcanie
6.1. PowerStrip
Program PowerStrip w wersji 3.70 można pobrać z oficjalnej strony lub z:
Po uruchamieniu instalatora zaznaczamy, że zapoznaliśmy się z licencją oraz naciskamy "Next".
W następnym oknie widzimy listę systemów operacyjnych na których swobodnie uruchomimy program - uwzględnia praktycznie wszystkie wersje Windows także nie mamy się czego obawiać.
Teraz możemy wybrać gdzie program nam się zainstaluje - wpisujemy ścieżkę lub kilkamy "Browse" i odnajdujemy lokalizację. Oczywiście możemy pozostawić standardową ścieżkę
Po dokonaniu wybory naciskamy "Start".
Czekamy aż proces instalacji zostanie zakończony...
Pojawia się okno informujące, że instalacja została zakończona pomyślnie. Na koniec mamy parę opcji do wyboru:
"Create a PowerStrip program group in the Start menu" - PowerStrip zostanie dodany do programów w menu Start [standardowo włączone]
"Place a shortcut to PowerStrip on the desktop" - na pulpicie zostanie utworzony skrót do programu PowerStrip
"Run PowerStrip when Setup finishes" - program zostanie uruchomieniu po zamknięciu instalatora
Zatwierdzamy restart komputera.
Po uruchomieniu komputera uruchamiamy menu "Start" oraz w programach odnajdujemy PowerStrip i odpalamy go.
- 61 -
Przywita nas komunikat związany z odnalezieniem nowego sprzętu przez oprogramowanie. Zatwierdzamy przyciskiem "OK".
- 62 -
Znajdujemy się w panelu wstępnych ustawień programu. Możemy w nim włączyć/wyłączyć kilka ciekawych opcji np. uruchamianie wraz z systemem. Naciskamy "OK"
Po chwili pojawia się kolejne okno - czekamy kilka sekund i naciskamy "Zamknij".
- 63 -
Powinna pojawić się nowa ikona w zasobniku... komunikat oznajmia nam, że konfiguracja przebiegła bezproblemowo.
Klikamy na niej prawym przyciskiem myszy oraz wybieramy Profile wydajności\Konfiguracja.
Znajdujemy się teraz w głównym oknie w którym będziemy podkręcać kartę graficzną. Podkręcanie polega na podnoszeniu do góry dwóch suwaków - pierwszy jest odpowiedzialny za częstotliwość
taktowania GPU a drugi za pamięci. Taktowania podnosimy stopniowo do góry. Naciskamy "Zastosuj".
- 64 -
Potwierdzamy podniesienie taktów - w przypadku gdy "poniesie nas wyobraźnia" i komputer przestanie reagować standardowe ustawienia zostaną automatycznie przywrócone.
Po zmienieniu taktowań powinniśmy przetestować czy karta nie generuje artefaktów [błędów w obrazie]. Dokonać tego można grając w gry lub uruchamiając np. 3DMark.
W przypadku gdy karta przejdzie poprawnie testy możemy pokusić się o dalsze podnoszenie taktów.... chyba wiadomo już jak to robić
- 65 -
6.2. RivaTuner
Kolejnym programem do podkręcania jest RivaTuner.
Po pobraniu pliku uruchamiamy instalator. W pierwszym oknie naciskamy "Next".
Następnie zaznaczamy, że akceptujemy umowę oraz ponownie klikamy "Next".
Po chwili uruchomi nam się program oraz plik tekstowy readme. O ile ten drugi będziemy mogli od razu zamknąć to przed rozpoczęciem pracy z programem przyjdzie niestety nam jeszcze chwilkę
poczekać....
Po chwili pokazuje się poniższy komunikat. Przechodzimy dalej naciskając "OK".
- 68 -
Czasami może pojawić się komunikat mówiący o nieodpowiednich sterownikach do karty graficznej. Jeżeli używamy oficjalnych sterowników ATI lub nVidii nie mamy czym się przejmować i możemy kontynuować, jeżeli jednak nie jesteśmy pewni zalecam instalację
najnowszych [oficjalnych] sterów.
Ukazuje nam się główne okno programu RivaTuner. Klikamy na trójkącik zaznaczony na poniższym zdjęciu.
A następnie na obrazek karty graficznej.
- 69 -
Teraz powinniśmy włączyć opcję "Enable driver-level hardware overclocking".
Uruchamiamy ponownie komputer...
Po restarcie PC ponownie uruchamiamy RivaTuner - najprościej z menu "Start".
- 70 -
Wchodzimy do "System tweaks" [tak samo jak wcześniej] i zmieniamy tryb z standardowego 2D na 3D.
Następnie możemy już przesuwać w prawo suwaki [górny odpowiedzialny za częstotliwość GPU a dolny za pamięci].
Po zmienieniu standardowych ustawień naciskamy na "Test".
- 71 -
Możemy także ustawić aby podczas uruchamiania systemu automatycznie były włączane te ustawienia.
Teraz pozostaje tylko testować w środowisku 3D [gry, 3DMarki] i sprawdzać na jakich ustawieniach nie ma błędów w grafice...
6.3. Coolbits
Kolejnym sposobem na podkręcanie kart nVidii jest odpowiednia modyfikacja sterowników i dokonania OC właśnie z ich poziomu.
W tym celu wchodzimy do menu "Start" oraz wybieramy "Uruchom".
W nowym oknie wpisujemy "regedit".
- 72 -
- 73 -
Klikamy prawym przyciskiem myszy na "NVTweak", wybieramy "Nowy\Wartość ciągu".
Pojawia się nowy wpis:
Zmieniamy jego nazwę na "Coolbits" oraz zatwierdzamy ENTERem.
Następnie kilkamy na dodanym wpisie prawym klawiszem myszy oraz wybieramy "Modyfikuj".
W nowym oknie wpisujemy "3" i naciskamy "OK".
Teraz obok wpisu powinna pojawić się trójka .
- 74 -
Zamykamy edytor rejestru.
Następnie przechodzimy do sterowników... klikamy na pulpicie prawym przyciskiem myszy i wybieramy "Właściwości".
Przechodzimy na zakładkę "Ustawienia" oraz klikamy na "Zaawansowane".
- 75 -
Następnie przechodzimy na zakładkę nazwaną naszą kartą graficzną [w moim przypadku "GeForce 6200"]. Widoczna jest nowa pozycja w menu - "Ustawienia częstotliwości zegara",
wchodzimy na nią. Pojawiają się trzy opcje:
- "Bez przetaktowywania" [domyślnie ustawione]- "Przetaktowywanie automatyczne" podręczna pomoc mówi nam, że:
–– "Przetaktowywanie ręczne" - sami ustawiamy parametry rdzenia/pamięci.
Zaznaczmy przykładowo drugą opcję (Przetaktowywanie automatyczne). Po chwili powinno pojawić się okno powiadamiające o ryzyku wiążącym się z tą operacją. Aby zaakceptować
zjeżdżamy na dół....
–... i naciskamy:
- 76 -
W przypadku przetaktowywania automatycznego my nie mamy możliwości integracji w wartości zegarów - będą one automatycznie zmieniane.
Najlepsze wyniki przynosi jednak ustawienie własnych częstotliwości, aby tego dokonać zaznaczamy "Przetaktowywanie ręczne".
Uzyskujemy w ten sposób całkowitą kontrolę i możemy zmieniać takty poprzez zabawę suwakami, gdzie górny odpowiada za częstotliwość GPU a dolny pamięci.
Możliwe jest także wykrycie odpowiednich ustwień [nie zawsze w 100% działa]. Uzyskamy je kilkając na:
- 77 -
Chwilkę będziemy musieli poczekać zanim system wykryje odpowiednie ustawienia.
Jednak po zakończeniu zobaczymy już podwyższone takty.
Oczywiście ciągle możemy je podnosić - nie zapominajmy jednak o testowaniu karty po każdej zmianie ustawień.
Po własnej zmianie naciskamy:
Pojawi się komunikat informujący o kilku sekundowym teście. Naciskamy "OK".
Natomiast gdy chcemy aby ustawienia były włanczane wraz z uruchomieniem systemu zaznaczamy
To chyba na tyle.... przypomnę jeszcze raz - pamiętajmy o testowaniu w grach/3DMarkach czy przy danych ustawieniach nie występują artefakty.
- 78 -
6.3. Czy warto z tym wszystkim się bawić?
Odwieczne pytanie zadawane prez wielu użytkowników. Pytanie w dość dużym stopniu uzależnione jest od tego czy chcemy poświęcić trochę czasu na OC i jaki sprzęt posiadamy, ponieważ różne modele są w różnym stopniu podatne na „przyśpieszanie”. Wzrost wydajności może być marny – niezauważalne wręcz kilka procent, a w niektórych przypadkach może być przeciwnie – nasz akcelerator zyska 2-krotnie większą moc.
Postanowiłem sprawdzić, jak sprawa ta wygląda na mojej karcie graficznej GeForce 6200 (pozostały sprzęt to Celeron D 2,53 GHz, 512 MB RAM pracujących w trybie Dual Channel oraz płyta główna ASRock 775Dual-880Pro). W roli sterowników posłużyły mi najnowsze ForceWare 91.47 WHQL.
A więc zaczynajmy.
Postanowiłem przetestować kartę graficzną w trzech trybach:
● Standardowe taktowania 350/500 MHz● Maksymalnie podkręcone pamięci a GPU pozostawiony w normie, czyli 350/750 MHz● Podkęcone zarówno pamięci jak i GPU – 410/750 MHz
Wyniki z 3DMarka01SE wyglądają następująco:
- 79 -
Jak widać po podkręceniu wynik końcowy wzrósł z 5925 do 6989 punktów, czyli o 18%.
Sprawdźmy teraz jak sprawa wygląda w grach... akurat posiadam zainstalowną Tomb Raider – Legend także postaram się wykorzystać ten fakt.
- 80 -
Jak widzimy wzrost wydajności jest całkiem spory... nawet większy niż w 3DMarku i wynosi 42% (porównując średnią ilość FPS).
Oczywiście wzrost wydajności będzie także w dużej mierze zależny od oprogramowania.
Na koniec chciałbym także podkreślić, że szybszy GPU znacznie bardziej usprawnia generowanie grafiki w niskich rozdzielczościach (do 800x600), ponieważ wtedy do pamięci przesyłanych jest
porównywalnie mało danych. Wraz ze wzrostem rozdzielczości przepustowość VRAMu ma coraz większe znaczenie.
7. Modowanie
7.1. Zmiana BIOSu karty graficznej
7.1.1. ATI
W wielu modelach kart graficznych stosuje się identyczny GPU jak w ich droższych odpowiednikach... było tak np. w Radeonach 9800 Pro opartych o nowy chip R360 stosowany w
9800 XT. Karty tego typu mogliśmy bezproblemowo zmodować uzyskując wydajność silniejszego odpowiednika.
Jednak same sprawdzenie nazwy kodowej rdzenia, może zwykłemu użytkownikowi sprawić nie byle jakie problemy. Oczywiście możemy sprawdzić te dane w specjalnym programie np. Evereście [opisany w dziele 5.1] ale nigdy nie mamy 100% pewności czy wynik nie jest oszukany prez BIOS
karty.
- 81 -
GF 6200 410/750 MHz
GF 6200 350/750 MHz
GF 6200 350/500 MHz
0 5 10 15 20 25 30 35 40
13
16
19
19,15
26,2
27,75
26
37
40
Tomb Raider Legends 1024x768
Minimalna ilość FPSŚrednia Ilość FPSMaksymalna ilość FPS
Jedynym sposobem na upewnienie się jest zdjęcie chłodzenia i sprawdzenie napisów na GPU.
Do podmieniania BIOSu przy kartach ATI możemy użyć programu Flashrom 2.40. Powinniśmy zaopatrzyć się także [co wydaje mi się oczywiste] w BIOS do modowalnej karty.
Flashrom 2.40
Gdy wszystko mamy gotowe uruchamiamy system w trybie DOS [przy pomocy dyskietki startowej].
Po uruchomieniu wpisujemy:
flashrom -s 0 kopia.bin
Dzięki temu zostanie utwożony nowy plik kopia.bin, który będzie wierną kopią aktualnego BIOSu.
Następnie wprowadzamy:
flashrom -f -p 0 nowy_bios.bin
Gdzie:nowy_bios.bin – to przykładowa nowego BIOSu, który zamieżamy wgrać
Po chwli nasz BIOS zostanie nadpisany i możemy uruchomić ponownie komputer. W wypadku jakiegokolwiek błędu nie należy wyłączać/restartować komputera tylko ponownie wgrać stary
BIOS w naszym przypadku komendą: flashrom -f -p 0 kopia.bin.
Gdy po ponownym uruchomieniu PC ekran nie będzie wyświetlał obrazu, najprawdopodobniej pomyliliśmy się z doborem odpowiedniego BIOSu, albo po prostu naszej karty nie da się
zmodować. Wtedy bozostaje nam tylko znalezienie jakiejś karty PCI oraz podłaczenie jej do komutera [o podłączeniu do jej monitora nie wspomnę]. Po uruchomieniu tak przygotowanego
komputera powinniśmy wreszcie zobaczyć obraz na ekranie. Standardowo uruchamiamy DOS i wgrywamy starszy BIOS, którego zrobiliśmy kopię komendą: flashrom -f -p 0 kopia.bin.
7.1.2. nVidia
Podobnie jak w przypadku kart ATI, przy nVidii wykorzystamy specjalne oprogramowanie o nazwie NVFlash.
Standardowo tworzymy kopię aktualnego BIOSu. Dokonamy tego wpisując komendę:
Uruchamiamy program RivaTuner, którego instalację omówiłem w dziale 6.2.
W sekcji „Target adapter” Widzimy ilość potoków, jednostek TMU na potok, oraz Vertex Shaderów. W przypadku GeForce 6800 wartości te wynoszą kolejno 12, 1, 5 ale dzięki prostym
modyfikacjom możemy je podnieść do 16, 1, 6.
Klikamy na:
Następnie wybieramy obrazek karty graficznej.
- 83 -
Następnie przechodzimy na zakładkę „NVStrap driver” i wybieramy „Install”.
W przypadku niepowodzenia podczas odblokowywania dodatkowych potoków możemy zawsze wszystko cofnąć naciskając na „Uninstall”.
Zaznaczamy teraz znaczek przy:
Teraz powinniśmy zobaczyć komunikat sygnalizujący możliwość uszkodzenia sprzętu. Naciskamy „Yes”.
- 84 -
Następnie w polu „Active pixel/vertex units configuration” zmieniamy ustawienie na „Custom” i naciskamy przycisk „Custom”.
Poniżej widać aktywne jednostki Pixel i Vertex. Jednak tylko Trzy na cztery Pixel Unit są uruchomione... podobnie jest w przypadku Vertex Unitów. Uruchamiamy dodatkowe jednostki
zaznaczając przy nich „ptaszek”.
Ostatecznie okno powinno wyglądać tak jak poniżej.
- 85 -
Po tych modyfikacjach powinniśmy być posiadaczami 16-potokowej karty. Na głównej zakładce RivaTuner widzimy:
Teraz pozostaje nam tylko uruchomienie 3DMarków/gier i sprawdzenie czy generowany obraz nie zawiera błędów. Jeżeli będą widoczne artefakty wracamy do zakładki „NVStrap driver” i klikamy
„Uninstall”.
- 86 -
8. 3DMarki
8.1. Pobieranie
3DMarki w darmowej wersji można pobrać z strony www.futuremark.com/W głównym menu wybieramy "Download".
Następnie po prawej stronie klikamy na interesującą nas wersję programu [w moim przypadku będzie to 3DMark06].
Teraz widzimy główne okno z krótko przedstawionym programem. W polu nr. 1 widoczne są wymagania sprzętowe a w 2 objętość pliku.
Na dole widoczne są sieci [na zdjęciu została ujęta tylko jedna] z których można pobrać program. Aby przejść dalej naciskamy "Download".
Pobiorę dla przykładu plik z jednej sieci [MajorGeeks]. Po wcześniejszym kliknięciu na "Download" pojawia się nowa strona. Poniżej widać jej kawałek. Należy kilknąć na dowolny
mirror.
Po odczekaniu chwili powinno pojawić się okno informujące o możliwości pobrania pliku.
- 88 -
8.2. Instalacja oprogramowania
Uruchamiamy instalator i czekamy chwilkę.
Naciskamy "Next".
- 89 -
Zaznaczamy, że akceptujemy umowę i przechodzimy dalej.
W nowym oknie możemy wybrać gdzie zainstaluje się program [Przycisk "Browse..."]. Potwierdzamy naciskając "Next".
- 90 -
Pozostaje tylko nacisnąć "Install".
Czekamy na zakończenie instalacji.
- 91 -
Po zakończeniu kopiowania plików pojawi się okno rejestracji produktu. Klikamy "Purchase Later".
Następnie możemy wybrać czy bo zakończeniu procesu instalacji zostanie wyświetlony plik readme i czy zostanie dodana ikona na pulpicie. Naciskamy "Next".
- 92 -
Uruchamiamy nowy program za pomocą nowej ikony na pulpicie.
8.3. Dokładniejsze informacje
8.3.1. 3DMark 2001 SE
8.4.1.1. Wstęp
3Dmark 2001 jest już starszą aplikacją, dzięki czemu świetnie nada się do testowania, nie najnowszych platform. Do premiery oprogramowania doszło12 lutego 2002, przez co wspiera jedynie DirectX 7 oraz 8.
Interfejs oprogramowania, pomimo że jest w języku angielskim nie powinien nam sprawić jakichkolwiek problemów – jest bardzo intuicyjny.
W darmowej wersji mamy możliwość wykonania 10 testów, jednak większość z nich wykonywana jest w dwóch trybach np. High/Low Detail. Dokładniej zapoznać się z testami oraz je kontrolować możemy po naciśnięci przycisku „Change” w sekcji „Selected Test”.
8.4.1.2. Wymagania sprzętowe
3Dmark 2001SE z kacji na swoją odległą już premierę ma bardzo niskie wymagania sprzętowe. Jednak nie zaleca się na nim testować nowego sprzętu ze względu na mało miarodejne wyniki.
● Procesor 500 Mhz● 128 MB RAM● Karta graficzna wyposażona w 32 MB pamięci● System operacyjny Windows 98 lub nowszy● DirectX 8 lub nowszy
- 94 -
8.4.1.3. Testy
Game Performance
Game 1 - „Car Chase”
● Fizyka pojazdów prezentowanych w teście oparta jest o silnik Havok. ● Dwa poziomy detali - „Low” i „High”.
Game 2 - „Draghotic”
● Test opiera się głównie o system Global Illumination, Lumigraph oraz Hybrid.● Dwa poziomy detali - „Low” i „High”.
● Postacie i bronie pochodzą z kultowej gry Max Payne.● Podobnie jak w „Car Chase” fizyka jest oparta o silnik Havok.● Dwa poziomy detali - „Low” i „High”.
Game 4 - „Nature”
● Test wymaga sprzętowego wsparcie przez akcelerator Pixel Shader.
Test w pełni wykorzystuje możliwości DirectX 9, dzięki temu znacznielepiej nadaje się do testowania nowszych kart graficznych pokroju Radeona 9700 czy GeForce FX. Tym razem mamy do dyspozycji 14 testów o szacowanym czasie lekko pona 11 minut.
Od premiery 3DMarka 2001 do 11 lutego 2003 [premiery benchmarka w wersji 2003], na rynku PC doszło do ogromnego postępu, przez co wymagania znacznie wzrosły.
● Procesor 1 GHz (zalecany 2 GHz)● 256 MB pamięci RAM (zalecane 512 MB) ● 1GB wolnej pamięci na dysku● Karta graficzna wyposarzona w 32 MB (zalecane 128 MB) i kompatybilna z DirectX 9● Windows 98 lub nowszy ● DirectX 9.0c● Internet Explorer 6.0
● Testy CPU przystosowano do konfiguracji wieloprocesorowych.● Aplikację przystosobano zarówno do Starszych wersji SM 2.0, 2.0a , 2.0b jak i 3.0 –
program automatycznie wykrywa możliwości sprzętowe i dopasowuje testy.
Możemy także zobaczyć niesamowite demo, w którym pełno jest pięknej grafiki 3D a wszystkko umili namświetna ścieżka dźwiękowa.
8.4.3.2. Wymagania sprzętowe
● Procesor 2GHz● 512MB pamięci RAM● 400MB wolnego miejsca na dysku● Karta graficzna zgodna z DirectX 9 i Pixel Shader 2.0● Windows 2000 lub XP● DirectX 9.0c
● Test oparty na scenariuszu „Canyon Flight”.● Zmniejszenie rozdzielczości do 640x480.● Procesor obciążony jest zadaniem obliczenia odległości pokonanej przez sterowiec.
● Test ten polega na generowaniu bardzo prostej, lecz kompletnie nie zoptymalizowanej sceny. Wydajność karty graficznej sprawdzana jest pod kątem 8 próbek. Poniżej można zobaczyć, dla porównania trzy różne sceny.
Najnowszy na dzień wydania ebooka 3DMark pochodzi z 2006 roku. Co zmieniono? Okazuje się, że całkiem sporo... Dodano nowe testy wykorzystujące ShaderModel 3.0 oraz obsługę procesora fizyki pod postacią PhysX. Tym drugim efektem możemy się cieszyć w dwóch testach. W testach zobaczymy także nowe efekty HDR.
● Procesor 2,5 GHz● 1GB pamięci RAM● 1,5 GB wolnego miejsca na dysku● Karta graficzna kompatybilna z DirectX 9 oraz posiadająca 256 MB pamięci● Windows XP● DirectX 9.0c (wersja z grudnia 2005 lub nowsza)
8.4.3.3. Testy
Graphics Test 1 - „Return to Proxycon”
● Test ten, jak zresztą większość występował już w wersi programu z 2005 roku. Jednak w znaczącej roli poprawie uległa jakość wyświetlanej grafiki – zastosowano całkowicie nowe tekstury, oraz innowacyjną metodę generowania cieni przy pomocy kaskadowych map cieni CSM (Cascaded Shadow Maps).
● Test wymaga wsparcia sprzętowego co najmniej SM 2.0.
● Kolejny odświeżony test... jednak tym razem widzimy nie jedno tylko dwa światełka podążające w ciemnościach – dodatkowy element dodano aby mocniej obciążyć kartę graficzną. Tutaj także możemy zobaczyć zalety techniki CSM pod postacią bardzo efektownych, dynamicznych cieni.
HDR 1 – „Canyon Flight”
● Test ten widzieliśmy już w wcześniejszej edycji 3DMarka. Teraz jednak wymaga on pełnego wsparcie SM 3.0. Dodano także kilkadziesiąt sekund animacji, oraz ulepszono tekstury i dodano tytułowy efekt czyli HDR.
● Trochę zdziwić mogą nas nowe testy procesora - w odróżnieniu od reszty zostały one całkowicie odmienione. Na planszy możemy zobaczyć 87 różnych pojazdów. Operacje podzielono na kilka wątków, odpowiadających m. in. za sztuczną inteligencję. Zastosowano także jak już w Wstępie wspomniałem nowe biblioteki AGEIA PhysX. Rozbicie operacji na kilka wątków ma na celu przyśpeszenie przetwarzania danych na platformach wielordzeniowych czy wieloprocesorowych.
Fill Rate
● Testy bliżniacze do tych występujących w 3DMarku 2005 także nie będę tutaj prezentował screnów. Występują także w dwóch wersjach:○ Single-Texturing○ Multi-Texturing
Pixel oraz Vertex Shader [dwa testy Single oraz Complex]
● Testy różnią się od tych z wersji 2005 tylko zastosowaniem znacznie bardziej skomplikowanych modelów. Poniżej z zastosowaniem kolejności.
Wielu użytkowiników spotkało się już z zapewne przy testach 3DMark z wyrazem „ORB”. Czym on jest? Doczego służy i jak się nim posługiwać? - Na te pytania postaram się odpowiedzieć w tym dziale.
Najprościej ujmując ORB jest serwisem udostępnionym przez firmę Futuremark. Dzięki takiemu rozwiązaniu użytkownicy Internetu mogą dzielić się wynikami jakie uzyskali na swoich maszynach, zachowując przy tym wiarygodność, że testy nie są przekłamane.
Do umieszczenia swoich statystyk w Internecie potrzebujemy praktycznie tylko odpowiedniego oprogramowana (chodzi tutaj o omawiane 3DMarki) oraz samego Internetu...
A więc pora przejść do konkretów. Uruchamiamy 3DMark (ja wszystko zaprezentuję na wersji oprogramowania z 2003 roku, przy innych wersjach proces ten będzie przebiegał bardzo podobnie) i wykonujemy test.
Po zakończeniu benchmarka standardowo zobaczymy poniższe okno. Tym razem naciśniemy w nim „Online ResultBrowser”.
Teraz powinniśmy zobaczyć okno akceptacji warunków umowy. Zaznaczamy „Do not show this dialog again” dzięki czemu już więcej nie zobaczymy tego komunikatu, oraz naciskamy „I Agree”.
Czekamy chwilkę... pojawia się komunikat łączenia z siecią i w domyślenej przeglądarce internetowej otwiera się nowa strona, na której możemy zoabczyć swój oraz najlepszy i najgorszy
wynik zarejestrowany na świecie.
- 120 -
Jak zapewne wcześniej zobaczyliśmy dostępne mamy manu, w którym możemy się swobodnie poruszać i oglądać wnikliwe wyniki naszych testów. My jednak od razu przejdźemy do konkretów
- 121 -
klikając na zakładkę „Register”. Mamy teraz dwie opcje – logujemy się na wcześniej założone konto lub zakładamy nowe... przyjmijmy, że nie posiadamy konta i zakładamy nowe. Należy
wypełnić wszystkie pola w sekcji „Create a Free [...] Account” podając oczywiście poprawne dane.
- 122 -
Po chwili system powinien nas automatycznie zalogować. Widzimy po prawej stronie nasz email.
Teraz pora odwiedzić zakładkę „Project Manager”. Widzimy tam wykonany przez nas test – na poniższym zdjęciu widnieje on pod domyślną nazwą „Untitled” jednak można to dowolnie zmienić.
Zaznaczamy „Published” oraz naciskamy „Update” dzięki czemu inni użytkownicy będą mogli oglądać nasze wyniki.
Naszym oczom ukazuje się link (ja wcześniej zmieniłem także nazwę testu na „Test - Laptop”), który możemy podać np. na jakimś forum dyskusyjnym aby pochwalić się wynikiem.
- 123 -
Możemy jeszcze ustawić dowolny opis testu. Oby tego dokonać klikamy na:
Oraz wpisujemy dowolną treść w poniższe pole i standardowo naciskamy „Update”.
Pora sprawdzić co zawiera owa „upubliczniona” strona.
- 124 -
9. Pomiar ilości FPS w środowisku 3D
Program Fraps można poniżej pobrać:
Rozpoczynamy proces instalacji.
Akceptujemy licencją naciskają "I Agree".
Następnie wpisujemy ścieżkę gdzie ma zainstalować się program [możemy także zostawić domyślny wpis]. Klikamy "Next".
W następnym oknie możemy ustalić pod jaką nazwą i gdzie w menu start odnajdziemy program po zakończeniu instalacji. Zostawiamy domyśle ustawienia i naciskamy "Install".
Następnie czekamy chwilkę i klikamy "Close".
Uruchamiamy program z menu "Start".
- 126 -
Gdy Fraps będzie uruchomiony zawsze znajdziemy poniższą ikonę w zasobniku [tutaj pierwsza ikona od lewej].
Jednak skupmy się na głównych możliwościach.
- 127 -
Na pierwszej zakładce "General" nie ma zbyt wielu ciekawych opcji. Widzimy tam wersję programu oraz możemy kontrolować 3 główne atrybuty programu:
"Start Fraps minimized" - uruchamiej Frapsa zminimalizowanego"Fraps window always on top" - okno programu Fraps zawsze jest na wierzchu
"Run Fraps when Windows starts" - uruchamiaj program wraz z systemem operacyjnym
Na zakładce "FPS" możemy kontrolować główne ustawienia dotyczące FPS [ilości klatek na sekundę] - m. in. doskonale widoczna jest ["Overlay Corner"] możliwość zmiany rogu ekranu w
której mają być wyświetlane wyniki.
Następna karta ma tytuł "Movies". Jak sama nazwa wskazuje zobaczymy tutaj ustawienia odpowiedzialne za nagrywanie filmów.
- 128 -
Widzimy katalog w którym video będzie zapisywane - standardowo "C:\Fraps". Możemy także zmienić klawisz uruchamiający nagrywanie [standard F9].
Ostatnia zakładka to "Screenshots". Tutaj także możemy ustawić miejsce zapisu screenów, definiować klawisz oraz ustawić format obrazków.
Okno zamykamy naciskając:
... a nie tak jak zwykle "X" ponieważ ten drugi spowoduje całkowite zamknięcie programu.
- 129 -
10. Tryby współbierzności
10.1. SLI
Technologia SLI polega na łączeniu dwóch kart graficznych działających na magistralach PCI-E. W trybie tym jedna z kart graficznych jest układem master, a druga slave.
Zasadę generowania obrazu w takim trybie można wyrazić w kilku kolejnych punktach:
1. Obraz zostaje dzielony na dwie równe połowy.2. Przeprowadzana jest analiza obu części pod względem ilości koniecznych obliczeń do
wygenerowania danej klatki.3. Gdy któraś z części wymaga więcej obliczeń, linia podziału zostaje tak przesuwana aby
wyrównać ilość obliczeń wykonywanych przez każdą kartę.
Aby uruchomić system SLI musimy posiadać specjalną płytę główną opartą o chipset wspierający tą technologię oraz posiadającą dwa porty PCI-E w formacie x16.
Karty umożliwiającę pracę w trybie SLI posiadają specjąlne, dodatkowe złącze:
Karty łączymy za pośrednictwem niżej zaprezentowanego mostka:
ATI CrossFire to system mający takie same zadanie jak SLI – ma zadowolić najbardziej wymagających użytkowników.
CrossFire działa na znacznie innej zasadzie niż konkurencyjna technologia.
Do wyboru mamy trzy tryby generownia grafiki:
● SuperTiling – podział obrazu na szachownicę, zbudowaną z kwadratów. Połowę kwadratów przetwarza pierwsza a połowę druga karta.
● Scissor – obraz dzielony jest na dwie równe płowy (tryb analogiczny do SLI).● Alternate Frame Rendering – klatki renderowane są przemiennie – pierwsza karta
renderuje parzyste a druga nieparzyste klatki.
Aby karty bezproblemowo pracowały ze sobą w CrossFire musimy połączyć je specjalnym kablem.
- 132 -
Jak zapewe zauważyliśmy na kablu tym występuje dziwne złącze... złącze tego typu znajdziemy tylko i wyłącznie na specjalnej karcie master.
W tym dziale postanowiłem umieścić testy kart graficznych. Jednak z wielu powodów są zawarte tutaj tylko poniższe 3DMaki. Nie mogłem odnaleźć testów tak dużej ilości kart testowanych w jednej grze przy zachowaniu tych samych ustawień [rozdzielczość, detale itp.]. W zestawieniu zaprezentowałem także procesor z jakim były testowane dane karty.
12.2. 3DMark03
12.2.1. Single GPU
- 200 -
Karta graficzna Wynik końcowy ProcesorRadeon 9250 128 MB 64 bit 238/400 808
Pentium 4 Extreme Edition 3,2 GHz
GeForce FX 5500 128 MB 64 bit 270/360 955GeForce FX 5500 256 MB 64 bit 250/360 1105
Radeon 9250 256 MB 128 bit 238/400 1202Radeon 9250 128 MB 128 bit 238/400 1224
GeForce FX 5500 256 MB 128 bit 270/370 1414GeForce FX 5500 128 MB 128 bit 270/404 1457
GeForce FX 5700 LE 128 MB 128 bit 225/166 1737Radeon 9550 128 MB 64 bit 250/392 1833Volari V8 128 MB 128 bitv 250/520 2249
GeForce 6200 128 MB 64 bit 351/398 2284GeForce 6200 256 MB 64 bit 351/502 2376Radeon 9550 128 MB 128 bit 250/392 2411Radeon 9550 256 MB 128 bit 250/392 2442GeForce 6200 128 MB 64 bit 351/502 2652Radeon 9600 256 MB 128 bit 398/404 3174Radeon 9600 256 MB 128 bit 405/458 3254Radeon 9600 256 MB 128 bit 432/500 3504
Radeon 9600 Pro 128 MB 128 bit 398/596 3516Radeon 9800 SE 128 MB 256 bit 378/596 3911
Radeon 9550 256 MB 128 bit 445/702 3911Radeon 9550 256 MB 128 bit 499/702 4206
Radeon X700 256 MB 128 bit 398/534 5306GeForce 6600 128 MB 128 bit 299/548 5457
GeForce FX 5900 XT 128 MB 256 bit 400/702 5532Radeon X700 128 MB 128 bit 398/500 5679GeForce 6600 128 MB 128 bit 402/502 5931GeForce 6600 256 MB 128 bit 402/502 5939
- 201 -
Karta graficzna Wynik końcowy ProcesorRadeon X1300 Pro 256 MB 128 bit 600/800 5991 AMD Athlon 64 FX-57 (2,8 GHz)Radeon 9800 Pro 128 MB 256 bit 378/674 6090
Pentium 4 Extreme Edition 3,2 GHzRadeon X700 128 MB 128 bit 398/702 6260GeForce FX 5900 Ultra 256 MB 256 bit 450/850 6294
Karta graficzna Wynik końcowy ProcesorRadeon 9250 128 MB 64 bit 238/400 -
Pentium 4 Extreme Edition 3,2 GHz
Radeon 9250 256 MB 128 bit 238/400 -Radeon 9250 128 MB 128 bit 238/400 -
GeForce FX 5500 256 MB 64 bit 250/360 228GeForce FX 5500 128 MB 64 bit 270/360 257GeForce FX 5500 128 MB 128 bit 270/404 266GeForce FX 5500 256 MB 128 bit 270/370 281
Volari V8 128 MB 128 bitv 250/520 320GeForce FX 5700 LE 128 MB 128 bit 225/166 361
Radeon 9550 128 MB 64 bit 250/392 1012GeForce FX 5900 XT 128 MB 256 bit 400/702 1040
GeForce 6200 128 MB 64 bit 351/398 1153GeForce 6200 256 MB 64 bit 351/502 1165Radeon 9550 128 MB 128 bit 250/392 1207GeForce 6200 128 MB 64 bit 351/502 1234Radeon 9550 256 MB 128 bit 250/392 1235
GeForce FX 5900 Ultra 256 MB 256 bit 450/850 1243Radeon 9600 256 MB 128 bit 398/404 1695
Radeon 9800 SE 128 MB 256 bit 378/596 1700Radeon 9600 256 MB 128 bit 405/558 1719
Radeon 9600 Pro 128 MB 128 bit 398/592 1729Radeon 9600 256 MB 128 bit 432/500 1840Radeon 9550 256 MB 128 bit 445/702 2004GeForce 6600 128 MB 128 bit 299/548 2063GeForce 6600 256 MB 128 bit 301/502 2116Radeon 9550 256 MB 128 bit 499/702 2163
Accelerated Graphics Port (AGP, czasem nazywany Advanced Graphics Port) to rodzaj zmodyfikowanej magistrali PCI opracowanej przez firmę Intel. Jest to 32-bitowa magistrala PCI zoptymalizowana do szybkiego przesyłania dużych ilości danych pomiędzy pamięcią operacyjną a kartą graficzną.
AMD - Advanced Micro Devices – amerykańska firma produkująca procesory do komputerów PC, znana głównie z serii procesorów K6, K6-2, K6-III, Duron, Athlon XP, Athlon 64, Athlon 64 X2 i Athlon 64 FX, a także technologii 3DNow!. AMD to główny konkurent firmy Intel na rynku procesorów oraz czołowy dostawca nieulotnych pamięci Flash.
Firma została założona w 1969 przez grupę odeszłą z Fairchild Semiconductor, w tym Jerrego Sandersa. Obecnie spółka giełdowa notowana na Giełdzie Nowojorskiej (tzw. Wall Street).
Na rynku mikroprocesorów do komputerów klasy PC firma zaistniała dzięki uzyskanej od Intela licencji na produkcję procesorów 8086 i 8088. W 1986 roku Intel wycofał się ze współpracy, jednak AMD dzięki korzystnemu wyrokowi sądu mogła sprzedawać klony procesorów 80386, a później 80486 (Am486).
W lipcu 2006 AMD przejęło firmę ATI Technologies płacąc za nią 5,4 miliarda dolarów.
Artefakt - pojęcie w technikach komputerowych odnoszące się najczęściej do komputerowego tworzenia lub przetwarzania mediów (np. obrazu, dźwięku). Jest to wada będąca skutkiem ubocznymi zastosowania poszczególnych algorytmów.
ATI Technologies Inc. (gdzie ATI jest skrótem od Array Technologies Incorporated) - to kanadyjski producent układów scalonych, znany głównie ze swoich kart graficznych. Notowany na giełdach w Toronto i NASDAQ.
ATI udało się przełamać monopol NVIDII na akceleratory 3D do komputerów typu desktop, wprowadzając na rynek, jako konkurencję dla kart GeForce, karty graficzne serii Rage, a później dużo wydajniejsze Radeony. Około roku 2003 ATI zaczęło sprzedawać swoje chipsety do płyt głównych (mostki południowy/północny), a wcześniej dostarczała zintegrowane układy graficzne.
W lipcu 2006 ATI zostało przejęte przez firmę AMD za 5,4 miliarda dolarów. Intel przewidując wykupienie ATI przez AMD, konkurencyjne dla tej pierwszej, nie przedłużył licencji ATI na produkcję chipsetów dla swoich mikroprocesorów.
AVIVO - platforma wideo wprowadzoną przez firmę ATI w procesorach graficznych opartych na
- 205 -
rdzeniu R520. Platforma ta została zaprojektowana w celu rozszerzenia jakości i elastyczności aktualnie prezentowanych przez procesory graficzne ATI możliwości. Zaimplementowanymi w niej cechami są kodowanie i dekodowanie wideo (włącznie z kodekiem H.264, czyli standardem High Definition) wraz z dołączeniem odpowiedniego zestawu narzędzi. Dekoder wideo zastosowany w AVIVO automatycznie przerzuca obsługiwany format wideo i niezbędne kodeki do procesora graficznego, by odciążyć główny procesor komputera. Technologia kodowania wideo zaimplementowana w AVIVO nadal korzysta z zasobów CPU, jednak istnieją plany przerzucenia i tych funkcji do GPU. ATI udostępniło również oprogramowanie transkodujące "ATI AVIVO Video Converter", obsługujące wiele formatów i gęstości bitowych (bitrate) materiału. Oprogramowanie silnie bazuje na mocy obliczeniowej CPU, lecz można go używać wyłącznie z kartami graficznymi opartymi o procesory serii X1000. Modyfikacje powyższego programu udostępniły go użytkownikom innych rozwiązań sprzętowych. Technologia ATI AVIVO jest w fazie ciągłego rozwoju i w tej postaci będzie stale ulepszana w sterownikach ATI Catalyst.
Bajt (ang. byte) - najmniejsza adresowalna jednostka pamięci komputerowej, składająca się z bitów (ang. również bit od binary digit).
W praktyce przyjmuje się, że jeden bajt to 8 bitów, choć to nie wynika z powyższej definicji. Aby uniknąć niejednoznaczności, jednostka składająca się z ośmiu bitów zwana jest również oktetem. Bywa też że "bajt" definiuje się jako 8 bitów, najmniejszą adresowalną jednostkę pamięci nazywając znakiem.
Benchmark - test wydajności sprzętu komputerowego lub oprogramowania.
Istnieje wiele programów, które testują różne charakterystyki sprzętu komputerowego i oprogramowanie - moc pojedynczej maszyny, interakcje w systemie klient-serwer (z pojedynczym lub wieloma klientami) czy liczbę transakcji na sekundę w systemie przetwarzania transakcyjnego.
W miarę jak pojawiają się nowe wersje oprogramowania i sprzętu, zmieniają się składowe testy benchmarków i ich wagi w obliczaniu wyniku benchmarku - dlatego jednym z warunków uzyskania wiarygodnej oceny w testach porównawczych jest konieczność zastosowania tej samej wersji benchmarku.
BGA (ang. Ball Grid Array) – technologia wykonywania wyprowadzeń układów scalonych do obwodu drukowanego, polegająca na tym, że nóżki układu są wyprowadzone na jego spodniej stronie. Do obwodu lutuje się je powierzchniowo, używając kulek ze stopu lutowniczego i topnika.
- 206 -
Najczęściej lutuje się za pomocą nagrzewnicy która dmucha gorącym powietrzem.
Główną zaletą tej technologii jest ograniczenie miejsca zajmowanego przez układ scalony, wadą natomiast niewielka odporność powierzchniowej spoiny lutowniczej na wstrząsy i uderzenia.
BIOS - ang. Basic Input/Output System - podstawowe procedury wejścia-wyjścia) to zapisany w pamięci stałej, inny dla każdego typu płyty głównej komputera, zestaw podstawowych procedur pośredniczących pomiędzy systemem operacyjnym a sprzętem. Program konfiguracyjny BIOS-a to BIOS setup.
Program zapisany w pamięci ROM (Read Only Memory - pamięć tylko do odczytu) płyty głównej oraz innych urządzeń takich jak karta graficzna. W wypadku płyty głównej BIOS testuje sprzęt po włączeniu komputera, przeprowadza tzw. POST (akronim ang. "Power On Self Test"), zajmuje się wstępną obsługą urządzeń wejścia/wyjścia, kontroluje transfer danych pomiędzy komponentami takimi jak dysk twardy, procesor czy napęd CD-ROM. Inicjuje program rozruchowy. BIOS potrzebny jest w komputerach osobistych ze względu na architekturę płyt głównych, gdzie dzięki ACPI kontroluje zasilanie, a poza tym monitoruje temperaturę itp.
Bit (z ang. binary digit) – najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie prawdopodobnych stanów przyjął układ. Jednostka logiczna.
Jest to również najmniejsza jednostka informacji używana w odniesieniu do sprzętu komputerowego a oznaczana jest za pomocą „b”. Przeważnie stosuje się podstawowe przedrostki wielokrotności SI, czyli o mnożniku 1000.
Bit przyjmuje jedną z dwóch wartości, które zwykle określa się jako 0 (zero) i 1 (jeden), choć można przyjąć dowolną inną parę wartości, np. prawda i fałsz czy -1 i +1. W pierwszym przypadku bit jest tożsamy z cyfrą w systemie dwójkowym.
Binarny sposób zapisu informacji związany jest z tym, że komputer jako urządzenie elektroniczne rozpoznać może dwa stany prądowe:
● 0 – brak napięcia lub bardzo niskie (mniej niż 10% wartości wysokiego)● 1 – wysokie napięcie.
Bufor ramki (ang. frame buffer) jest częścią pamięci RAM karty graficznej przeznaczoną do przechowywania informacji o pojedynczej ramce obrazu. W buforze przechowywane są informacje o wartości każdego piksela tworzącego ramkę. Wartości pikseli zapisywane są w jednym lub więcej bitach, w zależności od wybranej dla karty graficznej ilości wyświetlanych kolorów. Stosowane są zapisy pikseli: jednobitowy (dla obrazu monochromatycznego), czterobitowy, ośmiobitowy (dla 256 kolorów), szesnastobitowy (tryb high color – dla 65,5 tys. kolorów) i dwudziestoczterobitowy (tryb true color – dla 16,7 mln kolorów).
- 207 -
Bufor Z (bufor głębokości) - wykorzystywany w systemach wyświetlających obrazy trójwymiarowe, przechowuje współrzędną Z (głębokość, odległość od obserwatora) dla każdego piksela obrazu. Stawianie pojedynczego piksela przebiega według algorytmu: jeśli współrzędna Z danego piksela jest mniejsza od współrzędnej Z zapisanej w buforze (piksel znajduje się bliżej obserwatora) można postawić piksel i uaktualnić wpis w buforze.
Dzięki temu uzyskuje się poprawny obraz, tzn. taki, w którym obiekty trójwymiarowe są prezentowane zgodnie z ich wzajemnymi relacjami przesłaniania.
CGA (ang. Color Graphics Adapter) – jeden ze standardów kart graficznych IBM-PC wprowadzony ok. 1981 roku.
Karta CGA posiada 16KiB pamięci i umożliwia wyświetlanie obrazu na monitorach czarno-białych lub kolorowych oraz na odbiornikach telewizyjnych. Może pracować w dwóch trybach:
● Znakowym – rozdzielczość wynosi albo 40×25 znaków dla odbiorników TV, albo 80×25 dla monitorów. Kolor każdego znaku oraz kolor tła są ustawiane indywidualnie: kolor znaku jest wybierany z palety 16. predefiniowanych barw, natomiast tło z palety 8. kolorów uzupełnionej o atrybut migania dający 16 kombinacji tła.
● Graficznym:○ 320×200, dostępne 4 kolory, możliwość wyświetlania na odbiorniku TV;○ 640×200, czarno-biały, możliwość wyświetlnia tylko na monitorze.
CrossFire™ - marketingowa nazwa technologii graficznej opracowanej przez firmę ATI . Dzieli ona obraz idący do pierwszej karty graficznej (Master) tak, że mniej więcej połowa (w zależności od konfiguracji) trafia do karty wspomagającej (Slave). Umożliwia to znaczne, aż do dwukrotnego, przyśpieszenia aplikacji 3D. Według ATI jej rozwiązanie jest w pełni kompatybilne ze wszystkimi tytułami gier oraz wszystkimi programami do obróbki grafiki 3D. Jest to odpowiedź na technologię SLI wprowadzoną przez firmę nVIDIA.
Technologia tą można użyć tylko na specjalnie przygotowanych do tego płyt głównych ze złączem ATI Xpress 200 CrossFire.
Częstotliwość - liczba cykli zjawiska okresowego występujących w jednostce czasu. W układzie SI jednostką częstotliwości jest herc (Hz). Częstotliwość 1 herca odpowiada występowaniu jednego zdarzenia (cyklu) w ciągu 1 sekundy.
DirectX - zestaw funkcji API wspomagających generowanie grafiki (dwu i trójwymiarowej), dźwięku oraz innych zadań związanych zwykle z grami i innymi aplikacjami multimedialnymi.
Ostatnia czysto 32-bitowa wersja DirectX 9.0c pochodzi z 13 grudnia 2004 roku i ma rozmiar tylko 33.6 MB. 64-bitowa wersja DirectX 9.0c ma już 60 MB i jest zbędna dla użytkowników 32-bitowych Windows.
- 208 -
Najczęściej wykorzystywane do obsługi grafiki w grach komputerowych. Używane również do pisania programów do specyficznych zadań z wykorzystaniem grafiki trójwymiarowej. DirectX jest produktem firmy Microsoft, dostępny tylko na platformę Windows oraz konsolę Xbox. Obecnie dostępna jest wersja DirectX 9.0c. Kolejna wersja, DirectX 10, ma zostać udostępniona wraz z premierą systemu operacyjnego Microsoft Windows Vista.
Dual-channel (dwukanałowa) – technologia stosowana w płytach głównych do wydajniejszej obsługi pamięci DDR SDRAM. Polega na podwojeniu przepustowości przesyłu danych przez magistralę łączącą pamięć RAM z mostkiem północnym (ang. northbridge), pełniącego rolę kontrolera pamięci. Technologia dual-channel wykorzystuje dwa 64-bitowe kanały, co razem daje kanał szerokości 128 bitów dla przesyłu danych pomiędzy pamięcią RAM a procesorem.
Technologia dual-channel wymaga umieszczania kości pamięci parami w skorelowanych ze sobą gniazdach (gniazda te na płycie głównej oznaczone są najczęściej odpowiednimi kolorami). Kości pamięci tworzące parę powinny być takie same. Możliwe jest także używanie podobnych pamięci różnych producentów, pod warunkiem, że są one tego samego rozmiaru i mają taką samą architekturę.
13.2. E-H
EGA (ang. Enhanced Graphics Adapter) – jeden ze standardów kart graficznych komputerów typu IBM-PC. Został opracowany w 1984 roku przez firmę IBM dla komputerów klasy IBM PC/AT. W porządku chronologicznym usytuowany między CGA a VGA.
FastWrite - tryb karty graficznej, w którym procesor przesyła dane graficzne bezpośrednio do karty, pomijając niepotrzebne buforowanie w pamięci operacyjnej. Uaktywnienie tego trybu wymaga zmian ustawień w BIOSie. Z funkcji FastWrite skorzystać mogą karty graficzne podłączane za pomocą AGP.
FPS – ang. Frames per second [‘freımz pə ‘sekənd] - liczba klatek na sekundę - to standardowa miara prędkości wyświetlania ruchomych obrazów - takich, jak np. w telewizji (stała FPS zależna od standardu nadawania), filmach odtwarzanych na komputerze (stała FPS zależna od sposobu zakodowania filmu) czy też w grach komputerowych i innych systemach generowania grafiki w czasie rzeczywistym (zmienna FPS zależna od wydajności sprzętu).
Niska FPS powoduje u widza wrażenie "skoków" obrazu. Wysoka FPS jest dla widza nieodróżnialna od płynnego ruchu. O ile dzięki przenikaniu się ze sobą kolejnych klatek, dla filmu nagranego kamerą takie wrażenie ma miejsce przy FPS ok. 20 i wyższym, to dla obrazu złożonego
- 209 -
z klatek zupełnie oddzielnych (np. w grach komputerowych) potrzebne jest FPS 30-60.
W wielu odtwarzaczach wideo jest podana aktualna liczba FPS i w opcjach niektórych gier jest też możliwość włączenia wyświetlania tej informacji.
GeForce - marka chipsetów graficznych dla komputerów osobistych sygnowanych przez firmę NVIDIA. Pierwsze produkty GeForce były przeznaczone dla wąskiej grupy społeczności graczy, lecz później firma rozszerzyła ofertę by zająć wszystkie poziomy rynku kart graficznych.
GeForce FX - piąta generacja procesorów graficznych z serii GeForce produkowanych przez firmę nVidia.
GeForce 8 - pierwszy na świecie procesor graficzny kompatybilny z DirectX 10 wprowadzony na rynek 8 listopada 2006 roku. W chwili obecnej (18 stycznia 2007) wszystkie karty graficzne wyposażone w ten procesor są konstrukcjami referencyjnymi firmy nVidia, różnią się tylko ceną i naklejką producenta. W przyszłości nVidia zamierza dopuścić konstruowanie przez producentów kart graficznych własnych kart opartych o ten procesor.
Najważniejsze cechy procesorów graficznych GeForce 8:
● Pierwszy na świecie procesor graficzny kompatybilny z DirectX 10● 384-bitowy (lub 320-bitowy - w kartach GTS) interfejs pamięci z zaawansowaną funkcją
kontroli● Połączenie jednostek Pixel Shader i Vertex Shader● Wsparcie dla Shader Model 4● Technologia NVIDIA GigaThread zwiększa możliwości wykorzystania procesora
graficznego● Stream out: Umożliwia programistom dodanie większej ilości detali bez ponownego
renderingu całych obiektów źródłowych Geometry Shaders● Silnik NVIDIA Lumenex zapewnia najwyższą jakość obrazu, oraz płynność przetwarzanych
klatek● Technologia NVIDIA Quantum Effects umożliwia obliczanie fizyki i interakcji obiektów w
trójwymiarowym świecie● Technologia NVIDIA PureVideo - wg. producenta poprawia jakość obrazu HD video,
płynność odtwarzania filmów oraz wierność kolorów
GPU - ang. Graphics Processing Unit, koprocesor graficzny - jest główną jednostką obliczeniową znajdującą się w nowych kartach graficznych. Jako pierwsza tego terminu użyła firma NVIDIA wprowadzając na rynek kart graficznych GeForce 256. To przełomowe wydarzenie dla akceleracji grafiki w systemach domowych miało miejsce 31 sierpnia 1999 roku, wcześniej systemy takie były dostarczane wyłącznie jako specjalizowane systemy profesjonalne. Głównym zadaniem GPU było wykonywanie obliczeń potrzebnych by uzyskać akcelerowaną grafikę 3D, spowodowało to odciążenie procesora CPU z tego zadania.
- 210 -
Grafika 2D - grafika dwuwymiarowa. Termin ten może się odnosić zarówno do działu informatyki zajmującego się grafiką dwuwymiarową i technikami dotyczącymi jej obróbki, jak i do samych obrazów cyfrowych mogących składać się z tekstu, grafiki oraz obiektów 2D.
Grafika dwuwymiarowa jest wykorzystywana głównie w tych zastosowaniach, w których pierwotnie używano tradycyjnych technologii drukowania oraz rysowania - m.in. typografii, kartografii, kreślarstwie, reklamie, filmie animowanym itp.
HDR - (ang. High Dynamic Range) - technologia generowania sceny w grafice trójwymiarowej, której efektem jest renderowanie świata z realistycznym oświetleniem. Największa różnica dostrzegana jest w bardzo ciemnych lub bardzo jasnych fragmentach sceny, gdzie symulowane jest natężenie światła wykraczające poza zakres możliwy do osiągnięcia na ekranie monitora (np. efekt oślepienia po spojrzeniu na słońce).
Technika ta pozwala oddać bardzo duże, oraz bardzo małe (mniejsze niż 1/256) natężenie światła oraz koloru. Siłą rzeczy technika ta jest wolna oraz zupełnie niewykonywalna na starszych kartach graficznych.
HDTV (ang. High Definition TV) - telewizja wysokiej rozdzielczości, jest standardem nadawania sygnału telewizyjnego, który zapewnia dużo bardziej szczegółowy obraz. Szczególnie przydatny na urządzeniach do odbioru o dużych przekątnych obrazu.
Istnieje kilka odmian systemu, podobnie jak odmienne jest na świecie nadawanie sygnałem analogowym. Pierwotnie wprowadzona w Japonii, gdzie wciąż cieszy się największą popularnością. Obecnie w Europie najbardziej popularna jest odmiana 1080i, nadawana cyfrowo (transmisja satelitarna bądź naziemna) w formacie 16:9.
Hercules Graphics Card (w skrócie Hercules lub HGC) - karta graficzna opracowana w 1982 roku przez firmę Hercules Computer Technology, Inc. Potrafił on wyświetlać tryb tekstowy zgodny z MDA, nowy 50 linii po 80 znaków i nowy tryb graficzny, czarno-biały 720x348 pikseli. Herkules odniósł spory sukces z powodu swojej kompatybilności z MDA oraz wysokiej, jak na tamte czasy, rozdzielczości. Innymi cechami, które pomogły HGC zdobyć popularność są o połowę mniejsze rozmiary w porównaniu z głównym konkurentem CGA oraz obecność portu drukarki tak jak w kartach MDA.
Popularność tych kart spowodowała, że HGC stał się standardem de facto, chociaż IBM nigdy go nie zaakceptował. Z powodu jej popularności zaczęły powstawać programy emulujące kartę CGA na Herkulesie (gry w tamtych czasach były pisane na konkretną kartę graficzną).
- 211 -
13.3. I-K
IBM – (ang. International Business Machines Corporation; potocznie zwany Big Blue, NYSE: IBM) – jeden z pierwszych i obecnie największych koncernów produkujących najpierw maszyny liczące i księgujące, potem komputery. Obecnie firma zajmuje się produkcją oprogramowania, a także zintegrowanymi usługami sieciowymi. Jej główną siedzibą jest Armonk w pobliżu Nowego Jorku.
Zatrudniając 329001 pracowników na całym świecie i osiągając dochody w wysokości 96,3 miliarda USD (dane z 2004 roku), IBM jest największą firmą branży informatycznej świata. Posiada przedstawicielstwa w 160 krajach. Jej akcje notowane są na New York Stock Exchange od 11 listopada 1915 roku.
Intel - Amerykański producent układów scalonych w tym: mikroprocesorów, pamięci RAM i Flash, mikrokontrolerów, układów peryferyjnych (w tym układów graficznych), a także urządzeń sieciowych. W latach 90. opanowała około 20% rynku światowego w tym zakresie. Sławę przyniosło jej wymyślenie i wyprodukowanie pierwszego mikroprocesora na świecie i4004.
ISA – (ang. Industry Standard Architecture - standardowa architektura przemysłu) to standard magistrali oraz łącza dla komputerów osobistych wprowadzony w roku 1984, jako rozszerzenie architektury IBM PC/XT do postaci szesnastobitowej. Służy do przyłączania kart rozszerzeń do płyty głównej.
13.4. L-N
Magistrala to zespół linii oraz układów przełączających służących do przesyłania sygnałów między połączonymi urządzeniami. W komputerach jest rodzajem "autostrady", którą dane przenoszą się pomiędzy poszczególnymi elementami komputera. Magistrala jest elementem, który sprawia, że system komputerowy staje się określoną całością.
Matrox - kanadyjska firma dostarczająca sprzęt i rozwiązania do obsługi grafiki (w tym karty graficzne i chipsety), edycji wideo oraz przetwarzania obrazów. Firma znana jest głównie z produkcji kart graficznych przez oddział firmy Matrox Graphics Inc. zwanym MGA.
MDA - (Monochrome Display Adapter) z ang. monochromatyczna karta graficzna. Często też nazywana Monochrome Display and Printer Adapter, MDPA.
Powstały w 1981 roku standard monochromatycznych kart graficznych wyświetlających obraz na
- 212 -
monitorze komputerowym oraz nazwa samej karty pracującej w tym trybie, opracowany przez firmę IBM.
Microsoft - największa na świecie firma branży komputerowej. Najbardziej znana jako producent systemów operacyjnych MS-DOS, Microsoft Windows i oprogramowania biurowego Microsoft Office.
Spółka publiczna z siedzibą w Redmond w stanie Waszyngton. Założona w 1975 roku przez Billa Gatesa i Paula Allena.
NVIDIA (nVidia) Corporation - amerykańska firma komputerowa, jeden z głównych producentów procesorów graficznych na świecie, a także dostawca kart graficznych i innych urządzeń komputerowych.
Założona została w styczniu 1993 roku przez Jen-Hsun Huanga, Chrisa Malachowsky'ego, i Curtisa Priema. Główna siedziba firmy mieści się w Santa Clara w stanie Kalifornia.
13.5. O-P
OpenGL - ang. Open Graphics Library - specyfikacja uniwersalnego API do generowania grafiki. Zestaw funkcji składa się z 250 podstawowych wywołań, umożliwiających budowanie skomplikowanych trójwymiarowych scen z podstawowych figur geometrycznych.
OpenGL wykorzystywany jest często przez gry komputerowe i wygaszacze ekranu, spełnia rolę analogiczną, jak konkurencyjny Direct3D (część DirectX) w systemie Windows firmy Microsoft. Również programy do przedstawiania wyników badań naukowych, CAD, oraz wirtualnej rzeczywistości używają OpenGL.
Overclocking - (ang. taktowanie z podwyższoną częstotliwością) - zwiększanie szybkości pracy lub wydajności sprzętu komputerowego, np. procesora, karty graficznej za pomocą odpowiedniego oprogramowania lub zmiany pewnych ustawień, osiągnięte przez podwyższenie częstotliwości pracy sprzętu powyżej częstotliwości nominalnej (znamionowej) ustalonej przez producenta. Popularny polski termin to podkręcanie. Poprzez overclocking można osiągnąć zadziwiające rezultaty np. procesor AMD Athlon XP-M 2500+ (1800 MHz) bez problemów może pracować jako 4000+ (2600 MHz), a część kart graficznych jak ATi Radeon 9800SE można przerobić na znacznie szybszą wersję np. w przypadku opisywanej karty na 9800PRO. Należy jednak pamiętać, że nie każdy egzemplarz będzie się tak podkręcał, jak np. opisany wcześniej Athlon XP-M 2500+. Nie należy też przesadzać z podkręcaniem starszego sprzętu, gdyż ustawienie zbyt dużej częstotliwości grozi spaleniem sprzętu poprzez przegrzanie. W nowszych (oparych np. o Socket 754, 939, AM2 czy też LGA775) wbudowane czujniki zapobiegają takiemu zdarzeniu. Ani procesory ani płyty
- 213 -
główne nie mają jednak zabezpieczeń przeciwko "śmierci" procesora przez zbyt wysokie napięcie, także przed zwiększaniem napięcia należy najpierw przeszukać fora internetowe o sprzęcie komputerowym pod kątem maksymalnego bezpiecznego napięcia dla danego procesora (dla różnych rdzeni procesorów są różne napięcia)
PCI (ang. Peripheral Component Interconnect) - magistrala komunikacyjna służąca do przyłączania urządzeń do płyty głównej w komputerach klasy PC.
Po raz pierwszy została publicznie zaprezentowana w czerwcu 1992 r. jako rozwiązanie umożliwiające szybszą komunikację pomiędzy procesorem i kartami niż stosowane dawniej ISA.
PEG (ang. PCI Express Graphics) - rozwiązanie firmy Asus, dokładnie PCI Express to najnowszy standard obsługi wejścia/wyjścia, opracowany w miejsce magistrali PCI.
Piksel (ang. pixel - wyraz utworzony ze zbitki dwóch angielskich słów: picture+element) jest to najmniejszy element obrazu bitmapowego. Jeden piksel to bardzo mały kwadrat (rzadziej: prostokąt) wypełniony w całości jednolitym kolorem. Piksel stanowi także najmniejszy element obrazu wyświetlanego na monitorze komputera. Tryb pracy monitora, a konkretnie jego rozdzielczość to właśnie liczba pikseli jakie zawiera on w pionie i poziomie.
Najczęstszym rozwiązaniem uzyskiwania różnych kolorów jest zastosowanie mieszania barw w systemie RGB (czerwony-zielony-niebieski). Obraz składa się z bardzo dużej ilości pikseli, których kolory mogą być niezależnie zmieniane. Każdy piksel składa się z trzech części świecących w kolorach: czerwonym, zielonym i niebieskim. Odpowiednie sterowanie intensywnościami tych składowych podpikseli powoduje powstanie wypadkowego koloru całego piksela. Kolorowi białemu odpowiada maksymalna intensywność świecenia wszystkich trzech składowych, kolorowi czarnemu - wszystkie podpiksele wygaszone.
Pixel Shader - programowalną jednostką odpowiadającą za wyliczanie koloru pikseli.
Podkręcanie - zmiana parametrów pracy układu elektronicznego do pracy z wyższymi parametrami niż wartości nominalne. Podkręcić można praktycznie wszystkie komponenty: procesor, pamięć RAM, kartę graficzną czy też chipset. W efekcie podkręcania, bez nakładów finansowych można zwiększyć wydajność komputera. Dwa identyczne układy elektroniczne mogą bardzo różnić się podatnością na podkręcanie, ze względu na różnice w ich strukturze. Podkręcone układy wymagają dobrego chłodzenia ze względu na większą ilość wydzielanego ciepła. W efekcie podkręcania można także doprowadzić do spalenia układu elektronicznego oraz przepalenia układu
- 214 -
zasilającego z powodu zwiększonego poboru mocy przez podkręcone podzespoły. Potocznie pojęć podkręcanie, overclocking i przetaktowywanie używa się zamiennie.
PPU - ang. Physics Processing Unit - układ scalony, który śledzi wszystkie zdarzenia fizyczne (zderzenia, eksplozje, zachowanie płynów itp.), zadaniem PPU jest odciążenie głównego procesora od obliczania wyników takich zdarzeń. Według założeń, układy tego typu mają być wykorzystywane w grach komputerowych. Niestety tytuły, które by czerpały z dobrodziejstwa układów PPU, pojawią się prawdopodobnie dopiero pod koniec roku 2006.
Procesor (ang. processor) nazywany często CPU (ang. Central Processing Unit) - urządzenie cyfrowe sekwencyjne potrafiące pobierać dane z pamięci, interpretować je i wykonywać jako rozkazy. Wykonuje on bardzo szybko ciąg prostych operacji (rozkazów) wybranych ze zbioru operacji podstawowych określonych zazwyczaj przez producenta procesora jako lista rozkazów procesora.
13.6. R
Radeon - marka procesorów graficznych wytwarzanych przez kanadyjską firmę ATI Technologies od roku 2000. Można je sklasyfikować na podstawie wersji sterownika DirectX, którą obsługiwały oraz na podstawie szybkości taktowania zegara pamięci i procesora oraz szerokości szyny danych między układem a pamięcią. Pierwowzorem układu Radeon był Tseng ET6300, do którego prawa firma ATI nabyła przejmując Tseng Labs w 1998, co umożliwiło skuteczną konkurencję z NVidią.
RAM (ang. Random Access Memory) - jest to podstawowy rodzaj pamięci cyfrowej zwany też pamięcią użytkownika lub pamięcią o dostępie swobodnym. Choć nazwa sugeruje, że oznacza to każdą pamięć o bezpośrednim dostępie do dowolnej komórki pamięci (w przeciwieństwie do pamięci o dostępie sekwencyjnym, np. rejestrów przesuwnych). Nazwa ta ze względów historycznych oznacza tylko te rodzaje pamięci o bezpośrednim dostępie, które mogą być też zapisywane przez procesor, a wyklucza pamięci ROM (tylko do odczytu), pomimo iż w ich przypadku również występuje swobodny dostęp do zawartości.
RAMDAC (ang. Random Access Memory Digital to Analog Converter) to jednoukładowa struktura układu scalonego na karcie graficznej, przeznaczona do przetwarzania sygnału obrazu zakodowanego cyfrowo na sygnał analogowy wyświetlany na ekranie monitora. Konwerter zawiera 4 funkcjonalne bloki: pamięć SRAM, służącą do przechowywania mapy kolorów, oraz 3 przetworniki cyfrowo-analogowe (C/A), po jednym dla każdego koloru podstawowego modelu RGB – czerwonego (R), zielonego (G) i niebieskiego (B).
Częstotliwość pracy układu RAMDAC zależy od aktualnie ustawionej na karcie grafiki
- 215 -
rozdzielczości i częstotliwości odświeżania, nie zależy natomiast od liczby wyświetlanych przez kartę kolorów. Wymagana częstotliwość taktowania przetwornika C/A wyliczana jest według wzoru:
fRAMDAC = k ∙ p ∙ l ∙ fH
gdzie:k = 1,34 p – liczba punktów w linii (rozdzielczość pozioma karty) l – liczba linii na ekranie (rozdzielczość pionowa karty) fH – częstotliwość odświeżania
Wymagana wielkość pamięci układu RAMDAC odpowiada wielkości bufora ramki (ang. frame buffer), czyli pamięci karty wideo potrzebnej do przechowywania pojedynczej klatki obrazu gotowej do wyświetlenia na ekranie monitora. Wyliczana jest według wzoru:
P = Rx ∙ Ry ∙ C
gdzie:P – wyliczana wielkość pamięci (w bajtach) Rx – rozdzielczość pozioma Ry – rozdzielczość pionowa
C – liczba bajtów potrzebnych do zapisania jednego piksela
RGB – jeden z modeli przestrzeni barw, opisywanej współrzędnymi RGB. Jego nazwa powstała ze złożenia pierwszych liter angielskich nazw barw: R – red (czerwonej), G – green (zielonej) i B – blue (niebieskiej), z których model ten się składa.
Jest to model wynikający z właściwości odbiorczych ludzkiego oka, w którym wrażenie widzenia dowolnej barwy można wywołać przez zmieszanie w ustalonych proporcjach trzech wiązek światła o barwie red, green, blue, czyli światła o odpowiedniej częstotliwości fali elektromagnetycznej.
Z połączenia barw RGB w dowolnych kombinacjach ilościowych można otrzymać szeroki zakres barw pochodnych, np. z połączenia barwy zielonej i czerwonej powstaje barwa żółta.
Model RGB miał pierwotnie zastosowanie do techniki analogowej, obecnie ma również do
- 216 -
cyfrowej. Jest szeroko wykorzystywany w urządzeniach analizujących obraz (np. aparaty cyfrowe, skanery) oraz w urządzeniach wyświetlających obraz (np. telewizory, monitory komputerowe). Zapis koloru jako RGB często stosuje się w informatyce (np. palety barw w plikach graficznych, w plikach html). Najczęściej stosowany jest 24-bitowy zapis kolorów, w którym każda z barw jest zapisana przy pomocy składowych, które przyjmują wartość z zakresu 0-255. W modelu RGB 0 oznacza kolor czarny, natomiast 255 kolor biały.
ROP - urządzenia w GPU renderujące wygenerowaną scenę, która wcześniej została stworzona przez wąsko wyspecjalizowane jednostki.
Rozdzielczość ekranu - jeden z parametrów trybu wyświetlania, parametr określający ilość pikseli obrazu wyświetlanych na ekranie w bieżącym trybie pracy monitora komputerowego, telewizora a także każdego innego wyświetlacza, którego obraz budowany jest z pikseli. Rozdzielczość wyraża się w postaci ilości pikseli w poziomie i w pionie.
Pojęcie rozdzielczości ekranu jest dość mylące, gdyż tak naprawdę nie jest to rozdzielczość wyświetlacza, lecz rozdzielczość obrazu na tym wyświetlaczu, a w większości urządzeń bieżący tryb wyświetlania można regulować skokowo wewnątrz określonego zakresu, którego granice, jak i poszczególne dostępne rozdzielczości powiązane są z budową urządzenia wyświetlająego, budową karty graficznej, wielkością pamięci na tej karcie oraz oprogramowaniem (sterownik karty, system operacyjny).
- 217 -
Odczucie zmiany wielkości obrazu w miarę wzrostu rozdzielczości jest wywołane tym, że zazwyczaj stałe elementy interfejsu systemu operacyjnego, takie jak ramki, ikonki etc. mają stałą wielkość w pikselach.
13.7. S
Shader - krótki program komputerowy, często napisany w specjalnym języku (shader language), który w grafice trójwymiarowej odpowiada za cieniowanie obiektów. Rozróżniamy Pixel, Vertex oraz Unified Shader.
SLI (Scan Line Interleave - Przeplot Skanowania Linii bądź Scalable Link Interface - Interfejs Skalowalnego Łącza) - technologia pozwalająca na skorelowanie pracy dwóch kart graficznych celem szybszego renderowania obrazu.
SLI po raz pierwszy zastosowana została przez nieistniejącą już firmę 3dfx w 1998 roku. Dwie karty Voodoo 2 połączone mostkiem renderowały naprzemiennie po jednej linii obrazu. Pozwalało to na bardzo duży (od 50% do 100%) skok wydajności w takich grach jak np Quake 2. W grudniu 2000 r. NVIDIA Corporation wykupiła 3dfx włączając patenty oraz własność intelektualną.
Technologia SLI wróciła w 2004 roku jako Scalable Link Interface. Dwie karty graficzne NVIDIA GeForce włożone w złącza PCI-Express 16x wspólnie generują obraz. Technologię tą wspierają tylko karty generacji 6.,7. I 8., a dzięki nowym sterownikom można używać kart bez mostka SLI. W tej chwili oficjalnie technologie SLI wspierają tylko płyty główne z chipsetem NVIDIA nForce4 Ultra. Ostatnio do grona czipów z SLI dołączył bardzo ciekawy ULI1695 posiadający obsługę SLI PCI-E oraz AGP. Z powodu ogromnego zapotrzebowania na prąd, zaleca się używanie minimum 500 watowych zasilaczy. Odpowiedzią ATI jest technologia CrossFire™.
Sterownik urządzenia - program lub fragment programu odpowiadający za dane urządzenie i pośredniczący pomiędzy nim a resztą systemu komputerowego. Zwykle uabstrakcyjnia pewne cechy urządzenia, choć może jedynie zajmować się kwestiami uprawnień dostępu i udostępniać urządzenie tak jak jest. Wtedy program który z niego korzysta też jest w pewnym sensie sterownikiem.
S3 (S3 Incorporated, S3 Graphics) - firma produkująca układy graficzne, znana z produktów S3 Trio, S3 Virge, S3 Savage, S3 DeltaChrome/Unichrome oraz innowacyjności, twórca technologii kompresji tekstur S3TC.
W 2000 roku S3 nieradząca sobie z konkurencją ze strony NVIDII została wykupiona przez koncern VIA. Obecnie producent głównie zintegrowanych kart graficznych, także dla notebooków. Próba odzyskania dawnej świetności przez wypuszczenie na rynek układów S3 DeltaChrome, zgodnych z DirectX 9, nie powiodła się głównie z powodu sterowników do karty które nie
- 218 -
osiągnęły poziomu tych dostarczanych przez NVIDIĘ i ATI. Dalsze produkty są przeznaczone na rynek chiński i amerykański. Nie wiadomo czy firma wróci na rynek europejski.
13.8. T-Z
Tekstura - w sensie ogólnym oznacza cechę powierzchni przedmiotu, wrażenie, które odczuwa się za pomocą dotyku. Teksturą nazywa się też charakterystyczne dla danego materiału powtarzalne wzory na powierzchni przedmiotów.
TMU – ang. Texture Mapping Unit, jednostka mapująca tekstury.
Tryb graficzny – tryb pracy karty graficznej, w którym jest ona zdolna do zmiany własności każdego piksela, w przeciwieństwie do trybu tekstowego, gdzie modyfikowane mogą być sztywno określone pola pikseli.
Obecnie większość komputerów po przeprowadzeniu testu POST przełącza się w tryb graficzny. Jeżeli system operacyjny pracuje w wierszu poleceń to jest on obecnie często realizowany również w trybie graficznym, a nie jak to miało miejsce dawniej w trybie tekstowym.
Ilość punktów (pikseli) na ekranie i ilość ich kolorów są zależne od możliwości sprzętowych karty graficznej. Parametry te zapisuje się poprzez podanie ilości możliwych do wyświetlenia punktów w poziomie i pionie oraz podanie ilości możliwych do wyświetlenia kolorów. Najczęściej ilości te są znormalizowane i ustandaryzowane. Przykładem może być standard VGA, który umożliwia wyświetlenie obrazu o parametrach 640x480x16 czyli 640 pikseli w poziomie, 480 pikseli w pionie oraz 16 różnych kolorów.
Tryb tekstowy – tryb pracy karty graficznej, w którym wyświetla ona znaki. Liczba kolumn i wierszy zależna jest od platformy – w komputerze osobistym IBM-PC standardowo jest to 25 wierszy i 80 kolumn. Obecnie większość komputerów po przeprowadzeniu testu POST przełącza się w tryb graficzny. Jeżeli system operacyjny pracuje w trybie tekstowym (np. DOS), to pozostaje w tym trybie.
W przeciwieństwie do trybu graficznego nie opisuje się każdego punktu ekranu, a pola o sztywno określonych wymiarach. W każdym polu może znajdować się znak/symbol z tzw. strony kodowej. W zależności od możliwości sprzętowych karty graficznej jest to ustawione na stałe bądź może być modyfikowane programowo.
TurboCache - technologia sprzętowo-programowa opatentowana przez nVidię, która umożliwia procesorowi GPU renderowanie bezpośrednio do pamięci systemu, a nie do pamięci karty
- 219 -
graficznej. Technologia ta zmniejsza zapotrzebowanie na pamięć na karcie graficznej.
Cechy architektury TurboCache:
● Technologie sprzętowe i programowe, pozwalające renederować bezpośrednio do pamięci systemowej.
● Inteligentne algorytmy programowe, zwiększają wydajność aplikacji.● Dwukierunkowa magistrala PCI Express w połączeniu z architekturą TurboCache, zwiększa
współczynnik cena/wydajność systemu graficznego.
Technologia TurboCache jest przede wszystkim przeznaczona na rynek ekonomiczny PC, do firm, notebooków itp.
Unified Shader – ujednolicona wersja Pixel i Vertex Shaderów zawarta w pakiecie DirectX 10.
WHQL - Windows Hardware Quality Labs, system certyfikacji zestawów oraz podzespołów komputerowych służący potwierdzeniu ich pełnej kompatybilności z systemami operacyjnymi rodziny Microsoft Windows.
ZS – ang. Z Samples Per Second, ilość odwołań do bufora Z w jednym cyklu pracy.
13.9. V
Vertex Shader - jednostką odpowiadającą za wyliczanie położenia wierzchołków wielokątów w przestrzeni. Jednostka Vertex Shader zastąpiła stosowaną wcześniej jednostkę T&L (Transformation & Lighting Engine).
VESA (Video Electronics Standards Association) - konsorcjum dla standaryzacji grafiki komputerowej. Organizacja, której celem jest opracowywanie i ujednolicanie standardów dla grafiki komputerowej, założona przez producentów układów wyświetlających dla komputerów (kart graficznych, monitorów itp.).
VESA Local Bus, (ang. Video Electronics Standards Association Local Bus, VL Bus, VLB) - 32-bitowa szyna danych opracowana przez VESA (Zrzeszenie do spraw Standardów Elektroniki Wideo).
System Local Bus pojawił się na rynku PC po raz pierwszy w połowie 1992 roku kiedy konsorcjum VESA ustaliło standardową specyfikację tej magistrali, nazywaną VL Bus.
- 220 -
VGA (ang. Video Graphics Array) – jeden ze standardów kart graficznych IBM-PC ustanowiony w 1987 roku. Karty VGA były po raz pierwszy montowane w komputerach serii IBM PS/2.
Karty VGA są zgodne z kartami EGA, a dokładniej funkcje VGA są nadzbiorem funkcji EGA. Niejako automatycznie karty VGA są zgodne z CGA i MDA.
Karty VGA posiadają 256kB pamięci, umożliwiają stosowanie trybów graficznych 16- lub 256-kolorowych. Maksymalna dostępna rozdzielczość w trybach znakowych to 720×480, natomiast w graficznych 640×480.
13.10. 0-9
3dfx Interactive (nazwa 3dfx pochodzi od angielskiego three dimensional effects - efekty trójwymiarowe. Wymowa effects jest podobna do fx) - firma produkująca akceleratory graficzne, następnie karty graficzne ze zintegrowaną akceleracją. Pod koniec roku 2000 doznała jednej z największych zapaści w dziejach przemysłu komputerów osobistych. Ostatecznie została wykupiona przez NVIDIĘ, która nie kontynuowała linii ani wsparcia produktów 3dfx. Siedzibą firmy było San José w Kalifornii. Pierwotna nazwa to 3Dfx Interactive (duża literka D), ale w 1999 roku została zmieniona na małą razem z pojawieniem się nowego logo firmy.
3DMark - aplikacja typu benchmark służącą do określania wydajności kart graficznych.
Został stworzony przez firmę Futuremark (Madonion do 2001r.) i z biegiem czasu stał się standardem w swojej dziedzinie.