Historia karty graficznej
Historia karty graficznej

Historia pecetowych kart graficznych sięga lat siedemdziesiątych, a konkretnie roku 1975, kiedy to firma IBM rozpoczęła sprzedaż swojego pierwszego komputera osobistego, IBM 5100. Urządzenie miało 16 kB pamięci operacyjnej, dane pobierało z taśmy, zaś z użytkownikiem komunikowało się wyświetlając na monitorze koślawe literki: 16 wierszy, po 64 znaki w każdym wierszu. IBM 5100 kosztował - bagatelka - "jedyne" 9000 USD.

 

12 sierpnia 1981 pojawił się następca 5100, komputer IBM 5150 Personal Computer (w skrócie: IBM PC), uznany za pradziadka dzisiejszych pecetów. Był to pierwszy komputer firmy IBM z procesorem Intela - szesnastobitowym 8088. Cechował się otwartą architekturą - umożliwiał instalację dodatkowych komponentów w postaci kart rozszerzeń ISA.

Jak na nowoczesny komputer przystało, 5150 został wyposażony w zaawansowany adapter graficzny, mający postać karty ISA: MDA (Monochrome Display Adapter). MDA wyświetlał obraz o rozdzielczości 720x350 punktów, jednak pracował tylko w trybie tekstowym. Wyświetlał na ekranie 25 wierszy tekstu, w każdym po 80 znaków.

MDA wyświetlał wyłącznie obraz dwukolorowy - biało-czarny, zielono-czarny lub bursztynowo-czarny (zależnie od zastosowanego monitora). Udostępniał ponadto specjalne efekty dla tekstu, jak rozjaśnienie oraz podkreślenie. Dane o wyświetlanym tekście MDA przechowywał w 4 kB własnej pamięci.

Wkrótce po premierze pierwszego peceta, IBM zaproponował swoją pierwszą "kolorową" kartę graficzną: CGA (Color Graphics Adapter), która, prócz tekstowego, oferowała także tryby graficzne. Urządzenie miało czterokrotnie więcej pamięci od MDA - "aż" 16 kB! Najpopularniejszy tryb graficzny to 320x200 przy czterech kolorach: białym, czarnym, różowym i jasnoniebieski lub źółtym, czarnym, zielonym i czerwonym.

W 1982 roku firma Hercules Computer Technology wprowadziła na rynek słynny adapter graficzno-tekstowy: Hercules Graphics Card (HGC), znany jako po prostu "Hercules". Udostępniał tryb tekstowy zgodny z MDA (80x25 znaków) oraz wysokorozdzielczy, monochromatyczny tryb graficzny 720x348 punktów.

Dwa lata później IBM zaprezentował pierwszą, naprawdę przyzwoitą kartę graficzną: EGA (Enhanced Graphics Adapter) z 64 kB pamięci, rozszerzalnej do 256 kB. EGA była zgodna zarówno z CGA, jak i MDA oraz wprowadziła dwa nowe tryby graficzne: 320x200 i 640x350, przy których potrafiła wyświetlić jednocześnie aż 16 kolorów (z 64-kolorowej palety).

Rok 1987 można uznać za przełomowy. Wtedy to ukazała się karta graficzna z prawdziwego zdarzenia: VGA (Video Graphics Array), przeznaczona dla standardowej magistrali ISA. Była zgodna wstecz ze wszystkimi poprzednimi standardami: MDA, CGA i EGA (ale nie Hercules!) i miała 256 kB lokalnej pamięci. Wyprowadzała analogowy sygnał wideo, dzięki czemu uzyskiwała znacznie większą paletę kolorów, niż cyfrowe EGA i CGA. Oferowała tryb tekstowy 80x25 znaków (literki mogły być wyświetlane w 16 kolorach), oraz dwa nowe tryby graficzne: 320x200 przy 256 kolorach (dostępnych z 18-bitowej palety, a więc 262.144 barw!) oraz 640x480 przy 16 kolorach (dostępnych z tej samej palety).

VGA oraz jej klony zdobyły niezwykłą popularność. Po dziś dzień często spotkać się możemy z określeniem "VGA" dla kart graficznych, nawet tych najnowszej generacji. Obecnie skrót VGA rozwijany jest bowiem jako Video Graphics Adapter - graficzny adapter wideo.

Szybko możliwości VGA okazały się niewystarczające. Dlatego niezależni producenci zaczęli wytwarzać własne karty graficzne, zgodne na poziomie sprzętowym z VGA, jednak wprowadzające nowe tryby graficzne: 800x600, 1024x768, a nawet 1280x1024. Prostsze modele, które miały tylko 256 kB pamieci, wyświetlały tryb 640x480 w 256 kolorach, zaś pozostałe tryby o wyższej rozdzielczości wyświetlały jedynie w 16 lub nawet tylko dwóch kolorach. Jednak mocniejsze karty, z 512 a nawet 1024 kB pamięci, potrafiły wyświetlić nawet rozdzielczość 1024x768 w 256 kolorach, a 1280x1024 przy 16 kolorach.

Wszystkie karty określone zostały przez swych producentów ogólnym mianem SVGA (Super VGA). Niestety, IBM po wprowadzeniu na rynek XGA, zarzucił prace nad VGA, w efekcie czego nikt poczynań niezależnych producentów kart graficznych nie kontrolował. Poza trybami VGA, SVGA nie był standardem: aplikacja napisana dla karty SVGA firmy Oak nie działała poprawnie na karcie SVGA firmy Trident czy Western Digital. By zaradzić temu problemowi, najwięksi producenci kart graficznych i monitorów utworzyli organizację VESA (Video Electronics Standards Association). VESA rozpoczęła proces standardyzacji wszystkich kart graficznych, by umożliwić im zgodność ze sobą. Powstały rozszerzenia VESA BIOS Extension, opisujące dodatkowe tryby graficzne.
Narodziny VLB i PCI

Następnym krokiem rozwoju kart graficznych była zmiana ich magistrali. 16-bitowa magistrala ISA, z której korzystały wszystkie karty graficzne po SVGA włącznie, szybko okazała się bardzo wąskim gardłem. Jej szczytowa przepustowość, ok. 16 MB/s, to zbyt mało dla zastosowań graficznych.

Dlatego organizacja VESA rozpoczęła pracę nad rozszerzeniem magistrali ISA do 32-bitów, dzięki czemu zwiększona miała być jej przepustowość. Tak powstała magistrala VESA Local Bus (VLB), której zaletą - tak się przynajmniej w tamtym czasie wydawało - była możliwość instalacji starszych kart ISA.

W tym czasie Intel rozpoczął pracę nad własną magistralą, PCI (Peripheral Component Interconnect), zupełnie niekompatyblną z ISA (w przeciwieństwie do VLB). PCI to 32-bitowa magistrala zgodna ze standardem Plug&Play, oferująca przepustowość rzędu 132 MB/s.

Choć w pojedynku PCI kontra VLB sukces wróżono magistrali VESA, ku zaskoczeniu wielu bitwę wygrała szyna PCI. Ta przetrwała zresztą do dnia dzisiejszego, a złącza PCI znajdziemy praktycznie na wszystkich współczesnych płytach głównych.

Nowa magistrala otworzyła nowe pole do popisu producentom kart graficznych. Ci zaczęli prześcigać się osiągami swoich akceleratorów. Kolejne karty miały coraz więcej pamięci, 32-bitowe układy graficzne zostały zastąpione 64-bitowymi, poszerzano paletę funkcji umożliwiających kartom wspomaganie w rysowaniu grafiki. Kolejnym krokiem był już...



Skok w trzeci wymiar

Jedną z pierwszych kart graficznych z funkcjami wspomagającymi, prócz grafiki płaskiej, także grafikę trójwymiarową (3D - three-dimensional), była Matrox Millennium. Zdolna była tworzyć w obrębie własnej pamięci dodatkowy bufor trzeciej współrzędnej Z ("w głąb" ekranu). Dodatkowo Millennium potrafiła cieniować obiekty trójwymiarowe metodą Gourauda.

W 1993 roku na rynku pojawiła się firma NVIDIA. W 1995 roku zaprezentowała swój pierwszy procesor, NV1, który do palety funkcji 3D dołączył także możliwość sprzętowego nakładania tekstur. Pierwsza karta oparta o NV1, Diamond Edge 3D, była naprawdę ciekawym produktem. Znacząco przyspieszała tworzenie grafiki 3D, jednak ze względu na wysoką cenę, dziesięciokrotnie wyższą od ceny "zwykłej" karty graficznej PCI oraz niestandardowy sposób nakładania tekstur, nie zyskała dużej popularności.

W wakacje 1995 roku Microsoft zaprezentował system Windows 95. To pierwsze "okienka", które zachęciły producentów gier do porzucenia systemu DOS jako platformy rozrywkowej, w czym zresztą pomogło wprowadzenie interfejsu DirectX w 1996.
R E K L A M A
 

Pierwszy tani układ graficzny 2D/3D, ViRGE (Video and Rendering Graphics Engine), wprowadziła pod koniec 1995 roku firma S3. Oferował on możliwości akceleracji grafiki 2D (dwuwymiarowej) na poziomie Matroksa Millennium, a dodatkowo do funkcji 3D dodał niezwykle istotną: filtrowanie dwuliniowe (bilinear filtering). Prócz tego ViRGE tworzył grafikę trójwymiarową z 16-bitową paletą kolorów (65.536 barw) i potrafił dodawać efekty atmosferyczne (mgła, dym). Niestety zamiast przyspieszać grafiki 3D potrafił ją nawet spowalniać, więc szybko przylgnęło do niego miano "deceleratora". Niemniej to właśnie ViRGE znalazł swoje zaszczytne miejsce w historii kart graficznych, gdyż jako pierwszy wprowadził trzeci wymiar pod strzechy.
Rok 1996 fani komputerów zapamiętali jako pojedynek układów PowerVR korporacji NEC/VideoLogic oraz Voodoo Graphics mało wówczas znanej firmy 3Dfx.

Chociaż początkowo wróżono 3Dfx porażkę (układ PowerVR był bardziej zaawansowany technologicznie), to jednak ostatecznie pojedynek wygrał właśnie 3Dfx Voodoo Graphics. Miał postać karty rozszerzeń PCI. Znajdowały się na niej dwa układy graficzne: 3Dfx TexelFX i 3Dfx PixelFX, a także 4 MB pamięci EDO DRAM. Voodoo wspomagał jedynie grafikę trójwymiarową, zatem do pracy wymagał obecności w komputerze także "zwykłej" karty graficznej zgodnej z VGA.

Voodoo Graphics robił porażające wrażenie na każdym entuzjaście komputerów. Nie dość, że kilkukrotnie przyspieszał szybkość generowania grafiki, to jeszcze oferował rewelacyjną jak na ówczesne czasy jakość obrazu i podniósł rozdzielczość w grach z 320x200 do 640x480.

AGP - następca PCI, ale wyłącznie dla kart graficznych

Magistrala PCI szybko przestała być wystarczająca dla kart graficznych. Rozwiązaniem problemu okazało się nowe złacze, AGP (Accelerated Graphics Port), którego specyfikację ogłosił Intel pod koniec 1996 roku. AGP to magistrala wyłącznie dla kart graficznych (w przeciwieństwie do PCI - szynie ogólnego zastosowania), o przepustowości dochodzącej nawet do 0,5 GB/s.

Na początku 1997 firma NVIDIA, o której wówczas nadal było cicho, zaprezentowała układ RIVA 128 (Realtime Interactive Video and Animation), który zatrząsł rynkiem kart graficznych. Stanowił zintegrowany akcelerator grafiki 2D (zgodny z VGA) oraz trójwymiarowej. W testach Direct3D był nawet szybszy od Voodoo, jednak nie oferował aż tak dobrej jakości obrazu.

RIVA 128 była układem, który rozpoczął trwającą przez kilka lat wojnę między NVIDIĄ a 3Dfx. Wojnę, która miała tragiczny finał dla 3Dfx. Ale o tym za chwilę.

W 1998 roku na półki sklepowe trafiły akceleratory 3Dfx Voodoo2, dostępne w dwóch wersjach, z 8 i 12 MB pamięci. Pojedyncza karta Voodoo2 była dwukrotnie szybsza od RIVY 128 w grach 3D. Dodatkowo wydajność Voodoo2 można było podwoić poprzez instalację dwóch kart tego typu w komputerze i połączenie ich w tzw. tryb SLI (Scan Line Interleave). Akronimu "SLI" używa obecnie NVIDIA na określenie pracy kilku akceleratorów z układami GeForce.

Odpowiedzią na Voodoo2 była NVIDIA RIVA TNT (TwiN Texel), zaprezentowana też w 1998. Zanim karta pojawiła się na rynku, NVIDIA sugerowała, że TNT jest trzykrotnie szybsza od Voodoo2 SLI. W ostateczności okazało się, że RIVA TNT dorównuje wydajnością pojedynczej karcie Voodoo2, co i tak było bardzo dobrym wynikiem.

Także w 1998 roku firma S3, wówczas jeszcze czołowy (i bardzo znany) producent układów graficznych, wprowadziła układ Savage3D, którego charakterystyczną funkcją była technika kompresji tekstur S3TC (S3 Texture Compression). Problemy produkcyjne sprawiły, że Savage3D nie zyskał nigdy większej popularności, tak samo jak jego następca, zaprezentowany rok później Savage4.

W roku następnym, obaj liderzy na rynku kart graficznych starli się ponownie. Orężem NVIDII był układ RIVA TNT2, który musiał się przeciwstawić 3dfx Voodoo3 (w międzyczasie 3dfx przeszła rebranding i zmieniła w nazwie literkę "d" z dużej na małą).

Późnym latem 1999 NVIDIA wprowadziła układ graficzny GeForce 256. "Ge" to skrót od "Geometry", "Force" oznacza siłę, a "256" podkreśla, iż architektura GF256 jest 256-bitowa. Nazwa GeForce przetrwała zresztą do dziś.

GeForce 256 był pierwszym konsumenckim układem graficznym, który został wzbogacony o procesor zajmujący się oświetleniem i transformacjami geometrycznymi (T&L Engine - od "Transform & Lighting Engine). Wraz z GeForce 256 zadebiutował termin GPU (Graphics Processing Unit), czyli Jednostka Przetwarzania Grafiki, analogicznie do CPU (Central Processing Unit), którym to mianem określa się procesor komputera.

Niedługo po premierze GeForce, firma 3dfx wprowadziła karty Voodoo4 i Voodoo5, zbudowane z wykorzystaniem nowego układu graficznego VSA-100 (Voodoo Scalable Architecture). To pierwszy układ 3dfx, który potrafi tworzyć grafikę trójwymiarową z 32-bitową paletą barw. Nie został on jednak wyposażony w jednostkę T&L. W VSA-100 skupiono się za to na pełnoekranowym wygładzaniu krawędzi (Full-Screen Anti-Aliasing - FSAA).

Także pod koniec 1999 roku S3 wprowadziła do sprzedaży swój pierwszy układ wyposażony (teoretycznie) w sprzętową jednostkę T&L - Savage 2000. Procesor zbudowany był z dwukrotnie mniejszej liczby tranzystorów niż GeForce 256, a teoretycznie oferował podobne możliwości. Wszystkich analityków i recenzentów dziwiło więc, jak inżynierom S3 udało się upchnąć w układzie kompletny zestaw funkcji dostępnych w konkurencyjnym układzie NVIDII. Niestety Savage 2000 obarczony był poważnym problemem: wadliwymi sterownikami. Pierwsza wersja w ogóle nie udostępniała możliwości włączenia jednostki T&L. Gdy już stosowne drivery się ukazały, aktywacja T&L powodowała pojawienie się szeregu błędów w generowanej grafice, przy praktycznie zerowym przyroście wydajności. Firmie S3 nie udało się nigdy wprowadzić działających sterowników dla Savage 2000, więc do dziś nie wiadomo, czy jednostka T&L była w ogóle sprawna.

Na początku 2000 roku ATI zaprezentowała układ o kodowej nazwie R100 (znany też jako Rage 6), następcę popularnego chipu Rage 128. Układ otrzymał nazwę Radeon 256 (później przyrostek "256" porzucono, by nie mylić układu z GeForce 256) i był pierwszym chipem ATI oferującym sprzętową jednostkę T&L. Dział marketingu ATI starał się unikać użytego przez NVIDIĘ określenia GPU i próbował wprowadzić własny akronim dla nowego układu - VPU (Visual Processing Unit). Skrót ten jest jednak dziś praktycznie niespotykany, w przeciwieństwie do GPU, który zyskał bardzo dużą popularność.

Radeon 256 był pierwszym układem noszącym nazwę Radeon. Przetrwała ona do dziś.

Nowy chip ATI trafił początkowo na karty z najwyższej półki, dostępne w dwóch wariantach - z 32 MB pamięci DDR i 64 MB pamięci DDR. Ta druga wersja była trochę wyżej taktowana. Układ stosowany na tych kartach, po wspomnianym usunięciu przyrostka "256", zaczęto określać mianem Radeon DDR. W lecie 2000 ATI wprowadziła także karty Radeon SDR, z tańszymi pamięciami SDR.

NVIDIA nie dała sobie jednak ani chwili wytchnienia i mniej-więcej w tym czasie, gdy ATI wprowadzała swojego Radeona, zaprezentowała kości GeForce2 GTS oraz GeForce2 MX. GeForce2 GTS (Giga Texel Shader) to nowy, flagowy produkt NVIDII. Karty z tym układem dostępne są wyłącznie z pamiecią DDR, której mają albo 32, albo 64 MB. We wrześniu zostały uzupełnione przez odmianę GeForce2 Ultra, o 25% szybszą od modelu GTS. GeForce2 MX to z kolei wolniejszy brat GTS, oferujący te same, nowe funkcje.

Upadek 3dfx

Rok 2000 był niestety tragicznym dla 3dfx. Firma miała problemy z wprowadzeniem na rynku układu Rampage (nad którym pracowała od 1998 roku) i na jesieni jasne już było, że producent Voodoo upada. Wreszcie wierzyciele 3dfx wnieśli o upadłość firmy. W grudniu własności intelektualne oraz część pracowników 3dfx (w tym grupa pracująca nad Rampage) zostały przejęte przez firmę NVIDIA.

W roku kolejnym (2001) pojawił się GeForce3. Istotną nowością było zintegrowanie w układzie programowalnych jednostek cieniowania pikseli (Pixel Shader) oraz programowalnych jednostek przetwarzających geometrię i oświetlenie (Vertex Shader). Te ostatnie to następca T&L.

Na układ GeForce3 firma ATI odpowiedziała procesorem Radeon 8500, który pojawił się pół roku później. Wraz z nim zadebiutował jego młodszy brat, Radeon 7500, czyli odświeżona wersja Radeona 256.

Także w 2001 roku na rynku pojawiły się układy PowerVR KYRO i KYRO II, produkowane przez STMicroelectronics (pod nazwami kodowymi - odpowiednio - STG4000 i STG4500). Wykorzystywały trzecią generację architektury PowerVR i miały konkurować z kartami GeForce2 GTS i Radeon DDR, jednak ze względu na problemy ze sterownikami, w wyniku których w wielu grach pojawiały się błędy w renderingu, nie zyskały większej popularności na rynku. Nawet wprowadzony pod koniec roku 2001 KYRO II SE (STG4800) nie zmienił niestety złej sytuacji PowerVR. Był to zresztą ostatni układ PowerVR dla pecetowych kart graficznych - chip czwartej generacji (STG5000), wyposażony w sprzętową jednostkę T&L, nigdy nie trafił do sprzedaży.

Na początku 2002 roku NVIDIA wprowadziła czwartą generację GeForce, obejmującą układy GeForce4 Ti 4600, Ti 4400 i Ti 4200 (ten ostatni pojawił się jednak z paromiesięcznym opóźnieniem). Potężny Ti 4600 bez problemu poradził sobie z Radeonem 8500, który mógł jedynie toczyć walkę z najtańszym Ti 4200.

Wraz z Geforce4 Ti NVIDIA zaprezentowała także tanią rodzinę układów GeForce4 MX, obejmującą układy MX 420, MX 440 oraz MX 460. Mimo cyfry „4" w nazwie, układy te swoimi możliwościami były bardzo zbliżone do GeForce2 (nie miały np. jednostek Pixel i Vertex Shader!).

W połowie 2002 roku na rynku pojawiły się karty Matrox Parhelia 512. Wykorzystywały 512-bitowy układ graficzny, który miał zapewnić firmie Matrox powrót na rynek kart graficznych dla graczy. Parametry karty robiły naprawdę wrażenie: była pierwszą o 256-bitowej szynie danych do pamięci, udostępniała szereg nowych funkcji 3D (m.in. mapowanie przemieszczeń, zaawansowany system wygładzania krawędzi) i umożliwiła jednoczesne podłączenie aż trzech monitorów. Gdy jednak pierwsze karty trafiły w ręce recenzentów, okazało się, że jej wydajność jest - delikatnie mówiąc - rozczarowująca. Niska wydajność i bardzo wysoka cena (ponad 2000 zł) spowodowały, że Parhelia nigdy nie zainteresowała graczy.

W wakacje 2002 roku, tuż przed startem naszego portalu, ATI przeprowadziła kontratak. Wprowadziła do sprzedaży układy graficzne Radeon 9700 Pro, wyposażone w jednostki Pixel Shader 2.0 oraz Vertex Shader 2.0. Jednostki te czyniły Radeona 9700 Pro pierwszym procesorem graficznym na rynku zgodnym z DirectX 9.0.

NVIDIA miała duże problemy z odpowiedzią. Jej zgodny z DirectX 9.0 układ GeForce FX 5800 Ultra, rywal Radeona 9700 Pro, spóźnił się pół roku i na rynek trafił dopiero na początku roku 2003. Na dokładkę nie szokował wydajnością, a w wyniku głośnych afer z optymalizacjami sterowników dla 3DMark05 do dziś cieszy się złą sławą (jak cała seria GeForce FX).

Tuż po premierze GeForce FX 5800 Ultra ATI wprowadziła układy Radeon 9800 Pro oraz Radeon 9600 Pro. Oba zyskały dużą popularność, zwłaszcza ten drugi, który w wielu sklepach bez problemu można kupić do dziś.

Także NVIDIA zaprezentowała tańsze odmiany GeForce FX 5800 Ultra, GeForce FX 5600 i "słynny" GeForce FX 5200, bohater wielu żartów i docinek. Jego wydajność w trybach 3D była porażająco niska, chociaż parametry techniczne robiły wrażenie, w dodatku producenci kart z FX 5200 chwalili się "pełną sprzętową zgodnością z DirectX 9.0".

Kilka miesięcy później NVIDIA wprowadziła chip GeForce FX 5900, który zastąpił nieudanego GeForce FX 5800. ATI z kolej zaprezentowała przyspieszonego Radeona 9800 Pro, oznaczonego symbolem Radeon 9800 XT. NVIDIA podkręciła swojego FX 5900 i wprowadziła na rynek jego przyspieszoną odmianę, GeForce FX 5950. Układ był ostatnim członkiem rodziny GeForce FX dla portu AGP.

Rok 2004 przyniósł duże zmiany. O ile dotychczas kolejne modele kart graficznych były o kilkanaście do kilkudziesięciu procent wydajniejsze od swoich poprzedników, o tyle w 2004 zaznaliśmy aż dwukrotnego skoku wydajności, za sprawą kart Radeon X800 XT Platinum Editon oraz GeForce 6800 Ultra. GeForce w dodatku był pierwszym układem o jednostkach Pixel Shader 3.0 i Vertex Shader 3.0, co czyniło go zgodnym z najnowszą specyfikacją Shader Model 3.0, będącą składnikiem DirectX 9.0c.
 
Właściciel tej strony nie aktywował dodatku "Toplista"!
 
Ta strona internetowa została utworzona bezpłatnie pod adresem Stronygratis.pl. Czy chcesz też mieć własną stronę internetową?
Darmowa rejestracja