Opredelitev grafično kartico

Grafična kartica, imenovana tudi grafična kartica (med drugimi imeni), je odgovorna za obdelavo podatkov, ki prihajajo iz glavnega procesorja (CPU ali UCP) in jih pretvori v informacije, ki jih je mogoče predstaviti v napravah, kot so monitorji in televizorji. . Treba je omeniti, da lahko ta komponenta predstavlja veliko različnih arhitektur, čeprav se običajno nanašajo na enak način, tudi če govorimo o video čipu, integriranem v matično ploščo; v slednjem primeru je pravilneje reči GPU (Graphic Processing Unit).

Video kartica

Od svoje zasnove so grafične kartice vključevale različne funkcije in funkcije, kot je možnost uglaševanja televizije ali zajemanja video posnetkov iz zunanje naprave. Pomembno je opozoriti, da ni komponenta, ki bi se uporabljala izključno v trenutnih računalnikih, ampak je obstajala že več kot štiri desetletja, danes pa je tudi nepogrešljiv del igralnih konzol, tako prenosnih kot domačih. .

Njegovo oblikovanje sega v konec desetletja 60-ih, čas, ko je uporaba tiskalnika ostala za vizualizacijo delovanja računalnikov in začela uporabljati monitorje . Sprva so bile resolucije majhne v primerjavi s tistimi, ki jih že pozna vsa visoka definicija. Zahvaljujoč raziskovalnemu in razvojnemu delu Motorola so značilnosti čipov postale bolj zapletene, njihovi izdelki pa so privedli do standardizacije imena video kartic.

Kot računalniki za osebno uporabo in prve konzole za videoigre so postali priljubljeni, zato je bilo odločeno, da se grafični čipi vključijo v matične plošče, saj je to omogočilo bistveno nižje proizvodne stroške. Na prvi pogled je to očitno pomanjkljivost: nezmožnost posodobitve opreme ; vendar so bili zaprti sistemi, ki so bili zgrajeni ob upoštevanju vsake od njihovih komponent, tako da je bil končni izdelek dosleden in je ponujal najboljšo možno zmogljivost.

Video kartica Treba je opozoriti, da se to danes dogaja s konzolami, in to je zaradi te vrste nespremenljive zasnove, ki po nekaj letih razvijalci dobijo rezultate, ki so veliko boljši od prvih poskusov; To ni mogoče na računalniku, čeprav močan, glede na to, da programska družba ne more upoštevati vseh možnih kombinacij strojev svojih potrošnikov. Poleg tega ima arhitektura računalnika šibke točke prav zato, ker so njeni deli medsebojno zamenljivi, pri čemer je najbolj opazna razdalja med pomnilnikom, grafično kartico in glavnim procesorjem.

V začetku 80. let se je IBM zanašal na zasnovo nepozabnega Apple II in naredil zamenljivo grafično kartico priljubljeno, čeprav je v njenem primeru ponudil možnost prikazovanja znakov na zaslonu . To je bil adapter z zmerno količino 4KB pomnilnika (trenutno lahko imajo 2GB, 512 krat več) in je bil uporabljen z monokromnim monitorjem. To je bila izhodiščna točka in izboljšave niso bile dolgo.

Nekaj ​​časa kasneje je IBM standardiziral izraz VGA, ki se nanaša na tehnologijo grafičnih kartic, ki lahko nudijo ločljivost 640 slikovnih pik široko in 480 metrov visoko, pa tudi monitorje, ki bi lahko predstavljali te slike in potreben priključek za njihovo. uporabo Po delu več podjetij, namenjenih izključno grafiki, je Super VGA (znana tudi kot SVGA ) videla svetlobo dneva, povečala razpoložljivo definicijo (na 1024 x 768) in število barv, ki jih je mogoče predstaviti hkrati ( od 16 barv v 640 x 480 je bil spremenjen na 256 v 1024 x 768).

Priporočena