Komputer
Uniwersalny system cyfrowy zdolny do wykonywania pewnego zbioru rozkazów (różnorodnych operacji elementarnych), w którym użytkownik może określić sekwencję wykonywanych rozkazów konieczną do realizacji postawionego zadania.
Głównymi częściami składowymi komputera są: procesor, pamięć operacyjna, w której jest zapisany program określający sekwencję wykonywanych operacji oraz dane do przetworzenia oraz układy wejścia-wyjścia do których są przyłączone urządzenia zewnętrzne umożliwiające kontakt komputera z otoczeniem i użytkownikiem. Istotną cechą komputera, odróżniającą go od innych systemów cyfrowych, jest możliwość zupełnej zmiany realizowanych przez niego funkcji jedynie przez zmianę programu w jego pamięci.
PC - Personal Computer - komputer osobisty, rodzaj komputera przeznaczony dla pojedynczego użytkownika. Początkowo komputery były dużymi urządzeniami przeznaczonymi tylko dla poważnych instytucji. W latach 80-tych nastąpił rozwój małych komputerów do prywatnego użytku, takich jak 8-bitowe Atari czy Commodore a także pierwsze Macintoshe firmy Apple i komputer XT produkowany przez IBM. Nazwa PC oznacza przede wszystkim komputery kompatybilne z IBM PC (XT i późniejsze modele).
Procesor
(ang. Central Processing Unit) jednostka arytmetyczno-logiczna, popularnie zwana sercem komputera. To ten zespół jest odpowiedzialny za nadzorowanie i wydawanie rozkazów innym podzespołom. Wszystkie współczesne procesory mają podobną architekturę oparta na superskalarnym jądrze RISC (architektura procesora o uproszczonej liście rozkazów). Jeszcze kilka lat temu procesory zaliczano do rodziny CISC (architektura procesora wykorzystującą złożoną listę rozkazów). Dzisiaj, dzięki zastosowaniu w nich techniki przekodowywania rozkazów, uzyskano ogromne zwiększenie wydajności procesora, a konstrukcja RISC umożliwia stosowanie wysokich częstotliwości zegara.
Pierwszy mikroprocesor Intel 4004, pokazany w wersji produkcyjnej w listopadzie 1971 roku był wykorzystywany w kalkulatorach. Dalszy rozwój procesorów przebiegał błyskawicznie zgodnie z prawem Moore'a, mówiącym o podwajaniu się co, rok upakowania układów mikroprocesorowych - mierzonego w bitach na cal kwadratowy. W wyniku łańcucha zbiegów okoliczności jednostką centralną PC stał się procesor Intela - i8088, a od jego pierwowzoru o symbolu 8086, procesory dla Standardu PC otrzymały wspólną nazwę "x86". Z czasem nazwą tą obdarzono listę instrukcji i8086, z którą musiał być zgodny każdy z ewentualnych naśladowców. Chętnych do produkcji procesorów x86 było wielu. Początkowo były to produkcje licencyjne, różniące się od intelowskiego oryginału, co najwyżej częstotliwością zegara. Dopiero na poziomie piątej generacji PC pojawiła się rzeczywista konkurencja - procesory konstruowane samodzielnie przez różnych producentów, zachowując z intelowskim pierwowzorem zgodność jedynie na poziomie modelu programistycznego. W procesorowy biznes włączyły się intensywnie takie firmy jak Cyrix, NexGen i AMD (który zresztą kupił firmę NexGen i wykorzystał jego rozwiązania w procesorze K6). Konstrukcje AMD i Cyrixa, chociaż widoczne na rynku, nie stanowiły dla Intela poważniejszej konkurencji. Szansą dla procesorów alternatywnych stała się platforma Socket 7 - porzucona przez Intela infrastruktura czekająca na nowe, mocniejsze procesory, okazała się polem do popisu. Przede wszystkim dla AMD - procesor K6 zdobył sobie zasłużoną popularność, a K6-III swoją wydajnością "przebił" procesory Pentium II Intela. Potężną bronią Intela przeciwko konkurencji stał się Celeron - pomyślany jako "Pentium II dla ubogich", po niezbyt efektownym debiucie odniósł, już w postaci wyposażonej w pamięć cache wersji "A", oszałamiający sukces, dzięki wyjątkowo korzystnej relacji między wydajnością i ceną. Wszystkie bez wyjątku procesory alternatywne emulują działanie Pentium przy użyciu wbudowanego wewnętrznego procesora RISC. Rozwiązania superskalarne, pozwalające na wykonywanie przez procesor w jednym cyklu więcej niż jednej instrukcji, pojawiły się wraz z procesorem Pentium. Następnym krokiem w dalszym rozwoju architektury stało się zastosowanie przetwarzania potokowego. To właśnie potokowa architektura jednostki zmiennoprzecinkowej Pentium II sprawiła, że wydajność tego procesora w operacjach zmiennoprzecinkowych stała się na długo niedościgłym wzorem dla konkurencji. Dalszym krokiem w rozwoju konstrukcji procesorów, wynikającym z rozpowszechnienia architektury superskalarnej, stało się wprowadzenie techniki nie kolejnego wykonywania instrukcji - tzw. architektury hiperskalarnej wykorzystanej w najnowszym procesorze AMD "Athlon". W publikacjach dotyczących nowych układów scalonych, najczęściej właśnie procesorów, używane są określenia w rodzaju "technologia 0,25 mikrona". Podawany w takich określeniach wymiar to po prostu najmniejszy osiągalny w stosowanym procesie technologicznym wymiar elementu na chipie układu scalonego - zwykle szerokości ścieżki przewodzącej. Dzisiejsze metody budowy układów scalonych opartych na krzemie docierają coraz bliżej do nieprzekraczalnej granicy miniaturyzacji i szybkości działania, wynikających po prostu z praw fizyki. Czy więc przestanie obowiązywać prawo Moore'a (co półtora roku wydajność procesorów podwaja się, a ceny spadają o połowę)? Panaceum na prawa fizyki można szukać np. w nanotechnologii. Nanotechnologia to operowanie na atomach - ich przesuwanie, budowa z nich skomplikowanych konstrukcji. Jednak nanotechnologia to także nowe możliwości tworzenia chipów (np. procesorów). Możliwe będzie zmniejszenie wymiarów. To natomiast pociągnie za sobą zmniejszenie zapotrzebowania na energię, a to zmniejszy wydzielanie ciepła. Także zmniejszy się do zera liczba odpadków (atomy można zawsze jeszcze gdzieś wykorzystać). To wszystko obniży cenę, zwiększy natomiast wydajność procesorów. Można sobie na przykład wyobrazić komputer o wielkości dzisiejszego procesora wraz z obudową!!! I to od niego o wiele szybszy. To jednak jest jeszcze daleka przyszłość. Jednak nadal nie wiadomo jaka będzie jego architektura. Najbardziej prawdopodobne jest zastosowanie intelowskiego EPIC - Explicitly Paralell Instruction Computing - przetwarzanie jawnie równoległe. EPIC jest dobrą architekturą i ma jedną zaletę: aby osiągnąć jej pełną moc należy zmienić kod procesora. Jest to jego zaleta, ponieważ może w końcu uda się zmienić przestarzały kod x86 na coś nowszego i szybszego. Jeżeli bowiem zastosuje się tylko wewnętrzną architekturę EPIC, to te procesory padną ofiarą konwersji kodu na x86. Można podać przykład Athlona jako taką właśnie ofiarę. Wewnętrzna konstrukcja mogła by z powodzeniem konkurować z procesorami typu PA-RISC i Alpha i nowym Itanium. Szacuje się, że w wyniku "tłumaczenia" kodu wewnętrznego na x86 traci się w Athlonie od 30 % do ponad 50 % wydajności. Przyszłość nie tylko procesorów, ale także PC stoi pod znakiem porzucenia balastu historycznego, narosłego od ponad 20 lat. Dotknie ono nie tylko procesory (przejście na architekturę EPIC wraz ze zmianą kodu), ale także i jego otoczenia. Pierwszym krokiem było porzucenie szyny ISA. Zostało one zainicjowane przez Microsoft i Intela pod koniec 1998 w specyfikacji PC99. Jednak oba przedsiębiorstwa mocno się przeliczyły z czasem pozbycia się szyny. Do dzisiaj jest bardzo dużo płyt głównych z przynajmniej jednym wejściem na karty ISA. Pojawiły się jednak także konstrukcje bez tej szyny. Faktem jest jednak, że już nic na ISĘ się nie produkuje. Według obu przedsiębiorstw następcą miał być AC'97, jednak chyba lepszym wyjściem było PCI. Dalszym interfejsem do odstrzału są porty MIDI, równoległe i szeregowe. Każdy z nich jest bardzo przestarzały i stanowi wielkie obciążenie dla systemu Windows. Zastąpi je USB - panaceum na wszystkie prawie problemy współczesnego PC. Prawie wszystkie, ponieważ nie nadaje się ono do szybkich transmisji danych. Po tych portach powoli zacznie znikać PS/2 - zapożyczone z PS/2 złącze myszki i klawiatury - również niezbyt udane. I w tym przypadku USB jest najlepszym rozwiązaniem. Co będzie dalej? Likwidacja dedykowanego kontrolera dyskietki. Ponieważ nie da jej się na razie zastąpić (mimo prób np. iOmega z Zip) zostanie ona przeniesiona do kanału IDE. Zwiększy to szybkość strasznie wolnej dyskietki. Jednak co się stanie, gdy zostanie również z zestawu interfejsów skreślone IDE? Może się doczekamy standaryzacji zapisywalnego DVD i ten oto krążek podłączony do firewire (IEEE-1394) zastąpi nam przestarzałą dyskietkę? Odnośnie IDE to będzie następny krok palenia mostów. Zastąpi je wyżej wymienione firewire - nowy interfejs o znacznej przepustowości (jak naradzie 300 - 400 MB/s, ale w przyszłości 1GB/s a może nawet i 2 GB/s). Firewire jest już dziś stosowany w kamerach cyfrowych i tam się sprawdza. Może niedługo zamiast maksymalnie 4 urządzeń pod IDE będziemy mieli 96 urządzeń pod firewire? Dalszy krok to likwidacja PCI. Większość elementów będzie przecież już wbudowana (np. karty sieciowe, modemy itp.). To wszystko wydaje się ograniczać możliwość rekonfiguracji PC, ale to tylko pozory, gdyż dzięki USB i firewire będzie można podłączyć ogromną liczbę urządzeń z małym transferem (USB) lub ogromnym (IEEE-1394). Dzięki temu komputery będą mogły osiągać przyjazne dla oka kształty oraz przyjazną dla oka cenę .
Płyta główna
Jest ona ważnym składnikiem komputera, na którym umieszczane i podłączane są wszelkie elementy zestawu komputerowego.
Płyta główna w urządzeniach elektronicznych to część umożliwiająca komunikację wszystkim pozostałym komponentom i modułom zawierająca podstawowe elementy danego urządzenia. W komputerze na płycie głównej znajdują się złącza dla procesora, pamięci operacyjnej, kart rozszerzających (np. PCI), urządzeń składujących (dyski twarde, napędy optyczne, ...) i zasilacza oraz dla niektórych urządzeń zewnętrznych (port szeregowy, port równoległy, USB, złącze klawiatury, złącze myszy). Kontrolery poszczególnych urządzeń zgrupowane są głównie w dwóch mostach - północnym i południowym. Most północny, podłączony bezpośrednio do procesora przy pomocy FSB, zawiera kontroler pamięci oraz kontroler szyny graficznej (w przypadku zintegrowania kontrolera pamięci z procesorem most ten może nie występować, wówczas bezpośrednio do procesora podłączany jest przez HyperTransport most południowy). Most południowy, podłączony do mostu północnego, może zawierać kontrolery PCI, USB, dźwięku, Ethernetu, dysków (ATA, SATA); do niego też zazwyczaj podłączone są dodatkowe zewnętrzne kontrolery (np. IEEE 1394). Na płycie głównej umieszczony jest także zegar czasu rzeczywistego.
Pamięć operacyjna "RAM"

(ang. Random Access Memory) Od momentu rozpowszechnienia się procesora i386 i jego 32-bitowej architektury, producenci pamięci przestali nadążać w tworzeniu szybkich, potrafiących w czasie rzeczywistym udostępniać dane CPU , układów. Przykładowo, najczęściej używane wtedy FPM Fast Page Mode) miały czas dostępu 60 ns, co odpowiadało maksymalnej prędkości szyny równej 28.5 MHz. To od biedy mogło wystarczać przedprodukcyjnym egzemplarzom Pentium działającym z prędkością 33 MHz, jednak wraz ze wzrostem częstotliwości taktowania, wydajność podsystemu procesor-pamięć stawała się wąskim gardłem. Próbowano temu w różny sposób zaradzić. Jednym z pierwszych posunięciem było wprowadzenie do komputerów osobistych pamięci cache L2 (Level 2 -- drugiego poziomu) opartych na szybkich, o czasach dostępu równych od 8.5 do 12 ns, nie wymagających odświeżania układach SRAM (Static RAM). Model ten, z dodaną później techniką pipeliningu umożliwiającą osiągnięcie czasu dostępu równego ok. 4.5 ns - co odpowiadało częstotliwości taktowania równej w przybliżeniu 133 MHz - działało to całkiem nieźle, jednak wraz z pojawieniem się wielozadaniowych systemów operacyjnych, nawet najszybsze cache przestały dobrze spełniać swoją rolę. Pojawiły się dwa wyjścia, przy czym pierwsze z nich, czyli zwiększanie pojemności L2 odpadło ze względu na koszty. Pozostała droga numer dwa, którą w skrócie można określić mianem nowych technologii pamięci.
Karta graficzna

Karta rozszerzeń, umiejscawiana na płycie głównej poprzez gniazdo PCI lub AGP, która odpowiada w komputerze za obraz wyswietlany przez monitor. Karty graficzne różnia się między soba szybkoscia pracy, wielkoscia pamięci RAM, wyswietlana rozdzielczoscia obrazu, liczba dostępnych kolorów oraz częstotliwoscia odswieżania obrazu.
     Każda karta graficzna składa się z czterech podstawowych elementów:
płytki drukowanej,
głównego procesora,
pamięci wideo
i układu RAMDAC (który często jest zintegrowany z procesorem w jednej obudowie)
Procesor
     Procesor na karcie graficznej wspomaga setki różnych funkcji, z trójwymiarowymi włacznie. Układy takie pomagaja procesorowi komputera rysować linie, trójkaty, prostokaty, potrafia wygenerować obraz trójwymiarowy, pokryć go odpowiednia tzw. tekstura (powierzchnia), stworzyć efekt mgły itd. Procesor karty graficznej komunikuje się z pamięcia wysyłajac i pobierajac z niej informacje o obrazie w tzw. paczkach, przy czym wielkosć tych paczek zależy od procesora karty. Procesory 64-bitowe wysyłaja paczki 64-bitowe (8-bajtowe), za 128-bitowe paczki 16 ajtowe.To czy procesor jest 64-bitowy czy 128-bitowy, praktycznie nie powoduje dwukrotnej różnicy prędkosci na korzysć układów 128-bitowych. Przewaga zaczyna być widoczna przy pracy w wyższych rozdzielczosciach. Pamięć wideo
     Każda karta graficzna ma własna pamięć RAM, w której przechowuje potrzebne informacje o obrazie. Obecnie wielkosć tej pamięci to srednio 32 MB (jeszcze do niedawna przeciętna pamięć wynosiła 512 Kb), a coraz częsciej 64 Mb. W pamięci tej przechowywane sa dane o każdym punkcie obrazu, a także tekstury (w postaci map bitowych) oraz dane o głębi (z pamięci jest w tym celu wydzielany tzw. bufor Z). Układ RAMDAC
     Pobiera dane o obrazie wygenerowanym przez procesor karty graficznej. Dane te sa w postaci zbioru różnokolorowych punktów. Następnie RAMDAC zamienia je na sygnały analogowe i wysyła do monitora. Im szybszy RAMDAC, tym więcej potrafi wysłać informacji w ciagu sekundy co ma bezposredni wpływ na częstotliwosć odswieżania (jest to liczba pojedynczych obrazów, jakie wyswietla monitor w ciagu sekundy. Częstotliwosć 60Hz oznacza, że w ciagu sekundy na ekranie monitora rysowanych jest 60 pełnych obrazów. Oko ludzkie przestaje odróżniać "skoki" między obrazami już przy szybkosci ok. 25 obrazów na sekundę, więc częstotliwosć 60 Hz wydawałaby się aż za duża. Jak się okazuje w praktyce, przy 60Hz prawie nie widać migotania obrazu, ale nasze oczy się męcza. Dlatego do pracy przy komputerze powinnismy ustawiać częstotliwosć co najmniej 75Hz, zas im więcej tym lepiej. Warto przy tym wiedzieć, że ustawienie częstotliwosci większej niż 85Hz nie ma już wpływu na nasz wzrok. Magistrale
    Również czynnikiem wpływajacym na prędkosć karty graficznej jest typ magistrali, z jaka komunikuje się ona z komputerem.
Rodzaje magistral:

      -ISA - 16- bitowa magistrala danych, jest już obecnie definitywnie zabytkiem

      -PCI - 64 -bitowa, max. transfer do 138Mb/s

      -AGP - gniazdo rozszerzeń zaprojektowane przez firmę Intel przeznaczone specjalnie do szybkiego przesyłania danych pomiędzy karta graficzna a procesorem. Max. transfer AGP8X to 4 GB/s. Obecnie karty graficzne używajace tego gniazda stały się standardem.
Karta dżwiękowa

Karta rozszerzeń pozwalająca na odgrywanie oraz nagrywanie na komputerze dźwięku w formie plików muzycznych. Karty muzyczne umożliwiają także podłączenie do nich głośników, wzmacniacza, mikrofonu oraz urządzeń MIDI. Obecnie w prawie każdym pececie znajduje się jakaś karta dźwiękowa. Najważniejszą jej częścią składową, jest przetwornik A/D-D/A (analog/digital-digital/analog), zmieniający sygnał analogowy w cyfrowy i odwrotnie, odpowiedzialny za nagrywanie i odtwarzanie plików WAV. Proces nagrywania nazywany jest samplingiem. Poziom (głośność) sygnału wejściowego, pochodzącego np. z mikrofonu lub wejścia LINE IN jest mierzony w określonych odstępach czasu, zaś wynik pomiaru zapisywany w pliku WAV. Znajduje się w nim również informacje o parametrach nagrania, mających wpływ na jakość dźwięku i zapotrzebowanie na wolne miejsce na dysku. Są to:
Rozdzielczość: określa, czy wartości pomiarowe zapisywane w pliku WAV mają zajmować 1 czy 2 bajty (8 czy 16 bitów). W jednym bajcie można zapisać wartości od 0 do 255, natomiast w dwóch bajtach wartości od 0 do 65535. Obecnie nawet najtańsze na rynku karty są już 16 bitowe.
Częstotliwość próbkowania: odstępy czasowe, w których dokonywany jest pomiar poziomu sygnału wejściowego. Częstotliwość próbkowania podawana jest w kilohercach(kHz), 1 kHz odpowiada 1000 pomiarów na sekundę. Najczęściej spotyka się karty próbkujące z częstotliwościami 8, 11, 22, 44,1, 48 kHz. Najwyższy ton, jaki można nagrać odpowiada połowie wartości częstotliwości próbkowania. W przypadku karty posiadającej częstotliwość 44,1 kHz będzie to ok. 22000Hz. Ucho ludzkie potrafi odbierać dźwięki o częstotliwości do ok. 17000 Hz.
Karta sieciowa
Karta ETHERNET-eksperymentalny system ETHERNET został opracowany w firmie Xerox w 1972 r. Poczynając od 1980 r. w wyniku wspólnego wysiłku firm Xerox, Intel i DEC powstała unowocześniona wersja sieci znana jako "Ethernet Specifications". W końcu 1981 r. kilka firm komputerowych postanowiło dostarczać na rynek sprzęt i oprogramowanie do pracy w tej sieci. W systemie tym zastosowano metodę śledzenia stanu kanału przy wielokrotnym dostępie, z wykrywaniem kolizji (ang. Carrier Sense Multiple Access with Collision Detection - CSMA/CD). Polega ona na tym, że węzeł, który chce wysłać komunikat wspólną szyną, najpierw testuje, czy w kanale pojawił się sygnał nośny. Jeżeli kanał jest pusty, to komunikat zostaje wysłany; jeżeli jest zajęty, to wusłanie komunikatu jest opóźnione. Po przypadkowo dobranym czasie węzeł ponownie testuje aktywność szyny. W metodzie tej stosuje się zasadę "słuchaj zanim będziesz mówił". Ze względu na czas, który jest potrzebny na to, aby sygnał został przesłany w sieci, tzw. czas propagacji, może się zdarzyć, że węzeł wykryje wolny kanał, który niemal natychmiast zostaje zajęty, gdy dotrze sygnał z innego węzła. W wyniku tego dwa lub więcej węzłów równocześnie będzie wysyłać dane. Nastąpi kolizja. Jej wykrycie polega na tym, że węzeł, który transmituje dane "słucha w czasie mówienia" (fakt jednoczesnego umieszczenia komunikatów przez dwa lub więcej węzłów powoduje wykrywalną zmianę poziomu energii kanału). Po wykryciu kolizji, każdy węzeł wysyła krótki sygnał o charakterze szumu, co daje gwarancję, że inne węzły również ją wykryją. Potem oba węzły wstrzymują na krótko transmisję (przypadkowy odcinek czasu), a następnie ponawiają próbę transmisji komunikatu według zasady "słuchaj zanim zaczniesz mówić". Jest oczywiste, że im mniej kolizji, tym bardziej efektywna jest sieć. Standard ETHERNET posiada kilka odmian, których symbole i krótką charakterystykę przedstawiono poniżej: 10Base5 (jest to transmisja niemodulowana - tzw baseband, szybkość transmisji - 10 Mb/s, długość segmentu 500 m.) 10Base2 (10 Mb/s, długość segmentu - 185 m.) 10BaseT (10 Mb/s, medium: skrętka dwuprzewodowa) 100BaseT (100 Mb/s, skrętka 5 kategorii). Standard 10Base2 znany jest jako Thin ETHERNET, standard 10Base5 - Thick ETHERNET. Na szczególną uwagę zasługuje jeszcze jeden standard: 10BaseF, w którym wykorzystano złącza światłowodowe (ang. Fiber optic). Karta ETHERNET posiada dwa złącza: złącze BNC dla standardu 10Base2 złącze 15-stykowe DIX, które poprzez odpowiedni zewnętrzny nadajnik/odbiornik (ang. Transceiver) pozwala na pracę w dowolnym innym standardzie: 10Base5, 10BaseT lub 10BaseF. Każda stacja pracująca w dowolnej sieci musi być wyposażona w kartę sieciową. Karta ta (inaczej zwana sterownikiem lub kontrolerem) wykonuje funkcje, które zarządzają dostępem do kanału Ethernet. Do funkcji tych należy: sygnalizacja konwencji, kodowanie/dekodowanie, konwersja z postaci szeregowej na równoległą i odwrotnie, rozpoznawanie adresu, wykrywanie błędów, zarządzanie dostępem do kanału i formatowanie ramki. W sieci można wyróżnić dwa rodzaje stacji: stacje robocze (ang. Workstation) i stacje obsługi (ang. File Server). Stacja robocza - to z reguły komputer, przy którym pracuje pojedynczy użytkownik. Stacją obsługi nazywany jest komputer (przeważnie najszybszy w sieci), który umożliwia poszczególnym użytkownikom dostęp do wspólnych danych. Jest to więc komputer kontrolujący wszystkie pliki używane w sieci. Złącze typu BNC służy do łączenia komputerów za pomocą cienkiego kabla koncentrycznego RG-58 o grubości 1 cala i impedancji 50 Ohm (ang. Thin Ethernet Cable). Złącze 15-stykowe służy do łączenia karty z zewnętrznym nadajnikiem/odbiornikiem linii (ang. Transceiver). Można więc za pomocą tego złącza, poprzez odpowiednie nadajniki/odbiorniki, łączyć komputery, wykorzystując różne media transmisyjne, zgodnie ze standardami: 10Base5, 10BaseT, 10BaseF. Kabel, łączący złącze 15-stykowe z nadajnikiem/odbiornikiem, zwany AUI Drop Cable może mieć maksymalną długość 50 m. Schemat blokowy karty EtherLink Plus prezentuje rysunek. Karta łączona jest z płytą główną za pomocą 98-stykowego złącza ISA. Najważniejszymi elementami znajdującymi się na karcie są: Ethernet controller - 82586, pamięć RAM - 256 kB, 16-bitowy mikroprocesor - 80186, wewnętrzny nadajnik/odbiornik - 7996, Enkoder/Dekoder - Seeq 8023A, pamięć ROM - 16 kB, oraz układy współpracy z szynami systemowymi - Host Interface. Wewnętrzny nadajnik/odbiornik - AMD - 7996 zapewnia transmisję danych przez złącze BNC w standardzie Thin ETHERNET. Oczywiście układ 7996 można odłączyć za pomocą przełącznika znajdującego się na karcie; wtedy transmisja między komputerami będzie odbywać się poprzez 15-stykowe złącze i zewnętrzne nadajniki/odbiorniki. Pamięć RAM pełni rolę bufora danych nadawanych i odbieranych. Pamięć ROM zawiera testy diagnostyczne, program inicjalizacji, funkcje odświeżania pamięci RAM oraz oprogramowanie obsługi interfejsów. Karta posiada szereg przełączników i zworek ustawiających parametry konfiguracji sprzętowej: przełącznik BNC/DIX pozwala wybrać jedno z dwóch złącz wyjściowych karty zworki wyboru linii przerwań zworki wyboru kanału DMA zworki wyboru adresu bazowego w przestrzeni I/O (standardowo karty mają ustawiony adres bazowy we/wy 300H) mikroprzełączniki wyboru adresu bazowego pamięci Dokładny opis wszystkich przełączników i zworek znajdujących się na karcie, podany jest w instrukcji obsługi, dołączonej do karty. Rozmieszczenie zworek i mikroprzełączników na przykładowej karcie ETHERNET pokazuje rysunek. Blok zworek W1..W8 (Connector Type Jumper Block) służy do wybrania jednego z dwóch złączy DIX lub BNC; zworki W9..W10 (Base I/O Address Jumper Block) pozwalają ustawić adres startowy w przestrzeni adresowej Wejścia/Wyjścia; za pomocą zworek W12..W15 (IRQ Jumper Block) można wybrać poziom przerwania IRQ. Za pomocą zworek W9, W10 można ustawić jeden z czterech adresów w przestrzeni adresowej wejścia/wyjścia (ang. Port Addresses): 300H, 320H, 340H, 360H. Wartością domyślną (tzn ustawioną i zalecaną przez producenta karty) jest adres bazowy I/O równy 300H. Zworki W12..W15 pozwalają wybrać jeden z czterech poziomów przerwania (ang. Interrups): 2, 3, 4, 5. Wartością domyślną (ang. Default) jest IRQ3. Połączenie adresu bazowego I/O 300H oraz zgłoszenie przerwania IRQ3 określone zostało jako zerowa opcja konfiguracji. Z opcji tej korzystamy wtedy, gdy nie zmieniamy wartości domyślnych ustalonych przez producenta. Specjaliści instalujący karty sieciowe winni pamiętać o tym, że na kartach tych należy ustawić takie adresy i poziomy przerwań, których nie mają żadne inne karty i sterowniki zainstalowane w danym komputerze, gdyż w przeciwnym przypadku doszłoby do kolizji między kartami. Ustawienie typu wykorzystywanego złącza, odbywa się za pomocą bloku gniazd W1..W8, które pozwalają umieścić 16-nóżkową zworkę w rzędach 1 i 2, w przypadku złącza typu DIX lub w rzędach 2 i 3, w przypadku wykorzystywanego złącza BNC. W przypadku, gdy stacja robocza pozbawiona jest pamięci dyskowych, które pozwalałyby włączyć się użytkownikowi do sieci, konieczne jest zainstalowanie na karcie sieciowej pamięci EPROM, która umożliwi tzw zdalny restart, tzn załaduje do pamięci komputera system operacyjny i podłączy stację do sieci. Każda karta sieciowa wyposażona jest więc w podstawkę, do której należy w takiej sytuacji wstawić "kość" pamięci EPROM. Przy montażu należy szczególną uwagę zwrócić na wycięcie (ang. Notch) znajdujące się w podstawce i pamięci. Należy ponadto ustawić zworkę umożliwiającą zdalny restart (ang. Remote Reset Enable) W11. Powrót na stronę główną.
Pamięć masowa (HDD)
Twardy Dysk - (ang. Hard Disk) Historia pamięci masowych sięga połowy dziewiętnastego wieku - już wtedy używano kart perforowanych do wprowadzania danych do mechanicznych maszyn liczących. Pierwsze elektroniczne komputery korzystały z pamięci zbudowanej z lamp elektronowych, potem zaczęły pojawiać się różnej maści pamięci magnetyczne - bąbelkowe, taśmowe, bębnowe. Pierwszy w historii twardy dysk pojawił się w 1957 roku. Wtedy to IBM zaprezentował urządzenie o nazwie RAMAC 350 - złożony z pięćdziesięciu 24-calowych dysków zespół miał pojemność 5 MB, a koszt jego rocznej dzierżawy wynosił 35 tys. dolarów; jak nietrudno policzyć, oznaczało to 7 tys. dolarów za megabajt... W epoce maszyn "mainframe" budowano całe "farmy dysków" z zamkniętymi w klimatyzowanych pomieszczeniach zestawami talerzy o średnicach 14 czy 8 cali, wartymi grube dziesiątki tysięcy dolarów. Pojawienie się IBM PC w roku 1981 wcale nie zapowiadało rewolucji w dziedzinie pamięci masowych - system operacyjny "prapeceta" zawierał procedury obsługi pamięci w postaci magnetofonu kasetowego, choć oczywiście istniała także możliwość korzystania ze stacji dyskietek. Lista opcjonalnego wyposażenia IBM PC/XT z roku 1983 obejmuje już twardy dysk o pojemności 5 lub 10 MB - ówczesne napędy o znajomej średnicy 5,25" miały wysokość trzech cali (podobnie zresztą, jak wczesne stacje dyskietek) i stąd właśnie określenie "full height" (współczesny czytnik CD-ROM to "half height"). W roku 1984 Western Digital skonstruował - dzierżący przez kilka lat godność "standardu przemysłowego", zastosowany w IBM PC/AT interfejs ST506, zaś w 1986 - opracowany do spółki z firmą Compaq dobrze nam znany interfejs IDE (Integrated Drive Electronics). Mniej więcej rok później w komputerach stacjonarnych zaczęto instalować dyski 3,5" (o wysokości 1", czyli "low profile") - dopiero potem znalazły one zastosowanie w przenośnych laptopach. Postęp technologii powodował ciągły wzrost pojemności i szybkości urządzeń, przy jednoczesnym spadku zapotrzebowania na energię, coraz mniejszej hałaśliwości i większej niezawodności. Wyniki tego wyścigu obserwujemy na co dzień. W dwudziestoletniej historii PC najbardziej eksponowany był zawsze postęp technologii półprzewodnikowej. Postęp w innych, bezpośrednio z nią związanych dziedzinach technologii był zawsze mniej eksponowany - w ciągu tego samego czasu, gdy stopniowo dokonywano 100-krotnego przyspieszania zegara procesora, pojemność typowego dysku stałego wzrosła 1000-krotnie. Dysk stały, dopóki działa i do momentu, gdy mieszczą się na nim bez kłopotów nasze dane i programy, rzadko bywa przedmiotem szczególnego zainteresowania. Tylko w momencie zakupu staramy się uzyskać możliwy kompromis pomiędzy pojemnościami - dysku i portfela, później dysk schodzi do swojej służebnej roli. Tymczasem od pojemności i szybkości dysku zależy wydajność komputera i wygoda jego użytkowania, a niezawodność dysku to w wielu przypadkach sprawa nie tylko bardzo ważna, ale wręcz kluczowa.Przeciętny użytkownik komputera traktuje dysk jako "czarne pudełko" zdolne do zapamiętania pewnej ilości danych - im więcej, tym lepiej. Bardziej dociekliwi zwracają uwagę również na jego parametry wydajnościowe - średni czas dostępu do danych oraz szybkość odczytu i zapisu. Parametry eksploatacyjne każdego urządzenia wynikają z jego konstrukcji, dlatego najdociekliwsi użytkownicy lubią wiedzieć również, co jest wewnątrz "czarnego pudełka" i jak to działa.
Peryferia komputerowe
mysz komputerowa klawiatura joystick głośniki kamera internetowa

Urządzenie peryferyjne (ang. peripheral device) - dowolna część komputera inna niż CPU lub pamięć robocza, jak np. klawiatura, monitor, mysz, drukarka, joystick, skaner, kamera internetowa, napęd taśmowy, mikrofon, głośnik, aparat fotograficzny.