- Komputer
- Uniwersalny system cyfrowy zdolny do
wykonywania pewnego zbioru rozkazów (różnorodnych operacji
elementarnych), w którym użytkownik może określić sekwencję
wykonywanych rozkazów konieczną do realizacji postawionego zadania.
Głównymi częściami składowymi komputera są:
procesor, pamięć operacyjna, w której jest zapisany program określający
sekwencję wykonywanych operacji oraz dane do przetworzenia oraz układy
wejścia-wyjścia do których są przyłączone urządzenia zewnętrzne
umożliwiające kontakt komputera z otoczeniem i użytkownikiem.
Istotną cechą komputera, odróżniającą go od innych systemów cyfrowych,
jest możliwość zupełnej zmiany realizowanych przez niego funkcji
jedynie przez zmianę programu w jego pamięci.
PC - Personal Computer - komputer osobisty, rodzaj
komputera przeznaczony dla pojedynczego użytkownika. Początkowo
komputery były dużymi urządzeniami przeznaczonymi tylko dla poważnych
instytucji. W latach 80-tych nastąpił rozwój małych komputerów do
prywatnego użytku, takich jak 8-bitowe Atari czy Commodore a także
pierwsze Macintoshe firmy Apple i komputer XT produkowany przez IBM.
Nazwa PC oznacza przede wszystkim komputery kompatybilne z IBM PC (XT i
późniejsze modele).
- Procesor
- (ang. Central Processing Unit) jednostka arytmetyczno-logiczna,
popularnie zwana sercem komputera. To ten zespół jest odpowiedzialny za
nadzorowanie i wydawanie rozkazów innym podzespołom.
Wszystkie współczesne procesory mają podobną architekturę oparta na
superskalarnym jądrze RISC (architektura procesora o uproszczonej liście rozkazów).
Jeszcze kilka lat temu procesory zaliczano do rodziny CISC (architektura procesora wykorzystującą
złożoną listę rozkazów). Dzisiaj, dzięki zastosowaniu w nich
techniki przekodowywania rozkazów, uzyskano ogromne zwiększenie wydajności
procesora, a konstrukcja RISC umożliwia stosowanie wysokich częstotliwości
zegara.
Pierwszy mikroprocesor Intel 4004, pokazany w wersji produkcyjnej w listopadzie
1971 roku był wykorzystywany w kalkulatorach. Dalszy rozwój procesorów
przebiegał błyskawicznie zgodnie z prawem Moore'a, mówiącym o
podwajaniu się co, rok upakowania układów mikroprocesorowych -
mierzonego w bitach na cal kwadratowy. W wyniku łańcucha zbiegów okoliczności jednostką centralną PC stał
się procesor Intela - i8088, a od jego pierwowzoru o symbolu 8086,
procesory dla Standardu PC otrzymały wspólną nazwę "x86".
Z czasem nazwą tą obdarzono listę instrukcji i8086, z którą musiał
być zgodny każdy z ewentualnych naśladowców. Chętnych do produkcji
procesorów x86 było wielu. Początkowo były to produkcje licencyjne, różniące
się od intelowskiego oryginału, co najwyżej częstotliwością zegara.
Dopiero na poziomie piątej generacji PC pojawiła się rzeczywista
konkurencja - procesory konstruowane samodzielnie przez różnych
producentów, zachowując z intelowskim pierwowzorem zgodność jedynie na
poziomie modelu programistycznego. W procesorowy biznes włączyły się
intensywnie takie firmy jak Cyrix, NexGen i AMD (który zresztą kupił
firmę NexGen i wykorzystał jego rozwiązania w procesorze K6).
Konstrukcje AMD i Cyrixa, chociaż widoczne na rynku, nie stanowiły dla
Intela poważniejszej konkurencji. Szansą dla procesorów alternatywnych
stała się platforma Socket 7 - porzucona przez Intela infrastruktura
czekająca na nowe, mocniejsze procesory, okazała się polem do popisu.
Przede wszystkim dla AMD - procesor K6 zdobył sobie zasłużoną
popularność, a K6-III swoją wydajnością "przebił"
procesory Pentium II Intela. Potężną bronią Intela przeciwko
konkurencji stał się Celeron - pomyślany jako "Pentium II dla
ubogich", po niezbyt efektownym debiucie odniósł, już w postaci
wyposażonej w pamięć cache wersji "A", oszałamiający
sukces, dzięki wyjątkowo korzystnej relacji między wydajnością i ceną.
Wszystkie bez wyjątku procesory alternatywne emulują działanie Pentium
przy użyciu wbudowanego wewnętrznego procesora RISC. Rozwiązania
superskalarne, pozwalające na wykonywanie przez procesor w jednym cyklu
więcej niż jednej instrukcji, pojawiły się wraz z procesorem Pentium.
Następnym krokiem w dalszym rozwoju architektury stało się zastosowanie
przetwarzania potokowego. To właśnie potokowa architektura jednostki
zmiennoprzecinkowej Pentium II sprawiła, że wydajność tego procesora w
operacjach zmiennoprzecinkowych stała się na długo niedościgłym
wzorem dla konkurencji. Dalszym krokiem w rozwoju konstrukcji procesorów,
wynikającym z rozpowszechnienia architektury superskalarnej, stało się
wprowadzenie techniki nie kolejnego wykonywania instrukcji - tzw.
architektury hiperskalarnej wykorzystanej w najnowszym procesorze AMD
"Athlon". W publikacjach dotyczących nowych układów scalonych, najczęściej właśnie
procesorów, używane są określenia w rodzaju "technologia 0,25
mikrona". Podawany w takich określeniach wymiar to po prostu
najmniejszy osiągalny w stosowanym procesie technologicznym wymiar
elementu na chipie układu scalonego - zwykle szerokości ścieżki
przewodzącej. Dzisiejsze metody budowy układów scalonych opartych na krzemie docierają coraz bliżej
do nieprzekraczalnej granicy miniaturyzacji i szybkości działania,
wynikających po prostu z praw fizyki. Czy więc przestanie obowiązywać
prawo Moore'a (co półtora roku wydajność procesorów podwaja się, a
ceny spadają o połowę)? Panaceum na prawa fizyki można szukać np. w
nanotechnologii. Nanotechnologia to operowanie na atomach - ich
przesuwanie, budowa z nich skomplikowanych konstrukcji. Jednak
nanotechnologia to także nowe możliwości tworzenia chipów (np.
procesorów). Możliwe będzie zmniejszenie wymiarów. To natomiast pociągnie
za sobą zmniejszenie zapotrzebowania na energię, a to zmniejszy
wydzielanie ciepła. Także zmniejszy się do zera liczba odpadków (atomy
można zawsze jeszcze gdzieś wykorzystać). To wszystko obniży cenę,
zwiększy natomiast wydajność procesorów. Można sobie na przykład
wyobrazić komputer o wielkości dzisiejszego procesora wraz z obudową!!!
I to od niego o wiele szybszy. To jednak jest jeszcze daleka przyszłość.
Jednak nadal nie wiadomo jaka będzie jego architektura. Najbardziej
prawdopodobne jest zastosowanie intelowskiego EPIC - Explicitly
Paralell Instruction Computing - przetwarzanie jawnie równoległe.
EPIC jest dobrą architekturą i ma jedną zaletę: aby osiągnąć jej pełną
moc należy zmienić kod procesora. Jest to jego zaleta, ponieważ może w
końcu uda się zmienić przestarzały kod x86 na coś nowszego i
szybszego. Jeżeli bowiem zastosuje się tylko wewnętrzną architekturę
EPIC, to te procesory padną ofiarą konwersji kodu na x86. Można podać
przykład Athlona jako taką właśnie ofiarę. Wewnętrzna konstrukcja
mogła by z powodzeniem konkurować z procesorami typu PA-RISC i Alpha i
nowym Itanium. Szacuje się, że w wyniku "tłumaczenia" kodu
wewnętrznego na x86 traci się w Athlonie od 30 % do ponad 50 % wydajności.
Przyszłość nie tylko procesorów, ale także PC stoi pod znakiem
porzucenia balastu historycznego, narosłego od ponad 20 lat. Dotknie ono
nie tylko procesory (przejście na architekturę EPIC wraz ze zmianą
kodu), ale także i jego otoczenia. Pierwszym krokiem było porzucenie
szyny ISA. Zostało one zainicjowane przez Microsoft i Intela pod koniec
1998 w specyfikacji PC99. Jednak oba przedsiębiorstwa mocno się
przeliczyły z czasem pozbycia się szyny. Do dzisiaj jest bardzo dużo płyt
głównych z przynajmniej jednym wejściem na karty ISA. Pojawiły się
jednak także konstrukcje bez tej szyny. Faktem jest jednak, że już nic
na ISĘ się nie produkuje. Według obu przedsiębiorstw następcą miał
być AC'97, jednak chyba lepszym wyjściem było PCI. Dalszym interfejsem
do odstrzału są porty MIDI, równoległe i szeregowe. Każdy z nich jest
bardzo przestarzały i stanowi wielkie obciążenie dla systemu Windows.
Zastąpi je USB - panaceum na wszystkie prawie problemy współczesnego
PC. Prawie wszystkie, ponieważ nie nadaje się ono do szybkich transmisji
danych. Po tych portach powoli zacznie znikać PS/2 - zapożyczone z PS/2
złącze myszki i klawiatury - również niezbyt udane. I w tym przypadku
USB jest najlepszym rozwiązaniem. Co będzie dalej? Likwidacja
dedykowanego kontrolera dyskietki. Ponieważ nie da jej się na razie zastąpić
(mimo prób np. iOmega z Zip) zostanie ona przeniesiona do kanału IDE.
Zwiększy to szybkość strasznie wolnej dyskietki. Jednak co się stanie,
gdy zostanie również z zestawu interfejsów skreślone IDE? Może się
doczekamy standaryzacji zapisywalnego DVD i ten oto krążek podłączony
do firewire (IEEE-1394) zastąpi nam przestarzałą dyskietkę? Odnośnie
IDE to będzie następny krok palenia mostów. Zastąpi je wyżej
wymienione firewire - nowy interfejs o znacznej przepustowości (jak
naradzie 300 - 400 MB/s, ale w przyszłości 1GB/s a może nawet i 2
GB/s). Firewire jest już dziś stosowany w kamerach cyfrowych i tam się
sprawdza. Może niedługo zamiast maksymalnie 4 urządzeń pod IDE będziemy
mieli 96 urządzeń pod firewire? Dalszy krok to likwidacja PCI. Większość
elementów będzie przecież już wbudowana (np. karty sieciowe, modemy
itp.). To wszystko wydaje się ograniczać możliwość rekonfiguracji PC,
ale to tylko pozory, gdyż dzięki USB i firewire będzie można podłączyć
ogromną liczbę urządzeń z małym transferem (USB) lub ogromnym
(IEEE-1394). Dzięki temu komputery będą mogły osiągać przyjazne dla
oka kształty oraz przyjazną dla oka cenę .
- Płyta główna
- Jest ona ważnym składnikiem komputera, na którym umieszczane i podłączane są wszelkie elementy zestawu komputerowego.

Płyta główna w urządzeniach elektronicznych to część umożliwiająca komunikację wszystkim pozostałym komponentom
i modułom zawierająca podstawowe elementy danego urządzenia.
W komputerze na płycie głównej znajdują się złącza dla procesora, pamięci operacyjnej, kart rozszerzających (np. PCI),
urządzeń składujących (dyski twarde, napędy optyczne, ...) i zasilacza oraz dla niektórych urządzeń zewnętrznych (port szeregowy,
port równoległy, USB, złącze klawiatury, złącze myszy).
Kontrolery poszczególnych urządzeń zgrupowane są głównie w dwóch mostach - północnym i południowym.
Most północny, podłączony bezpośrednio do procesora przy pomocy FSB, zawiera kontroler pamięci oraz kontroler szyny graficznej
(w przypadku zintegrowania kontrolera pamięci z procesorem most ten może nie występować, wówczas bezpośrednio do procesora podłączany
jest przez HyperTransport most południowy). Most południowy, podłączony do mostu północnego, może zawierać kontrolery PCI, USB,
dźwięku, Ethernetu, dysków (ATA, SATA); do niego też zazwyczaj podłączone są dodatkowe zewnętrzne kontrolery (np. IEEE 1394).
Na płycie głównej umieszczony jest także zegar czasu rzeczywistego.
- Pamięć operacyjna "RAM"

(ang. Random Access Memory) Od momentu rozpowszechnienia się procesora i386 i jego 32-bitowej architektury, producenci
pamięci przestali nadążać w tworzeniu szybkich, potrafiących w czasie rzeczywistym udostępniać dane CPU , układów. Przykładowo,
najczęściej używane wtedy FPM Fast Page Mode) miały czas dostępu 60 ns, co odpowiadało maksymalnej prędkości szyny równej 28.5 MHz. To od biedy mogło wystarczać przedprodukcyjnym egzemplarzom Pentium działającym z prędkością 33 MHz, jednak wraz ze wzrostem częstotliwości taktowania, wydajność podsystemu procesor-pamięć stawała się wąskim gardłem. Próbowano temu w różny sposób zaradzić. Jednym z pierwszych posunięciem było wprowadzenie do komputerów osobistych pamięci cache L2 (Level 2 -- drugiego poziomu) opartych na szybkich, o czasach dostępu równych od 8.5 do 12 ns, nie wymagających odświeżania układach SRAM (Static RAM). Model ten, z dodaną później techniką pipeliningu umożliwiającą osiągnięcie czasu dostępu równego ok. 4.5 ns - co odpowiadało częstotliwości taktowania równej w przybliżeniu 133 MHz - działało to całkiem nieźle, jednak wraz z pojawieniem się wielozadaniowych systemów operacyjnych, nawet najszybsze cache przestały dobrze spełniać swoją rolę. Pojawiły się dwa wyjścia, przy czym pierwsze z nich, czyli zwiększanie pojemności L2 odpadło ze względu na koszty. Pozostała droga numer dwa, którą w skrócie można określić
mianem nowych technologii pamięci.
- Karta graficzna

Karta rozszerzeń, umiejscawiana na płycie głównej poprzez gniazdo PCI
lub AGP, która odpowiada w komputerze za obraz wyswietlany przez
monitor. Karty graficzne różnia się między soba szybkoscia pracy,
wielkoscia pamięci RAM, wyswietlana rozdzielczoscia obrazu, liczba
dostępnych kolorów oraz częstotliwoscia odswieżania obrazu.
Każda karta graficzna składa się z czterech podstawowych elementów:
płytki drukowanej,
głównego procesora,
pamięci wideo
i układu RAMDAC (który często jest zintegrowany z procesorem w jednej obudowie)
Procesor
Procesor na karcie graficznej wspomaga setki różnych funkcji, z
trójwymiarowymi włacznie. Układy takie pomagaja procesorowi komputera
rysować linie, trójkaty, prostokaty, potrafia wygenerować obraz
trójwymiarowy, pokryć go odpowiednia tzw. tekstura (powierzchnia),
stworzyć efekt mgły itd. Procesor karty graficznej komunikuje się z
pamięcia wysyłajac i pobierajac z niej informacje o obrazie w tzw.
paczkach, przy czym wielkosć tych paczek zależy od procesora karty.
Procesory 64-bitowe wysyłaja paczki 64-bitowe (8-bajtowe), za
128-bitowe paczki 16 ajtowe.To czy procesor jest 64-bitowy czy
128-bitowy, praktycznie nie powoduje dwukrotnej różnicy prędkosci na
korzysć układów 128-bitowych. Przewaga zaczyna być widoczna przy pracy
w wyższych rozdzielczosciach.
Pamięć wideo
Każda karta graficzna ma własna pamięć RAM, w której przechowuje
potrzebne informacje o obrazie. Obecnie wielkosć tej pamięci to srednio
32 MB (jeszcze do niedawna przeciętna pamięć wynosiła 512 Kb), a coraz
częsciej 64 Mb. W pamięci tej przechowywane sa dane o każdym punkcie
obrazu, a także tekstury (w postaci map bitowych) oraz dane o głębi (z
pamięci jest w tym celu wydzielany tzw. bufor Z).
Układ RAMDAC
Pobiera dane o obrazie wygenerowanym przez procesor karty graficznej.
Dane te sa w postaci zbioru różnokolorowych punktów. Następnie RAMDAC
zamienia je na sygnały analogowe i wysyła do monitora. Im szybszy
RAMDAC, tym więcej potrafi wysłać informacji w ciagu sekundy co ma
bezposredni wpływ na częstotliwosć odswieżania (jest to liczba
pojedynczych obrazów, jakie wyswietla monitor w ciagu sekundy.
Częstotliwosć 60Hz oznacza, że w ciagu sekundy na ekranie monitora
rysowanych jest 60 pełnych obrazów. Oko ludzkie przestaje odróżniać
"skoki" między obrazami już przy szybkosci ok. 25 obrazów na sekundę,
więc częstotliwosć 60 Hz wydawałaby się aż za duża. Jak się okazuje w
praktyce, przy 60Hz prawie nie widać migotania obrazu, ale nasze oczy
się męcza. Dlatego do pracy przy komputerze powinnismy ustawiać
częstotliwosć co najmniej 75Hz, zas im więcej tym lepiej. Warto przy
tym wiedzieć, że ustawienie częstotliwosci większej niż 85Hz nie ma już
wpływu na nasz wzrok.
Magistrale
Również czynnikiem wpływajacym na prędkosć karty graficznej jest typ magistrali, z jaka komunikuje się ona z komputerem.
Rodzaje magistral:
-ISA - 16- bitowa magistrala danych, jest już obecnie definitywnie zabytkiem
-PCI - 64 -bitowa, max. transfer do 138Mb/s
-AGP - gniazdo rozszerzeń
zaprojektowane przez firmę Intel przeznaczone specjalnie do szybkiego
przesyłania danych pomiędzy karta graficzna a procesorem. Max. transfer
AGP8X to 4 GB/s. Obecnie karty graficzne używajace tego gniazda stały
się standardem.
- Karta dżwiękowa

Karta rozszerzeń pozwalająca na odgrywanie oraz nagrywanie na
komputerze dźwięku w formie plików muzycznych. Karty muzyczne
umożliwiają także podłączenie do nich głośników, wzmacniacza, mikrofonu
oraz urządzeń MIDI.
Obecnie w prawie każdym pececie znajduje się jakaś karta dźwiękowa.
Najważniejszą jej częścią składową, jest przetwornik A/D-D/A
(analog/digital-digital/analog), zmieniający sygnał analogowy w cyfrowy
i odwrotnie, odpowiedzialny za nagrywanie i odtwarzanie plików WAV.
Proces nagrywania nazywany jest samplingiem. Poziom (głośność) sygnału
wejściowego, pochodzącego np. z mikrofonu lub wejścia LINE IN jest
mierzony w określonych odstępach czasu, zaś wynik pomiaru zapisywany w
pliku WAV. Znajduje się w nim również informacje o parametrach
nagrania, mających wpływ na jakość dźwięku i zapotrzebowanie na wolne
miejsce na dysku. Są to:
Rozdzielczość: określa, czy wartości pomiarowe zapisywane w
pliku WAV mają zajmować 1 czy 2 bajty (8 czy 16 bitów). W jednym bajcie
można zapisać wartości od 0 do 255, natomiast w dwóch bajtach wartości
od 0 do 65535. Obecnie nawet najtańsze na rynku karty są już 16 bitowe.
Częstotliwość próbkowania: odstępy czasowe, w których
dokonywany jest pomiar poziomu sygnału wejściowego. Częstotliwość
próbkowania podawana jest w kilohercach(kHz), 1 kHz odpowiada 1000
pomiarów na sekundę. Najczęściej spotyka się karty próbkujące z
częstotliwościami 8, 11, 22, 44,1, 48 kHz. Najwyższy ton, jaki można
nagrać odpowiada połowie wartości częstotliwości próbkowania. W
przypadku karty posiadającej częstotliwość 44,1 kHz będzie to ok.
22000Hz. Ucho ludzkie potrafi odbierać dźwięki o częstotliwości do ok.
17000 Hz.
- Karta sieciowa
- Karta ETHERNET-eksperymentalny system ETHERNET został opracowany w firmie Xerox w 1972 r. Poczynając od 1980 r. w wyniku wspólnego wysiłku firm Xerox, Intel i DEC powstała unowocześniona wersja sieci znana jako "Ethernet Specifications". W końcu 1981 r. kilka firm komputerowych postanowiło dostarczać na rynek sprzęt i oprogramowanie do pracy w tej sieci. W systemie tym zastosowano metodę śledzenia stanu kanału przy wielokrotnym dostępie, z wykrywaniem kolizji (ang. Carrier Sense Multiple Access with Collision Detection - CSMA/CD). Polega ona na tym, że węzeł, który chce wysłać komunikat wspólną szyną, najpierw testuje, czy w kanale pojawił się sygnał nośny. Jeżeli kanał jest pusty, to komunikat zostaje wysłany; jeżeli jest zajęty, to wusłanie komunikatu jest opóźnione. Po przypadkowo dobranym czasie węzeł ponownie testuje aktywność szyny. W metodzie tej stosuje się zasadę "słuchaj zanim będziesz mówił".
Ze względu na czas, który jest potrzebny na to, aby sygnał został przesłany w sieci, tzw. czas propagacji, może się zdarzyć, że węzeł wykryje wolny kanał, który niemal natychmiast zostaje zajęty, gdy dotrze sygnał z innego węzła. W wyniku tego dwa lub więcej węzłów równocześnie będzie wysyłać dane. Nastąpi kolizja. Jej wykrycie polega na tym, że węzeł, który transmituje dane "słucha w czasie mówienia" (fakt jednoczesnego umieszczenia komunikatów przez dwa lub więcej węzłów powoduje wykrywalną zmianę poziomu energii kanału). Po wykryciu kolizji, każdy węzeł wysyła krótki sygnał o charakterze szumu, co daje gwarancję, że inne węzły również ją wykryją. Potem oba węzły wstrzymują na krótko transmisję (przypadkowy odcinek czasu), a następnie ponawiają próbę transmisji komunikatu według zasady "słuchaj zanim zaczniesz mówić". Jest oczywiste, że im mniej kolizji, tym bardziej efektywna jest sieć.
Standard ETHERNET posiada kilka odmian, których symbole i krótką charakterystykę przedstawiono poniżej:
10Base5 (jest to transmisja niemodulowana - tzw baseband, szybkość transmisji - 10 Mb/s, długość segmentu 500 m.)
10Base2 (10 Mb/s, długość segmentu - 185 m.)
10BaseT (10 Mb/s, medium: skrętka dwuprzewodowa)
100BaseT (100 Mb/s, skrętka 5 kategorii).
Standard 10Base2 znany jest jako Thin ETHERNET, standard 10Base5 - Thick ETHERNET. Na szczególną uwagę zasługuje jeszcze jeden standard: 10BaseF, w którym wykorzystano złącza światłowodowe (ang. Fiber optic).
Karta ETHERNET posiada dwa złącza:
złącze BNC dla standardu 10Base2
złącze 15-stykowe DIX, które poprzez odpowiedni zewnętrzny nadajnik/odbiornik (ang. Transceiver) pozwala na pracę w dowolnym innym standardzie: 10Base5, 10BaseT lub 10BaseF.
Każda stacja pracująca w dowolnej sieci musi być wyposażona w kartę sieciową. Karta ta (inaczej zwana sterownikiem lub kontrolerem) wykonuje funkcje, które zarządzają dostępem do kanału Ethernet. Do funkcji tych należy: sygnalizacja konwencji, kodowanie/dekodowanie, konwersja z postaci szeregowej na równoległą i odwrotnie, rozpoznawanie adresu, wykrywanie błędów, zarządzanie dostępem do kanału i formatowanie ramki. W sieci można wyróżnić dwa rodzaje stacji: stacje robocze (ang. Workstation) i stacje obsługi (ang. File Server). Stacja robocza - to z reguły komputer, przy którym pracuje pojedynczy użytkownik. Stacją obsługi nazywany jest komputer (przeważnie najszybszy w sieci), który umożliwia poszczególnym użytkownikom dostęp do wspólnych danych. Jest to więc komputer kontrolujący wszystkie pliki używane w sieci.
Złącze typu BNC służy do łączenia komputerów za pomocą cienkiego kabla koncentrycznego RG-58 o grubości 1 cala i impedancji 50 Ohm (ang. Thin Ethernet Cable). Złącze 15-stykowe służy do łączenia karty z zewnętrznym nadajnikiem/odbiornikiem linii (ang. Transceiver). Można więc za pomocą tego złącza, poprzez odpowiednie nadajniki/odbiorniki, łączyć komputery, wykorzystując różne media transmisyjne, zgodnie ze standardami: 10Base5, 10BaseT, 10BaseF. Kabel, łączący złącze 15-stykowe z nadajnikiem/odbiornikiem, zwany AUI Drop Cable może mieć maksymalną długość 50 m.
Schemat blokowy karty EtherLink Plus prezentuje rysunek. Karta łączona jest z płytą główną za pomocą 98-stykowego złącza ISA. Najważniejszymi elementami znajdującymi się na karcie są: Ethernet controller - 82586, pamięć RAM - 256 kB, 16-bitowy mikroprocesor - 80186, wewnętrzny nadajnik/odbiornik - 7996, Enkoder/Dekoder - Seeq 8023A, pamięć ROM - 16 kB, oraz układy współpracy z szynami systemowymi - Host Interface. Wewnętrzny nadajnik/odbiornik - AMD - 7996 zapewnia transmisję danych przez złącze BNC w standardzie Thin ETHERNET. Oczywiście układ 7996 można odłączyć za pomocą przełącznika znajdującego się na karcie; wtedy transmisja między komputerami będzie odbywać się poprzez 15-stykowe złącze i zewnętrzne nadajniki/odbiorniki. Pamięć RAM pełni rolę bufora danych nadawanych i odbieranych. Pamięć ROM zawiera testy diagnostyczne, program inicjalizacji, funkcje odświeżania pamięci RAM oraz oprogramowanie obsługi interfejsów.
Karta posiada szereg przełączników i zworek ustawiających parametry konfiguracji sprzętowej:
przełącznik BNC/DIX pozwala wybrać jedno z dwóch złącz wyjściowych karty
zworki wyboru linii przerwań
zworki wyboru kanału DMA
zworki wyboru adresu bazowego w przestrzeni I/O (standardowo karty mają ustawiony adres bazowy we/wy 300H)
mikroprzełączniki wyboru adresu bazowego pamięci
Dokładny opis wszystkich przełączników i zworek znajdujących się na karcie, podany jest w instrukcji obsługi, dołączonej do karty.
Rozmieszczenie zworek i mikroprzełączników na przykładowej karcie ETHERNET pokazuje rysunek. Blok zworek W1..W8 (Connector Type Jumper Block) służy do wybrania jednego z dwóch złączy DIX lub BNC; zworki W9..W10 (Base I/O Address Jumper Block) pozwalają ustawić adres startowy w przestrzeni adresowej Wejścia/Wyjścia; za pomocą zworek W12..W15 (IRQ Jumper Block) można wybrać poziom przerwania IRQ. Za pomocą zworek W9, W10 można ustawić jeden z czterech adresów w przestrzeni adresowej wejścia/wyjścia (ang. Port Addresses): 300H, 320H, 340H, 360H. Wartością domyślną (tzn ustawioną i zalecaną przez producenta karty) jest adres bazowy I/O równy 300H.
Zworki W12..W15 pozwalają wybrać jeden z czterech poziomów przerwania (ang. Interrups): 2, 3, 4, 5. Wartością domyślną (ang. Default) jest IRQ3. Połączenie adresu bazowego I/O 300H oraz zgłoszenie przerwania IRQ3 określone zostało jako zerowa opcja konfiguracji. Z opcji tej korzystamy wtedy, gdy nie zmieniamy wartości domyślnych ustalonych przez producenta. Specjaliści instalujący karty sieciowe winni pamiętać o tym, że na kartach tych należy ustawić takie adresy i poziomy przerwań, których nie mają żadne inne karty i sterowniki zainstalowane w danym komputerze, gdyż w przeciwnym przypadku doszłoby do kolizji między kartami. Ustawienie typu wykorzystywanego złącza, odbywa się za pomocą bloku gniazd W1..W8, które pozwalają umieścić 16-nóżkową zworkę w rzędach 1 i 2, w przypadku złącza typu DIX lub w rzędach 2 i 3, w przypadku wykorzystywanego złącza BNC.
W przypadku, gdy stacja robocza pozbawiona jest pamięci dyskowych, które pozwalałyby włączyć się użytkownikowi do sieci, konieczne jest zainstalowanie na karcie sieciowej pamięci EPROM, która umożliwi tzw zdalny restart, tzn załaduje do pamięci komputera system operacyjny i podłączy stację do sieci. Każda karta sieciowa wyposażona jest więc w podstawkę, do której należy w takiej sytuacji wstawić "kość" pamięci EPROM. Przy montażu należy szczególną uwagę zwrócić na wycięcie (ang. Notch) znajdujące się w podstawce i pamięci. Należy ponadto ustawić zworkę umożliwiającą zdalny restart (ang. Remote Reset Enable) W11.
Powrót na stronę główną.
- Pamięć masowa (HDD)
- Twardy Dysk - (ang. Hard Disk) Historia
pamięci masowych sięga połowy dziewiętnastego wieku - już wtedy używano
kart perforowanych do wprowadzania danych do mechanicznych maszyn liczących.
Pierwsze elektroniczne komputery korzystały z pamięci zbudowanej z lamp
elektronowych, potem zaczęły pojawiać się różnej maści pamięci
magnetyczne - bąbelkowe, taśmowe, bębnowe. Pierwszy w historii twardy
dysk pojawił się w 1957 roku. Wtedy to IBM zaprezentował urządzenie o
nazwie RAMAC 350 - złożony z pięćdziesięciu 24-calowych dysków
zespół miał pojemność 5 MB, a koszt jego rocznej dzierżawy wynosił
35 tys. dolarów; jak nietrudno policzyć, oznaczało to 7 tys. dolarów
za megabajt... W epoce maszyn "mainframe" budowano całe "farmy
dysków" z zamkniętymi w klimatyzowanych pomieszczeniach zestawami
talerzy o średnicach 14 czy 8 cali, wartymi grube dziesiątki tysięcy
dolarów. Pojawienie się IBM PC w roku 1981 wcale nie zapowiadało
rewolucji w dziedzinie pamięci masowych - system operacyjny "prapeceta"
zawierał procedury obsługi pamięci w postaci magnetofonu kasetowego,
choć oczywiście istniała także możliwość korzystania ze stacji
dyskietek. Lista opcjonalnego wyposażenia IBM PC/XT z roku 1983 obejmuje
już twardy dysk o pojemności 5 lub 10 MB - ówczesne napędy o
znajomej średnicy 5,25" miały wysokość trzech cali (podobnie
zresztą, jak wczesne stacje dyskietek) i stąd właśnie określenie "full
height" (współczesny czytnik CD-ROM to "half height").
W roku 1984 Western Digital skonstruował - dzierżący przez kilka lat
godność "standardu przemysłowego", zastosowany w IBM PC/AT
interfejs ST506, zaś w 1986 - opracowany do spółki z firmą Compaq
dobrze nam znany interfejs IDE (Integrated Drive Electronics).
Mniej więcej rok później w komputerach stacjonarnych zaczęto instalować
dyski 3,5" (o wysokości 1", czyli "low profile") -
dopiero potem znalazły one zastosowanie w przenośnych laptopach. Postęp
technologii powodował ciągły wzrost pojemności i szybkości urządzeń,
przy jednoczesnym spadku zapotrzebowania na energię, coraz mniejszej hałaśliwości
i większej niezawodności. Wyniki tego wyścigu obserwujemy
na co dzień. W dwudziestoletniej historii PC najbardziej eksponowany był
zawsze postęp technologii półprzewodnikowej. Postęp w innych, bezpośrednio
z nią związanych dziedzinach technologii był zawsze mniej eksponowany
- w ciągu tego samego czasu, gdy stopniowo dokonywano 100-krotnego
przyspieszania zegara procesora, pojemność typowego dysku stałego wzrosła
1000-krotnie. Dysk stały, dopóki działa i do momentu, gdy mieszczą się
na nim bez kłopotów nasze dane i programy, rzadko bywa przedmiotem
szczególnego zainteresowania. Tylko w momencie zakupu staramy się uzyskać
możliwy kompromis pomiędzy pojemnościami - dysku i portfela, później
dysk schodzi do swojej służebnej roli. Tymczasem od pojemności i szybkości
dysku zależy wydajność komputera i wygoda jego użytkowania, a
niezawodność dysku to w wielu przypadkach sprawa nie tylko bardzo ważna,
ale wręcz kluczowa.Przeciętny
użytkownik komputera traktuje dysk jako "czarne pudełko" zdolne do
zapamiętania pewnej ilości danych - im więcej, tym lepiej. Bardziej
dociekliwi zwracają uwagę również na jego parametry wydajnościowe -
średni czas dostępu do danych oraz szybkość odczytu i zapisu.
Parametry eksploatacyjne każdego urządzenia wynikają z jego
konstrukcji, dlatego najdociekliwsi użytkownicy lubią wiedzieć również,
co jest wewnątrz "czarnego pudełka" i jak to działa.
- Peryferia komputerowe

Urządzenie peryferyjne (ang. peripheral device) - dowolna część komputera inna niż CPU lub pamięć robocza,
jak np. klawiatura, monitor, mysz, drukarka, joystick, skaner, kamera internetowa, napęd taśmowy, mikrofon, głośnik,
aparat fotograficzny.