L.20 Pamięci, Procesory i gniazda, Płyty główne

Pamięci:

Pamięć – zdolność do rejestrowania i ponownego przywoływania wrażeń zmysłowych, skojarzeń, informacji, występująca u ludzi, niektórych zwierząt i w komputerach. W każdym z tych przypadków proces zapamiętywania ma całkowicie inne podłoże fizyczne oraz podlega badaniom naukowym w oparciu o różne zestawy pojęć.

Pamięć komputerowa to różnego rodzaju urządzenia i bloki funkcjonalne komputera, służące do przechowywania danych i programów (systemu operacyjnego oraz aplikacji). Potocznie przez "pamięć komputerową" rozumie się samą pamięć operacyjną.

RAM (ang. Random Access Memory – pamięć o dostępie swobodnym) – podstawowy rodzaj pamięci cyfrowej. Choć nazwa sugeruje, że oznacza to każdą pamięć o bezpośrednim dostępie do dowolnej komórki pamięci (w przeciwieństwie do pamięci o dostępie sekwencyjnym, np. rejestrów przesuwnych), ze względów historycznych określa ona tylko te rodzaje pamięci o bezpośrednim dostępie, w których możliwy jest wielokrotny i łatwy zapis, a wyklucza pamięci ROM (tylko do odczytu) i EEPROM których zapis trwa znacznie dłużej niż odczyt, pomimo iż w ich przypadku również występuje swobodny dostęp do zawartości[1].

W pamięci RAM przechowywane są aktualnie wykonywane programy i dane dla tych programów oraz wyniki ich pracy. W temperaturze pokojowej zawartość większości pamięci RAM jest tracona w czasie mniejszym niż sekunda po zaniku napięcia zasilania, niektóre typy wymagają także odświeżania, dlatego wyniki pracy programów, wymagające trwałego przechowania, muszą być zapisane na innym nośniku danych.

Pamięci RAM dzieli się na pamięci statyczne (ang. Static RAM, w skrócie SRAM) oraz pamięci dynamiczne (ang. Dynamic RAM, w skrócie DRAM). Pamięci statyczne są szybsze od pamięci dynamicznych, które wymagają ponadto częstego odświeżania, bez którego szybko tracą swoją zawartość. Pomimo swoich zalet są one jednak dużo droższe; używane są w układach, gdzie wymagana jest duża szybkość (np. pamięć podręczna procesora lub ilość pamięci jest niewielka, że nie opłaca się konstruować układu odświeżania (np. proste mikrokontrolery). W komputerach wymagających dużej ilości pamięci jako pamięć operacyjną używa się pamięci DRAM.

Pamięć RAM jest stosowana głównie jako pamięć operacyjna komputera, jako pamięć niektórych komponentów (procesorów specjalizowanych) komputera (np. kart graficznych, dźwiękowych, itp.), jako pamięć danych sterowników mikroprocesorowych.

Współczesna pamięć RAM jest realizowana sprzętowo w postaci układów scalonych występujących w różnych technologiach lub jako fragmenty bardziej złożonych scalonych układów cyfrowych (np. pamięć cache L1, L2 procesora, a ostatnio także L3) oraz w postaci różnych modułów, znajdujących głównie zastosowanie w komputerach. Wyróżnia się pamięci trwałe (NVRAM) i ulotne.
Pamięci nieulotne (Non-Volatile Random Access Memory)
FRAM – nośnikiem danych jest kryształ
MEMS – pamięć mikroelektromechaniczna
MRAM – nośnikiem danych są magnetyczne złącza tunelowe (konstrukcja prototypowa)
NRAM – Nanotube RAM – pamięć zbudowana z węglowych nanorurek (konstrukcja eksperymentalna)
OUM – pamięć oparta o zmiany stanu stopów pierwiastków rudotwórczych
PRAM – elementem pamięciowym jest kryształ (konstrukcja prototypowa)

Podział pamięci ze względu na
ulotność:
pamięci ulotne przechowują dane tak długo, jak długo włączone jest ich zasilanie
pamięci nieulotne zachowują dane także po odłączeniu zasilania
możliwość zapisu i odczytu:
tylko do odczytu (zapis odbywa się w fazie produkcji)
jednokrotnego zapisu
wielokrotnego zapisu, ale ograniczoną liczbę razy, długotrwałego i utrudnionego
wielokrotnego trwającego w porównywalnie z odczytem, łatwego i nieograniczoną liczbę razy
wymagająca kasowania przed zapisem nowych danych
nośnik:
półprzewodnikowy (układ scalony)
optyczny
magnetyczny (w tym pamięć ferrytowa)
magnetooptyczny
polimerowy (np. Millipede)
papierowy (np. karta dziurkowana)
linia opóźniająca (np. pamięć rtęciowa)
łatwość (możliwość) przeniesienia wraz z zapisem do innego urządzenia
miejsce w konstrukcji komputera:
rejestry procesora
pamięć podręczna, czyli cache
pamięć operacyjna - dostępna bezpośrednio przez procesor, w tym RAM
zewnętrzna - dostępna dla procesora jako urządzenie zewnętrzne, w tym pamięci USB, masowa (stacje dysków, taśm itp.)
pamięć robocza podzespołów (np. rejestry stanu urządzenia, bufory w kartach sieciowych, bufor wysyłanego lub odebranego znaku w łączu szeregowym, pamięć obrazu w kartach grafiki)
sposób dostępu do informacji:
pamięć o dostępie swobodnym - po wybraniu adresu dostępna jest dowolna jednostka pamięci
pamięć o dostępie szeregowym (cyklicznym) (rejestry przesuwne, pamięć taśmowa) - dostęp do danych wymaga odczytania ich kolejno
pamięć skojarzeniowa (asocjacyjna) - miejsce dostępu do niej jest zależne od zawartości innej pamięci
pamięć wielopoziomowa - pamięć o dostępie szeregowym w obrębie szeregowym, z możliwością wyboru sektorów
Urządzenia z kategorii pamięci
taśmy i karty dziurkowane (obecnie już praktycznie nieużywane)
karty magnetyczne (także o znaczeniu historycznym)
taśmy magnetyczne na szpulach i w kasetach
bębny
dyskietki (magnetyczne "dyski miękkie")
dyski twarde (magnetyczne)
dyski optyczne:
CD-ROM, CD-R, CD-RW
DVD-ROM, DVD-R, DVD-RW, DVD+R, DVD+RW
HD DVD
BD-ROM, BD-R, BD-RW
DMD
EVD
HVD
dyski magnetooptyczne
Parametry pamięci i nośników pamięci
Zestawienie alfabetyczne podstawowych parametrów pamięci z pominięciem rozróżnienia na typ i rodzaj pamięci:
czas cyklu (ang. cycle time) – najkrótszy czas jaki musi upłynąć pomiędzy dwoma żądaniami dostępu do pamięci,
czas dostępu (ang. access time),
czas oczekiwania CAS (ang. CAS latency)
gęstość zapisu (ang. computer storage density) – ilości informacji, jaką można zapisać na określonej długości ścieżki,
ilość, pojemność, wielkość – liczba danych jaką może przechować pamięć, w zależności od rodzaju i przeznaczenia wyrażana w bitach lub bajtach,
liczba cylindrów, ścieżek na każdej powierzchni roboczej dysku (zob. CHS),
liczba głowic odczytu/zapisu – od kilkunastu do kilkudziesięciu,
pobór mocy – podawany w watach,
prędkość obrotowa dysku – parametr dysków twardych (ang. hard drive) wyrażany w liczbie obrotów na minutę,
średni czas dostępu (ang. average access time) – średni czas po jakim urządzenie udostępnia dane, dla dysków jest sumą średniego czasu poszukiwania (ang. average seek time) potrzebnego do umieszczenia głowicy w wybranym cylindrze oraz, opóźnienia rotacyjnego potrzebnego do umieszczenia głowicy nad odpowiednim sektorem (ang. rotational latency)
szybkość transmisji (ang. transfer speed) – liczbą bitów (bajtów) jaką można przesłać w jednostce czasu pomiędzy pamięcią a innym urządzeniem,
zasilanie – wyrażane w woltach [V].
Szybkość pamięci
Koszt pamięci jest zazwyczaj związany z szybkością dostępu do danych danego rodzaju pamięci – im szybsza pamięć tym jest droższa. Dlatego stosowane są różne techniki przenoszenia danych pomiędzy różnego typu pamięciami, aby zapewnić możliwie krótki czas dostępu do najbardziej potrzebnych danych przy ograniczonych zasobach najszybszych pamięci. Dane aktualnie używane są trzymane w szybszej pamięci, natomiast te aktualnie niepotrzebne w wolniejszej. Ponieważ różnice w czasie dostępu między kolejnymi poziomami są często rzędu 10:1, dobre wykorzystanie właściwości pamięci podręcznej (cache) ma zazwyczaj większe znaczenie niż liczba cykli procesora koniecznych do wykonania algorytmu. Zasada przenoszenia mniej potrzebnych danych do wolniejszej pamięci jest podstawą funkcjonowania pamięci wirtualnej komputera oraz stronicowania pamięci.
Klasyczne rodzaje pamięci używane w komputerach PC (uszeregowane od najszybszej):
rejestry procesora, rozmiar rzędu kilkudziesięciu do kilkuset bajtów
pamięć podręczna procesora pierwszego poziomu (cache L1), wbudowana w procesor, rozmiar od 4 do 64 kB
pamięć podręczna procesora drugiego poziomu (cache L2), rozmiar od 128 kB do 24 MB
pamięć RAM, rozmiar obecnie od 256 MB (dawniej od kilku kB) do kilku GB
plik wymiany (swap) na dysku twardym, rozmiar rzędu kilkudziesięciu MB do kilku GB (definiowany przez użytkownika lub automatycznie przez system operacyjny)

Procesory i gniazda:

    Procesor (ang. processor), także CPU (ang. Central Processing Unit) – urządzenie cyfrowe sekwencyjne, które pobiera dane z pamięci, interpretuje je i wykonuje jako rozkazy. Wykonuje on ciąg prostych operacji (rozkazów) wybranych ze zbioru operacji podstawowych określonych zazwyczaj przez producenta procesora jako lista rozkazów procesora.
Procesory (zwane mikroprocesorami) wykonywane są zwykle jako układy scalone zamknięte w hermetycznej obudowie, często posiadającej złocone wyprowadzenia (stosowane ze względu na odporność na utlenianie). Ich sercem jest monokryształ krzemu, na który naniesiono techniką fotolitografii szereg warstw półprzewodnikowych, tworzących, w zależności od zastosowania, sieć od kilku tysięcy do kilku miliardów tranzystorów. Połączenia wykonane są z metalu (aluminium, miedź).
Jedną z podstawowych cech procesora jest długość (liczba bitów) słowa, na którym wykonywane są podstawowe operacje obliczeniowe. Jeśli słowo ma 64 bity, mówimy, że procesor jest 64-bitowy.
Innym ważnym parametrem określającym procesor jest szybkość, z jaką wykonuje on rozkazy. Przy danej architekturze procesora, szybkość ta w znacznym stopniu zależy od czasu trwania pojedynczego taktu.
 
    Budowa
W funkcjonalnej strukturze procesora można wyróżnić takie elementy, jak:
zespół rejestrów do przechowywania danych i wyników, rejestry mogą być ogólnego przeznaczenia lub mają specjalne przeznaczenie,
jednostkę arytmetyczną (arytmometr) do wykonywania operacji obliczeniowych na danych,
układ sterujący przebiegiem wykonywania programu,
inne układy, w które producent wyposaża procesor w celu usprawnienia jego pracy.
Rozmiary elementów
Jednym z parametrów procesora jest rozmiar elementów budujących jego strukturę. Im są one mniejsze, tym niższe jest zużycie energii, napięcie pracy oraz wyższa możliwa do osiągnięcia częstotliwość pracy. Współczesne procesory używane w komputerach osobistych wykonywane są w technologii pozwalającej na uzyskanie elementów o rozmiarach 45 i 32 nm, pracujących z częstotliwością kilku GHz. Intel w 2012 roku wydał procesory wykonane w rozmiarze technologicznym 22 nm (Ivy Bridge).
Aby ograniczyć straty związane z powstawaniem defektów w tak małych strukturach, fabryki procesorów muszą posiadać pomieszczenia o niezwykłej czystości, co jest bardzo kosztowne.
Wielordzeniowość i procesory pomocnicze
    Współcześnie większość procesorów ma wielordzeniową budowę. Pierwszym procesorem wielordzeniowym ogólnego przeznaczenia był procesor Power 4 firmy IBM wprowadzony na rynek w roku 2001. Pierwszymi procesorami wielordzeniowymi architektury x86 były wersje procesorów Opteron firmy AMD i Pentium Extreme Edition firmy Intel wprowadzone w kwietniu 2005 roku.
Popularnym modelem firmy Intel, który kontynuował ten trend był Intel Pentium D. Prawdziwym przebojem stał się dopiero Intel Core 2 Duo zbudowany na bazie architektury Conroe (65 nm). Najszybsze dziś modele mają rdzeń taktowany zegarem 4.40GHz (AMD A10-6800K).
Największy konkurent Intela, czyli AMD, wprowadził do sprzedaży popularny model procesora dwurdzeniowego o nazwie Athlon 64 X2. Obie firmy mają dziś w ofercie także modele czterordzeniowe (niektóre Core i5 oraz Core i7 Intela i AMD Athlon II X4 oraz Phenom II X4 AMD) oraz sześciordzeniowe (Phenom II X6 oraz Core i7 serii 9x0) przeznaczone do komputerów klasy desktop. Procesory ośmiordzeniowe wprowadziło tylko AMD (seria FX). Dostępne procesory do zastosowań serwerowych mogą mieć do 10 (Intel Xeon), lub nawet 16 rdzeni (AMD Opteron) (stan na marzec 2012). Przewiduje się, że w przyszłości, przez co najmniej kilka następnych lat, liczba rdzeni w procesorach wielordzeniowych dostępnych na rynku będzie się podwajać w tempie podobnym jak liczba tranzystorów w pojedynczym układzie, czyli zgodnie z prawem Moore'a ok. co 2 lata.
Projektanci procesorów próbują także innych metod zwiększania wydajności procesorów, jak np. Hyper-Threading, gdzie każdy rdzeń może się zachowywać jak dwa procesory logiczne, dzielące między siebie zasoby pamięci podręcznej i jednostek wykonawczych. Gdy jeden z konkurujących ze sobą procesów pozostawia niewykorzystane zasoby, proces przypisany do drugiego procesora logicznego może ich użyć, co w sprzyjających okolicznościach może prowadzić do sumarycznego wzrostu wydajności o kilka do kilkunastu procent.
W roku 2007 Intel zaprezentował testy układu scalonego wyposażonego w 80 rdzeni ogólnego przeznaczenia, który osiągnął wydajność ponad 1 TFlops.
    Komputer oprócz procesora głównego (CPU) ma procesory pomocnicze: obrazu (GPU, najnowsze konstrukcje pozwalają na integrację CPU z GPU w APU), dźwięku, koprocesory arytmetyczne (od lat 90. na ogół są zintegrowane z CPU).

 

Płyty główne:

Płyta główna (ang. motherboard, mainboard) – obwód drukowany urządzenia elektronicznego, na którym montuje się najważniejsze elementy, umożliwiając komunikację wszystkim pozostałym komponentom i modułom.
W komputerze na płycie głównej znajdują się: procesor/y, pamięć operacyjna lub gniazda do zainstalowania tych urządzeń oraz gniazda do zainstalowania dodatkowych płyt zwanych kartami rozszerzającymi (np. PCI), oraz gniazda do urządzeń składujących (dyski twarde, napędy optyczne itp.), złącze klawiatury i zasilacza. W niektórych konstrukcjach także gniazda do innych urządzeń zewnętrznych do których sprzęt znajduje się na płycie głównej (port szeregowy, port równoległy, USB).
Koncepcję zbudowania komputera osobistego wyposażonego tylko w minimum potrzebnych urządzeń zmontowanych na jednej płycie drukowanej oraz gniazd, do których podłącza się dodatkowe urządzenia zapoczątkowała firma IBM wprowadzając komputer osobisty, zwany też PC.
Budowa płyty głównej komputera typu PC
W miarę wzrostu stopnia integracji układów scalonych, w celu poprawy szybkości działania oraz obniżenia kosztów budowy całego komputera postępuje integracja elektroniki komputera w kilku układach scalonych umożliwiających współpracę procesora z innymi układami.
W konfiguracjach dominujących w pierwszej dekadzie XXI wieku większość urządzeń zrealizowanych na płycie głównej zgrupowana jest w dwóch układach scalonych zwanych mostkami. Bliższy procesorowi zwany mostkiem północnym oraz współpracujący głownie z procesorem poprzez mostek północny zwany południowym lub zintegrowana w układzie MCP.
Mostek północy jest połączony z procesorem za pomocą magistrali FSB lub łączy Hyper Transport. W nowszych rozwiązaniach układ ten zawiera podstawowy kontroler PCIe (lub w starszych rozwiązaniach – AGP), służący najczęściej do podłączenia urządzeń z rodzaju kart graficznych (także zintegrowanych), ale też wszelkich urządzeń wymieniających z procesorem lub pamięcią duże ilości danych (bardzo często zintegrowane karty sieciowe).
Mostek południowy (jeśli występuje) jest podłączony do mostka północnego za pomocą magistrali (na przykład FSB) albo łączem typu Punkt-Punkt jak Hyper Transport. Zawiera drugi kontroler PCIe, kontrolery SATA, ATA, USB, zintegrowany kontroler dźwięku (np. AC97), kontrolery Ethernetu, itd... Jeśli na płycie głównej występuje tylko jeden układ, to najczęściej wszystkie funkcje mostka południowego i północnego są w nim zintegrowane.
Poza wyżej wymienionymi elementami na płycie głównej zawsze jest umieszczony układ BIOS-u, a także moduł zegara czasu rzeczywistego (RTC) wraz z modułem bateryjnego podtrzymania zegara.

ATX (ang. Advanced Technology Extended) – standard konstrukcji płyt głównych oraz zasilaczy i obudów komputerowych do nich.


Wtyczka zasilania płyty głównej ATX 2.0 (widok od spodu). Zasilacz można uruchomić łącząc punkt PS_ON (przewód zielony) z masą (przewód czarny).
Standard ATX został opatentowany przez firmę Intel w 1995 roku. Był to spory krok naprzód w porównaniu do wcześniejszych konstrukcji typu AT, które królowały przez wiele lat. Zalety tej zmiany były oczywiste, więc ATX wyparł swojego poprzednika z rynku stając się nowym standardem.
Zmiany

Układ płyty głównej. Ścisłe określenie położenia niektórych elementów pozwoliło na pewną niwelację niedociągnięć w budowie wcześniejszych płyt. Standard ATX jednoznacznie określa, w którym miejscu ma się znajdować procesor. Pozwoliło to na instalowanie dłuższych kart w slotach PCI oraz ISA. Wcześniej przeszkadzała w tym lokalizacja procesora. Lepsze rozmieszczenie poszczególnych komponentów zezwoliło na zredukowanie plątaniny kabli oraz łatwiejszy dostęp do niektórych części (np. moduły pamięci umieszczone na środku, kontrolery FDD i IDE bliżej samych napędów).
Gniazdo zasilające płytę główną. W konstrukcji AT zasilacz był łączony z płytą główną poprzez dwuczęściowe gniazdo. Części były do siebie podobne i możliwe było nieprawidłowe podłączenie, które mogło doprowadzić do uszkodzenia płyty. Dlatego też zastąpiono je większymi, jednoczęściowymi gniazdami. Jednocześnie istotne stało się zwiększenie mocy dostarczanej do płyty (istotne szczególnie przy zastosowaniu nowszych kart AGP,PCI Express, bądź bardzo szybkich procesorów), więc konieczne było zastosowanie gniazd pomocniczych.
Porty. Niewiele portów, zwykle tylko port klawiatury, widocznych na tylnej ściance obudowy w konstrukcjach AT wychodziło bezpośrednio z płyty głównej. Trzeba było korzystać z dodatkowych przejściówek (np. w przypadku portów szeregowych i równoległych). Standard ATX zakładał taką konstrukcję płyt i obudów, aby możliwe było umieszczenie portów bezpośrednio na tylnej ścianie obudowy.
Funkcja Soft Power. Umożliwia ona kontrolę zasilania z poziomu systemu operacyjnego oraz umożliwia oszczędzanie energii, poprzez wprowadzanie komputera w stan uśpienia po dłuższej bezczynności.
Chłodzenie. Dzięki zmienionej konstrukcji obudowy, poprzez jednoczesny nawiew i wywiew powietrza, chłodzenie komputera stało się bardziej wydajne.
Urządzenia zintegrowane. W starszej wersji płyty AT nie było żadnego urządzenia zintegrowanego. W nowej wersji typu ATX pojawiły się już zintegrowania(karty graficzne, karty dźwiękowe, karty sieciowe)
Konstrukcje ATX używały 20-pinowego łącza zasilania zlokalizowanego na płycie głównej. Nowsza specyfikacja zaleca używanie 24-pinowych łączy aby umożliwić zasilanie szyny PCI Express.
Następcą standardu ATX miał być BTX jednak firma Intel z powodu małej popularności tego rozwiązania zaprzestała jego dalszego rozwoju.

WTX (ang. Workstation Technology Extended) – rodzaj płyty głównej stworzonej przez firmę Intel w 1998 roku.
Głównym zastosowaniem płyt w standardzie WTX są serwery i stacje robocze typu high-end często wieloprocesorowe wyposażone w kilka twardych dysków. WTX posiada architekturę umożliwiającą łatwiejsze uaktualnienie konfiguracji poprzez wymianę modułu specjalnego karty rozszerzającej "Riser Card" zawierającej układy oraz złącza komunikacyjne. Specyfikacja ta określa tzw. strefy związane z poszczególnymi elementami płyty głównej. Odpowiednie wycięcia w obudowie umożliwiają łatwe instalowanie różnych modułów "Riser Card", zależnie od zapotrzebowań mogą to być kontrolery SCSI, karty sieciowe lub szybkie adaptery Super I/O. Płyta mogła zawierać nawet 4 zasilacze. Posiadała także możliwość podłączenia 10 lub więcej w zależnie od płyty dysków twardych.

NLX - standard konstrukcji obudów i płyt głównych komputerów wprowadzony na rynek przez firmę Intel w 1996 roku.
Specyfikacja ta powstała po to, aby ułatwić montaż i demontaż urządzeń w komputerze (np. dyski twarde montowane są na zaczepach, a nie za pomocą śrub), a także dostęp do poszczególnych komponentów komputera, takich jak pamięć RAM czy płyta główna.
Komputery oparte na architekturze NLX są produkowane i rozprowadzane przez dużych sprzedawców i praktycznie nieosiągalne w obrocie detalicznym, gdzie najpopularniejszym formatem jest ATX.

BTX (ang. Balanced Technology Extended) – standard konstrukcji płyt głównych oraz zasilaczy i obudów komputerowych, który został zaproponowany w 2004 roku przez firmę Intel jako następca standardu ATX.
Zmiany dotyczą przede wszystkim takiego rozmieszczenia elementów płyty głównej, aby strumień chłodzącego powietrza przepływał od przodu do tyłu obudowy komputera, a wydzielające dużą ilość ciepła komponenty oddawały je w jego kierunku. W przedniej części obudowy umieszczony jest duży, dobrej jakości wentylator, który chłodzi radiator procesora oraz wymusza obieg powietrza we wnętrzu obudowy. Elementy wydzielające ciepło, takie jak karta graficzna czy moduły pamięci, umieszczone są równolegle do strumienia, by nie powodować jego zaburzeń.
Jednocześnie zmniejszono wymagania odnośnie przestrzeni potrzebnej do budowy pełnowymiarowych konstrukcji (zwłaszcza pod względem wysokości), co stanowi krok w kierunku platform serwerowych, zwłaszcza kasetowych.
Z planów firmy Intel wynika, że firma zamierza uśmiercić standard płyt głównych BTX, niedoszłego następcę zadomowionego na rynku od lat formatu ATX.
Inercja rynku jest na tyle duża, że BTX nie przyjął się – producenci płyt głównych zignorowali temat, zaś wytwórcy obudów i zasilaczy, mimo kilku premier, poszli w końcu w ich ślady.

=