Princeton i Harvard architektura systemów komputerowych

Każdy wie, jaki nieoceniony wkład w rozwój technologii komputerowej sprawili amerykańscy naukowcy. Chociaż badania przeprowadzono na wielu uniwersytetach w tym kraju, mistrzostwa palmowe należą do Harvardu i Princeton. Tam właśnie opracowano wersje architektury komputerów, które doprowadziły do ​​powstania koncepcji rozwoju technologii komputerowej.

Od tego, co się wszystko zaczęło

W połowie lat 30. XX w. Departament wojskowy Stanów Zjednoczonych polecił uniwersytetom w Princeton i Harvard stworzyć elektromechaniczny system komputerowy zaprojektowany do obsługi artylerii US Navy.


W rezultacie istniały 2 koncepcje. Dziś są znane jako architektura Harvard i Princeton.

względem koncepcyjnym, w przeciwieństwie do

Główna różnica między tymi dwoma koncepcji jest to, że von Neumann architektura (prynstonskaya) zastosowano pojedynczą pamięć, która jest wspólna szyna danych. Co się tyczy jego "konkurenta",, którego autorem był Howard Eiken w celu jego wdrożenia, wymaga obecności kilku opon. Ponadto architektura Harvardu systemu komputerowego różni się od Princeton tym, że jego wdrożenie, z dostateczną złożonością schematu, jest szybsze. Wynika to z faktu, że w oprogramowaniu Von Neumann programy i dane pamięci mogą nie być dostępne jednocześnie.

Architektura Harvardu a Princeton

Jak wiadomo, główne składniki komputera to ALU i pamięć. Oczywiście, im mniejsze przewodyPomiędzy nimi, tym lepiej. Z tego punktu widzenia i biorąc pod uwagę możliwości techniczne, które miały miejsce przed końcem lat 60. ubiegłego wieku, niewątpliwie wiodła neumańska architektura. To właśnie stanowiło podstawę projektowania procesorów RISC.


Jednak postęp naukowy i technologiczny nie ustabilizował się, a półprzewodniki pojawiły się w latach 70. XX wieku. Dzięki ich pomocy udało się stworzyć wiele mikro-przewodników, co wyeliminowało problem z wykorzystaniem dużej liczby kontaktów i doprowadziło do nadejścia ery architektury Harvardu.

Dalsza konfrontacja

Pojawienie się procesorów opracowanych na podstawie architektury Harvardu, spotkało się bez większego entuzjazmu, ponieważ w tamtym czasie nie istniały, zdolne do uzyskania namacalnych korzyści z ich wykorzystania. W szczególności, ze względu na to, że nie mogły działać na wysokich częstotliwościach, nazwano je procesorami dla ubogich. Sytuacja z popytem na architekturę Harvardu zmieniła się po pojawieniu się Apple I. Działała na 8-bitowym procesorze MOS 6502 działającym na architekturze Harvardu i systemie operacyjnym Apple DOS. Prostota systemu operacyjnego została zrekompensowana złożoną konstrukcją procesora o nazwie CISC. Miał oddzielną 16-bitową magistralę adresową i pozwalał na dowolną manipulację rejestrami. Procesor CISC miał wydajność, która kilkakrotnie przewyższała wszystkie istniejące. Następnie IBM powtórzył pomysł firmy Apple, tworząc komputer osobisty IBM PC z procesorem Intel, działający zgodnie z koncepcją architektury Harvard. Jako system operacyjny, produkt Microsoft -Microsoft DOS. Układy o tej kompozycji nazywane są Wintel.

Wady Harvard komputer architektury

Zgodnie z procesorami CISC wydajności musiał zapłacić podwoiła /potroiła liczbę kontaktów. Stało się to nie tylko przyczyną przegrzania, ale także nałożono ograniczenia na jego wielkość. Średnio na każdy 20-procentowy wzrost wydajności procesora Harvard jego pobór mocy wzrósł do 50 procent. W celu rozwiązania tego problemu zostały wynalezione procesory wielordzeniowe, w którym częstotliwość poszczególnych rdzeniu zredukowana, ale ogólne osiągi jeszcze przekroczone nich rozproszone jednojądrzastych.

Wpływ Princeton Harvard architektury systemów komputerowych na dalszy rozwój obliczeniowych matematyki

przejścia Sun do wielofunkcyjnej zaprzestano ery klasycznego programowania, t. K. W wielowątkowym obliczania potrzebnej do zmiany klasyczne algorytmy programowania oparty na schemacie . Doprowadziło to do luki między możliwościami istniejącymi możliwościami obliczeniowymi komputerów i matematyki. Problem pogorszyły po Law dowody Amdahla zgodnie z którym nie da się w pełni rozwijać rasparallelennыy algorytm obliczeniowy, czyli taki, w którym nie byłoby pewne cząstki kolejne operacje.

Nowoczesna architektura PC

Obecnie istnieją różne typy komputerów, a nawet hybrydowych architekturach. Jednak główne zasady, które je definiują to:
  • Zarządzanie oprogramowaniem. To pozwala zautomatyzowaćproces obliczania na komputerze. Zgodnie z tą zasadą decyzja o dowolnym zadaniu jest wykonywana w programie, który określa kolejność akcji komputera.
  • Zasada programu zapisanego w pamięci. Zawiera wymóg reprezentowania poleceń w postaci liczb, tak jak ma to miejsce w przypadku danych i przetwarzania ich w taki sam sposób, jak liczb. Jednocześnie jest ładowany do pamięci RAM przed jej uruchomieniem, co umożliwia przyspieszenie procesu wykonywania.
  • Zasada losowego dostępu do pamięci komputera. Elementy programu i dane są zapisywane w dowolnym miejscu VP. To rozwiązanie umożliwia dostęp do określonego obszaru pamięci bez zmiany poprzedniego.
  • Teraz już wiesz, czym różni się architektura Harvardu od Princeton i jakie ma znaczenie dla rozwoju komputerów. Być może z biegiem czasu pojawią się nowe zasady budowania systemów komputerowych, które pozwolą osiągnąć wyniki, które dziś wydają się fantastyczne.

    Powiązane publikacje