Elementarna podstawa: definicja, klasyfikacja, cechy

Elementarna podstawa komputera nazywana jest ich głównym elementem elektronicznym. Ten składnik różni się w zależności od generacji komputerów. Generacje bazy elementów komputerowych wyjaśniają historię rozwoju komputerów w oparciu o ewoluujące technologie. Z każdą nową generacją obwodów komputerowych ich rozmiary stały się jeszcze bardziej miniaturowe, szybkość przetwarzania informacji podwoiła się, pamięć stała się większa, a wygoda i niezawodność poprawione. Oś czasu, ustawiona dla każdego pokolenia, jest ważna dla zrozumienia, co jest podstawową podstawą komputera. Ale nie jest ona zdefiniowana do końca i jest uważana raczej za warunkową. Generacje bazy elementów są w rzeczywistości oparte na ewoluującej technologii układów, a nie w określonych ramach czasowych.


Pierwsza generacja komputerów

Pięć generacji komputerów może charakteryzować się przepływającym prądem elektrycznym:
  • w lampach próżniowych;
  • w tranzystorach;
  • w układach scalonych;
  • w mikroprocesorowych układach scalonych;
  • w inteligentnych urządzeniach zdolnych do sztucznej inteligencji.
  • Pierwsza generacja komputerów pojawiła się w latach 1940-1950. Komputery pierwszej generacji były w rzeczywistości pierwszymi uniwersalnymi i oryginalnymi komputerami cyfrowymi. Wyglądało na to, że zastępują systemy elektromechaniczne, które były zbyt wolne, aby przypisać zadania. Pierwsze generatory komputerowe wykorzystywały lampy próżniowe do przełączania. Uszczelnione szkło pozwalało prądowi przepływać przez przewody z gwintówdo metalowych płyt.

    jako pierwszy komputer pracy

    Komputer elementu podstawowego, probówki z zamkniętych pojemnikach szklanych wielkości żarówki. W systemie nie było żadnych ruchomych części. Lampy bazowe komórkowej były pierwszej generacji, zwany diody i triody. Wejście i wyjście zostały wykonane za pomocą kart perforowanych, bębny magnetyczne, maszyny do pisania i wystukał czytelników. Interfejs systemu został wykonany przy użyciu wtyczek i języka maszynowego.


    Podstawowa podstawa komputera pierwszej generacji była trudna w użyciu. Urządzenia łączyły obwody elektryczne, łącząc liczne kable ze złączami. Następnie użyli specjalnych kart dziurkowanych i czekali kilka godzin, aby uzyskać wynik dla dowolnej formy obliczeń. Pierwsze komputery były tak duże, że zajmowały cały pokój. Wciąż brakowało języka asemblera i oprogramowania systemu operacyjnego. Systemy mogą rozwiązać tylko jeden problem naraz. Maszyny te zostały zaprojektowane dla niskopoziomowych operacji, programowanie i wykonywane przy użyciu tylko cyfr binarnych 0 i 1.

    ENIAC - najpotężniejszy z pierwszych komputerów

    Jednym z największych komputera w tej epoce był ENIAC (Electronic Numerical Integrator i komputer), zaprojektowany i zbudowany przez inżyniera Jana Mauchly'ego i Prespera Eckert z University of Pennsylvania. Jego kolekcja została wykonana przez zespół pięćdziesięciu osób. ENIAC był 1000 razy szybciej niż w poprzednich komputerach elektromechanicznych, ale znacznie wolniej podczas przeprogramowania. Między innymiENIAC wykorzystano do zbadania możliwości broni termojądrowej, balistycznych ostrzałów artyleryjskich i silników z zapłonem termicznym, a czasem także prognoz pogody. Systemy te były ogromne i zajmowały całe pomieszczenia, zużywając dużo energii elektrycznej, co czyniło je źródłem nieznośnego ciepła.

    Uniwersalny automatyczny komputer

    UNIVAC (uniwersalny automatyczny komputer) został stworzony przez wszystkich tych samych inżynierów - Johna McClie i Johna Prespera Eckerta. Komputer był pierwszym w tej samej erze, który został zaprojektowany do celów komercyjnych, oprócz wojskowego użytku. Używając swojej bazy elementów, manipulował alfabetami i liczbami całkiem dobrze i został wykorzystany przez US Census Bureau do przeniesienia ogólnej populacji. Później był używany do kompilacji raportów sprzedaży firmy, a nawet przewidywania wyników wyborów prezydenckich w 1952 roku. W przeciwieństwie do ponad 17 000 lamp ENIAC, UNIVAC użyłem nieco ponad 5000 żarówek. Był także dwukrotnie bardziej prawdopodobny niż jego poprzednik. Ponad 46 z tych komputerów zostało sprzedanych.

    Komputery drugiej generacji: lata 1950-1960

    Komputery drugiej generacji to komputery, w których zamiast lamp próżniowych stosowane były tranzystory. To była podstawowa podstawa drugiej generacji. Nowe komputery były lepsze niż ich poprzednicy na wiele sposobów ze względu na stosunkowo mały rozmiar, szybkość i niższe koszty. Tranzystory są elementami składowymi praktycznie każdego mikroczipa i są bardziej niezawodne,energooszczędny i zdolny do przewodzenia energii szybciej i lepiej niż lampy próżniowe.
    W komputerach bazowych rurowy element drugiej generacji, którymi włączone tranzystory, przełączniki lub znajdował migawki elektroniczne służące do zwiększenia lub regulowania prądu i włączania lub wyłączania sygnałów elektrycznych. Tranzystory nazywane są półprzewodnikami, ponieważ zawierają elementy umieszczone między przewodnikami i izolatorami.

    Wynalazek półprzewodników tranzystor

    półprzewodniki tranzystor wynaleziono w Bell Laboratories 1947 naukowcy Shockleya William John Bardeen Walter Brattentom ale nie wypuszczać do połowy 1950 roku. Inżynierowie i twórcy nowych komponentów widzieli przyszłość komputerów drugiej generacji poprawić procedury wejścia i wyjścia danych. Początkowo procesy te były podobne do najnowszych modeli komputerów pierwszej generacji. Praca była dość pracochłonna i wyczerpująca, ponieważ wiązała się z pracą kilku pracowników, którzy przenosili karty dziurkowania z pokoju do pokoju.

    System wsadowy transmisji danych

    W celu przyspieszenia procesu stworzono i wdrożono system wsadowy. Zawierał on zbieranie danych z wielu zadań do wielu kart dziurkowanych i złożenie ich w taśmie magnetycznej przy użyciu stosunkowo niewielki i niedrogi system. IBM-1401 był jednym z tych komputerów. Dla niego użyto systemu operacyjnego IBM-7094 i Fortran Monitor System. Po zakończeniu przetwarzania danych pliki zostały przesłane z powrotem na taśmę magnetyczną. Używając mniejsystem, na przykład dane IBM-1401 mogą być drukowane na kilku kartach dziurkowanych jako informacje wyjściowe. To były zwiastuny oprogramowania systemu operacyjnego.

    Charakterystyka komputerów drugiej generacji

    Następnie rozpoczął się proces aktualizacji restrykcyjnego kodu maszynowego na języki, które w pełni obsługują kodowanie symboliczne i alfanumeryczne. Programiści mogą teraz pisać asemblery i języki wysokiego poziomu, takie jak FORTRAN, COBOL, SNOWBALL i BASIC.
    Wczesne superkomputery to tylko niektóre z urządzeń, które używały tranzystorów. Przykładami takich systemów był uniwersalny blok UNIVAC LARC z Sperry Rand (1960) i superkomputer IBM-7030 Stretch (1961) i mainframe CDC 6600 (1963).

    Trzecia generacja komputerów: lata 1960-1970

    Podstawowa podstawa trzeciej generacji komputerów - układy scalone i multiprogramowanie. Komputery trzeciej generacji wykorzystywały układ scalony (IC) zamiast tranzystorów. Wdrożenie tych komputerów było również zgodne z prawem Moore'a, które stanowiło, że wielkość tranzystorów spadła tak szybko, że ich liczba w systemie podwoiła się co 2 lata.

    Zalety układów scalonych

    Półprzewodnikowy układ scalony zawierał dużą liczbę tranzystorów, kondensatorów i diod. Następnie zostały wydrukowane na oddzielnych częściach planszy. Ręczne podłączenie kondensatorów i diod w tranzystorach było pracochłonne i nie całkowicie niezawodne. Jack Kilby z Texas Instruments i Robert Noyce z Fairchild Corporation indywidualnie zidentyfikowali korzyści układów scalonych w 1958 i 1959 rokuodpowiednio. Kilby zbudował swój adres IP w Niemczech, a Noyce na chipie krzemowym.
    Pierwszym systemem wykorzystującym IP był IBM 360, który był używany do obsługi zadań komercyjnych i naukowych. Po umieszczeniu kilku tranzystorów na jednym chipie, oprócz zmniejszenia kosztów, szybkość i wydajność każdego komputera również znacznie wzrosła. Od momentu wynalezienia, szybkość IP podwoiła się co dwa lata, co dodatkowo zmniejszyło wielkość i koszt komputerów.

    Korzystanie z układów scalonych na nowoczesnych komputerach

    Obecnie prawie wszystkie urządzenia elektroniczne wykorzystują pewne formy układów scalonych umieszczonych na płytkach drukowanych. W przeciwieństwie do układu scalonego poprawiła się interakcja z komputerami. Zamiast kart perforowanych dla danych wejściowych i wyjściowych, informacje wyświetlane są za pomocą wyświetlaczy wizualnych, używanych klawiatur i ulepszonych urządzeń peryferyjnych. Komputery używają teraz oprogramowania systemu operacyjnego do zarządzania sprzętem i zasobami, co pozwoliło systemom na uruchamianie różnych programów w tym samym czasie. Stało się tak ze względu na scentralizowane aplikacje, które kontrolowały przydzielanie pamięci. Komputery stały się dostępne dla szerokiego grona odbiorców ze względu na ich wielkość i wartość godziwą. To pokolenie wprowadziło również koncepcję "rodziny komputerów", która zachęcała producentów do wymyślania komponentów komputerowych kompatybilnych z innymi systemami. Przykładami takich systemów były superkomputery Scientific Systems Systems Sigma 7 (1966) i superkomputery IBM-360(1964) i CDC 8600 (1969).

    czwartej generacji komputerów od 1970 do chwili obecnej

    mikroprocesora systemu operacyjnego i GUI - elementu podstawowego nowoczesnych komputerów. Narodziny mikroprocesora były zarazem narodzinami mikrokomputera. Jest to również zgodne z prawem Moore'a, który przewidywany gwałtowny wzrost tranzystorów i mikroprocesorów, od 1965 r. Firma Intel, jego inżynierowie Ted Hoff, Federico Fahhyn i Stan Mazor w listopadzie 1971 roku wprowadziła pierwszy na świecie jeden mikroprocesor Intel 4004. Fakt, że pierwsza generacja wypełnia pokój, teraz może ustawić dłoń. Oczywiście nowy mikroprocesor był równie wydajny jak komputer ENIAC od 1946 roku. Czwarta generacja i jej elementarna baza odgrywają ważną rolę w tworzeniu różnych urządzeń.

    Procesor Intel 4004

    Wkrótce producenci zaczęli integrować te mikroprocesory na swoich nowych komputerach. W 1973 roku Xerox Alto został zwolniony z PARC. Był to komputer osobisty, który obejmował Ethernet-portowy, myszy i wyświetlacz graficzny interfejs bitową, pierwszy w swoim rodzaju. W 1974 roku Intel wprowadził 8-bitowy mikroprocesor ogólnego przeznaczenia o nazwie "8808". Następnie programista Gary Arlen Kyldall rozpoczął tworzenie dysku oprogramowanie oparte znany jako „program zarządzania dla mikrokomputerów” (CPM). Stało się prototypem nowoczesnej podstawowej podstawy komputera.

    Pierwszy komputer osobisty do domu

    W 1981 roku International Business Maszyna wprowadziła na rynek swój pierwszy komputer do domu, gdzie pracował procesor 4004. Był znany jako IBM PC. Firma współpracujez Billem Gates, który kupił system operacyjny Disk z Seattle Computer Product i rozprowadził go z nowego komputera IBM. Architektura IBM PC stała się standardowym modelem rynkowym.

    Tworzenie systemu operacyjnego Windows

    pod przewodnictwem firmy Apple Steve Jobs zmienił grę oprogramowania gdy wydany w 1984 roku komputer Apple Macintosh z lepszą GUI (Graphical User Interface) interfejs używając pojęcia otrzymane z Xerox PARC . Zarówno program sterujący dla systemu operacyjnego mikrokomputera i systemów operacyjnych na dysku były oparte na linii poleceń, gdy użytkownik musi wchodzić w interakcje z komputerem za pomocą klawiatury. Po sukcesie Apple GUI zintegrowane obolochnuyu wersji Microsoft Windows z DOS w wersji 1985. Windows został użyty przez następne 10 lat, aż został ponownie wynalazł jak Windows 95. To był prawdziwy oprogramowanie dla systemu operacyjnego ze wszystkimi niezbędnymi narzędziami.

    Powstanie Linux

    Mimo że oprogramowanie stało się powszechne i korporacje zaczęły brać za to pieniądze, nowy ruch uruchomił oprogramowanie Linux w 1991 roku. Prowadzeni przez Linuksa Torvaldsa, uruchomili darmowy projekt open source systemu operacyjnego o nazwie Linux. Oprócz Linux, inne systemy operacyjne, open source i wolne oprogramowanie zostały rozesłane do komputerów biurowych serwis, sieci i domowych.

    Dystrybucja urządzeń mobilnych

    W latach 80. i XXI wieku komputery osobiste i komputery stacjonarne stały sięczęste występowanie. Zostały zainstalowane w biurach, szkołach i domach, ich koszt stał się zadowalający, a rozmiar - zwarty. Oprogramowanie, które działa na tych komputerach, stało się bardziej przystępne. Wkrótce mikroprocesory wyszły z monopolizacją komputerów stacjonarnych i przełączyły się na inne platformy. Najpierw pojawił się laptop, a następnie tablety i smartfony, konsole, systemy wbudowane, karty inteligentne, które stały się popularne ze względu na konieczność korzystania z Internetu podczas jazdy. Według ostatnich badań telefony komórkowe stanowiły 60% wszystkich urządzeń cyfrowych na świecie.

    Piąta generacja komputerów: teraźniejszość i przyszłość

    Komputery piątej generacji opierają się na postępach technologicznych zdobytych w poprzednich generacjach komputerów. Współcześni inżynierowie mają nadzieję poprawić interakcję między ludźmi a maszyną dzięki wykorzystaniu ludzkiej inteligencji i dużych danych zgromadzonych od samego początku ery technologii cyfrowej. Pochodzą z teorii, koncepcji i wdrożenia sztucznej inteligencji (AI) i uczenia maszynowego (ML). AI - to jest podstawowa podstawa generacji 5. Jest to rzeczywistość, która stała się możliwa dzięki przetwarzaniu równoległemu i nadprzewodnikom. Urządzenia komputerowe ze sztuczną inteligencją są nadal w fazie rozwoju, ale niektóre z tych technologii zaczynają pojawiać się i wykorzystywane, na przykład, do rozpoznawania głosu. AI i ML mogą być różne, ale używane jako wymienne do tworzenia urządzeń, które są wystarczająco inteligentne, aby wchodzić w interakcje z ludźmi, innymi komputerami,środowisko i aplikacje. Istotą piątego pokolenia będą korzystać z tych technologii, aby ostatecznie stworzyć maszynę, która może przetwarzać i reagowania na języku naturalnym i mieć możliwość uczenia się i samoorganizacji. Rozprzestrzenianie urządzeń komputerowych z możliwością uczenia się, reagować i oddziaływać w różny sposób, w oparciu o doświadczenie i środowiska, a także dał impuls do koncepcji Internetu przedmiotów (Internet of Things). W szczytowym okresie z odpowiednich algorytmów i komputerów prawdopodobnie pokaże wysoki poziom edukacji, wyprzedzając ludzi inteligencji. Wiele projektów realizowane są sztuczną inteligencję, podczas gdy inne są nadal w fazie rozwoju. Pionierami w tej dziedzinie są Google, Amazon, Microsoft, Apple, Facebook i Tesla. Pierwsza realizacja rozpoczęła się w inteligentnych urządzeń domowych, które są przeznaczone dla automatyki i działań integracyjnych w domu, urządzeń audio i wideo oraz samochodów z autopilota.

    Powiązane publikacje