Oprogramowanie i sprzęt: pojęcie, cel, poziomy, cechy i parametry

Komputer jest złożonym urządzeniem, które jest syntezą oprogramowania i sprzętu. To urządzenie jest decydującym zadaniem, wykonując polecenia takie jak: dodanie dwóch liczb, sprawdzenie, czy liczba jest różna od zera, kopiowanie danych z jednej komórki pamięci do drugiej itd. Proste polecenia tworzą język zwany maszyną, na której dana osoba może wyjaśnij komputerowi, co robić. Każdy komputer, w zależności od jego przeznaczenia, ma określony zestaw poleceń. Są prymitywne, aby uprościć produkcję komputerów. Jednak język maszynowy stwarza ogromne problemy dla osoby, ponieważ jest nudny i niezwykle trudny do napisania. Dlatego inżynierowie wymyślili kilka poziomów abstrakcji, z których każdy opiera się na niższym, aż do języka maszynowego i logiki komputerowej, a najwyższym poziomem jest interakcja z użytkownikiem. Zasada ta nazywa się wielopoziomową strukturą komputera i podlega sprzętowi i oprogramowaniu systemów komputerowych.


Wielopoziomowa struktura komputerów

Jak już wspomniano, oprogramowanie i sprzęt są zbudowane na zasadzie poziomów abstrakcji, z których każda opiera się na poprzedniej. Mówiąc prosto, aby ułatwić pisarzowi pisanie programów, nowy język, który jest bardziej zrozumiały dla danej osoby, ale całkowicie niemożliwy, jest tworzony (lub raczej budowany) na podstawie języka maszynowego. NastępnieW jaki sposób komputer uruchamia programy w nowym języku? Istnieją dwa główne podejścia - tłumaczenie i interpretacja. W pierwszym przypadku, każdy zespół spotyka się nowy zestaw instrukcji język maszynowy więc nowy program języka całkowicie przekształcony program w języku maszynowym. W drugim przypadku, wygenerowanego programu językowego maszyna, która przyjmuje jako wejście polecenia do nowego języka, przeczytaj ją, przekłada się na język maszynowy, a także sporządzi.


Sprzęt komputerowy i oprogramowanie może zawierać wiele poziomów od pierwszego, lub zasadą, oprócz być czytelny. Aby zilustrować ten proces, koncepcja maszyny wirtualnej jest świetna. Uważa się, gdy komputer wykonuje program w dowolnym języku (C ++, na przykład), to jest to maszyna wirtualna, która wykonuje polecenia języka. Pod maszyną wirtualną z ++ jest inny, z bardziej prymitywnym językiem. Na przykład niech to będzie Asembler. Na tym poziomie działa maszyna wirtualna asemblera. A pomiędzy nimi dzieje się albo tłumaczenie, albo interpretacja kodu. Tak więc wiele poziomów jest w jednym łańcuchu od pierwszego - maszyna. Maszyna wirtualna to po prostu koncepcja, która pozwala wygodniej reprezentować proces wielopoziomowy. Odpowiadamy na pytanie, które zadajemy - dlaczego nie zrobić komputera, który działa bezpośrednio w tym samym języku z C ++? Fakt, że tworzenie takich technologii wymaga ogromnych inwestycji w sprzęt i oprogramowanie komputera. To,najprawdopodobniej, ale będzie tak droga, że ​​przestanie być celowa.

Nowoczesne komputery

Do tej pory komputery w większości składają się z 2-6 poziomów. Poziom zerowy - podstawowy, tj. Maszyna lub sprzęt, działa tylko na kodzie maszynowym, który jest wykonywany przez obwody komputerowe. I na ich podstawie zbudowany jest język pierwszego poziomu itp. Należy również wyjaśnić, że poziom zerowy na tym się nie kończy. Poniżej jest poziom techniczny - same tranzystory i rezystory, czyli fizyka ciała stałego, nazywa się fizycznym. Tak więc poziom zerowy nazywany jest bazą, ponieważ to tutaj znajduje się sprzęt i oprogramowanie.
Na koniec podajemy hierarchiczny łańcuch poziomów zawartych w przeciętnym komputerze, zaczynając od zera:
  • Ur. 0 - cyfrowa logika lub sprzęt - istnieją zawory i rejestry, które mogą przechowywać wartości 0 lub 1, a także wykonywać proste funkcje "i", "lub" itd. Działają tutaj.
  • Ur. 1 - mikroarchitektura - na tym poziomie działa arytmetyczne urządzenie logiczne komputera. Tutaj dane, sprzęt i oprogramowanie zaczynają współpracować.
  • Ur. 2 - zestaw komend architektury.
  • Ur. 3 - hybrydowy lub system operacyjny - ten poziom jest bardziej elastyczny, chociaż bardzo podobny do poziomu 2. Na przykład, programy tutaj mogą być wykonywane równolegle.
  • Ur. 4 - asembler - poziom, na którym cyfrowe wypowiedzi maszynowe zaczynają ustępować człowiekowi.
  • Ur. 5 - języki wysokiego poziomu (C ++, Pascal,PHP itd.)
  • Każdy poziom reprezentuje więc dodatek do poprzednich i powiązanych metod tłumaczenia lub interpretacji, ma swoje własne abstrakcyjne obiekty i operacje. Aby pracować na określonym poziomie, możesz zasadniczo nie wiedzieć, co dzieje się w poprzednim. Właśnie dzięki temu podejściu łatwiej jest zrozumieć technologię komputerową.
    W końcu każda marka komputerów ma swoją własną architekturę. W tym przypadku architektura odnosi się do typów danych, operacji i charakterystyk każdego poziomu. Na przykład technologia tworzenia komórek pamięci komputera nie jest częścią pojęcia architektury.

    Rozwój komputera

    Wraz z pojawieniem się technologii pojawiły się nowe poziomy, niektóre pojawiały się. Na pierwszych komputerach w ciągu 40 lat były tylko dwa poziomy: logika cyfrowa, gdzie został wykonany program, oraz polecenie architektoniczne, na którym napisano kod. Dlatego granica pomiędzy sprzętem i częściami oprogramowania była oczywista, ale wraz ze wzrostem liczby poziomów zaczęła zanikać. Na dzień dzisiejszy sprzęt i oprogramowanie informacyjne można uznać za identyczne koncepcje. Ponieważ dowolna operacja, symulowane oprogramowanie, może być wykonywane bezpośrednio na poziomie sprzętu i na odwrót. Nie ma żelaznych reguł, które wskazywałyby, dlaczego jedna operacja powinna być wykonana sprzętowo, a druga - oprogramowanie. Podział odbywa się na podstawie takich czynników jak cena produkcji, szybkość, niezawodność itp. Dzisiaj, jutro może wejść w część sprzętową lub odwrotnie, coś z części sprzętowej - stać się programem.

    Generowanie komputerów

    Komputery mechaniczne reprezentują zero generacji. W latach czterdziestych XVI wieku Pascal stworzył maszynę liczącą maszynę, która mogła dodawać i odejmować. W latach 70. XVI wieku Leibniz stworzył samochód, który również mógł się rozmnażać i dzielić. Babbage w 1830 roku, wydając wszystkich oszczędności powstałe maszyna analityczna, które wyglądały jak nowoczesny komputer i składał się z wyjściem urządzenia wejściowe, pamięci, aparatura i metody obliczeniowe. Samochód był tak doskonały mogła zapamiętać 1000 słów 50 miejsc po przecinku i robić różne algorytmy jednocześnie. Analityczna prohramuvalasya silnika Zgromadzenia „, ponieważ Babbage zatrudniony Ada Lovelace, aby utworzyć pierwszy program. Ale to nie wystarczyło, jak zasoby i technologie, aby zorganizować pracę swojego stworzenia. Później w Ameryce został stworzony przez najpotężniejszą maszyną Atanasov, który pracował na arytmetyki binarnej i został zaktualizowany w oparciu o kondensatory pamięci (RAM), która nadal działa dobrze. Atanasov jak Babbage był w stanie zorganizować pracę swojego stworzenia. w końcu, w 1944 roku, Aiken stworzył pierwszy komputer ogólnego przeznaczenia Mark I, który IG zapamiętać słowa 72 do 23 miejsc po przecinku każdy. W czasie konstruowania komputerów przekaźnikowych Mark II były już w przeszłości, ale zostały one zastąpione przez elektroniczny
    .

    Pierwszy na świecie komputer

    Druga Wojna Światowa stymulować prace nad stworzeniem komputerów, które doprowadziło do opracowania pierwszej generacji (1945-1955) komputerów. Pierwszym komputerem na żarówkach elektronicznych była maszyna Turinga COLOSSUS, której celem byłohackowanie szyfrów ENIGMA. I chociaż komputer się spóźniał, wojna się skończyła i ze względu na tajemnicę nie miała żadnego wpływu na świat komputerów, ale była to pierwsza.
    Następnie naukowiec armii USA, Moulish, rozpoczął opracowywanie ENIAC. Pierwszy taki komputer ważył trzydzieści ton, składający się z 18.000 świateł i 1500 przekaźnik prohrammyrovalsya go przez 6000 przełączników i zużywają ogromne ilości energii. Utworzenie oprogramowania i sprzętu takiego potwora było niezwykle skomplikowane.
    Dlatego, podobnie jak COLOSSUS, maszyna ENIAC nie została skonfigurowana i nie potrzebowała już armii. Jednak Moushly pozwolono stworzyć dzieło w szkołach i na ENIAC umieścić wiedzę do mas, które doprowadziły do ​​powstania wielu różnych komputerów (EDSAC, ILLIAC, WEIZAC, edvac, itp). Spośród całej liczby komputerów, została przydzielona IAS lub maszyna komputerowa von Neuman, która wciąż ma wpływ na komputery. Składał się z pamięci, urządzenia sterującego i modułu I /O, mógł przechowywać 4096 słów o długości 40 bitów. I chociaż IAS nigdy nie został liderem rynku, miał najsilniejszy wpływ na rozwój komputerów. Na przykład na jej podstawie powstał Whirlwind I - komputer do poważnych obliczeń naukowych. Ostatecznie wszystkie pytania doprowadziły do ​​tego, że małe firmy, producent karty dziurkowane IBM, w 1953 roku, produkuje 701 komputer i zaczyna przechodzić z rynku pozycji lidera i jego Moushly UNIVAC.

    tranzystory i gra pierwszy komputer

    Laboratorium Bell otrzymane Nagrodą Nobla w 1956 zgodnie z wynalazkiem, z tranzystorów, które natychmiast zmienił cały sprzęt komputerowy idały początek komputerom drugiej generacji (1955-1965). Pierwszym komputerem na tranzystorach był TX-0 (TX-2). Nie był szczególnie wdzięczny, ale jeden z twórców, Olsen, założył DEC, który wypuścił na rynek komputer PDP-1 w 1961 roku. I chociaż był znacząco w tyle za parametrami modelu IBM, ale był tańszy. Zespół sprzętu i oprogramowania PDP-1 kosztował 120 000 USD, a nie miliony, jak IBM 7090. PDP-1 był sukcesem komercyjnym. Uważa się, że położył podwaliny pod przemysł komputerowy. Również na nim powstała pierwsza gra komputerowa "wojna kosmiczna". Później PDP-8 zostanie wydany z przełomową technologią pojedynczej magistrali danych Omnibus. W 1964 roku CDC i naukowiec Craig wypuścili maszynę 6600, która jest o rząd wielkości szybsza dzięki zastosowaniu obliczeń równoległych wewnątrz procesora.

    Pierwsze kroki IBM

    Wynalezienie krzemowego układu scalonego, który umożliwił rozmieszczenie kilkudziesięciu tranzystorów na jednym krysztale, oznaczało początek komputerów trzeciej generacji (1965-1980). Były mniejsze i pracowały szybciej. Warto wspomnieć o IBM, który jako pierwszy poradził sobie z kompatybilnością różnych komputerów i rozpoczął produkcję serii 360. Oprogramowanie i sprzęt modeli z serii 360 różniły się parametrami, ale dostarczały podobny zestaw poleceń, więc były kompatybilne. Ponadto maszyny 360 były w stanie emulować pracę innych komputerów, co było wielkim przełomem, ponieważ pozwalało uruchamiać programy napisane na innych komputerach. Tymczasem DEC pozostał liderem rynku małych komputerów.

    EpokaTworzenie komputera

    Czwarta generacja (1980 - obecnie) - VLSI lub super-duże układy scalone. W OD nastąpił ostry skok, a istniały technologie, które umożliwiały umieszczanie kryształów krzemu nie dziesiątek, ale tysiące tranzystorów. Nadszedł czas na komputery osobiste. Pierwsze systemy operacyjne CP /M; pojawienie się rynku Apple; tworzenie przez Intel rodziców procesora linii Pentium 386. I tutaj znowu IBM dokonuje przełomu na rynku, zaczynając tworzyć komputery osobiste z komponentów różnych firm, zamiast robić wszystko samodzielnie. W ten sposób pojawia się IBM PC, komputer jest sprzedawany w historii. Nowe podejście do IBM PC narodziło erę komputerów osobistych, ale jednocześnie zaszkodziło branży komputerowej jako całości. Na przykład Intel rzucił się do wyłącznego lidera w produkcji procesorów i nikt nie mógł z nimi konkurować. Przetrwają tylko wąskie firmy. Pojawia się Apple Lisa - pierwszy komputer, który używa graficznego systemu operacyjnego. Compaq tworzy pierwsze komputery przenośne, zajmuje niszę na rynku i kupuje byłych liderów tego segmentu DEC. Jeśli Intel był pierwszym, który uderzył w IBM, to drugi był ciosem dla małego Microsoftu, który produkował system operacyjny dla IBM. Pierwszym systemem był MS-DOS, później Microsoft stworzył OS /2 dla IBM, a Windows powstał pod wpływem szumu. OS /2 nie udał się na rynku. Tak więc Intel i Microsoft porzucili IBM. Ci drudzy próbują przetrwać i stworzyć kolejny rewolucyjny pomysł, tworząc procesor z dwoma rdzeniami. Aktualizacja sprzętu i oprogramowania na PC odbywa się kosztemróżne optymalizacje.

    Piąte pokolenie

    Ale rozwój nie stoi w miejscu. Nastąpiła zmiana w paradygmacie, pojawiła się przesłanka piątej generacji komputerów. Wszystko zaczęło się od japońskiego rządu, który w latach osiemdziesiątych przeznaczył ogromne fundusze na krajowe firmy i zlecił im wynalezienie następnej generacji komputerów. Oczywiście pomysł się nie powiódł. Ale wpływ tego wydarzenia był wielki. Japońska technologia zaczęła rozlewać się po świecie. Technika ta zajęła wiodącą pozycję w wielu obszarach rynku: aparaty fotograficzne, sprzęt audio itp. Zachód nie chciał się poddać, a także przyłączył się do walki o piąte pokolenie. Grid Systems wydał pierwszy tablet Apple, który stworzył kieszonkowy Newton. Były więc PDA, elektroniczne asystenty lub komputery kieszonkowe. I tutaj eksperci IBM dokonują kolejnego przełomu i przynoszą nowy pomysł - łączą rosnącą popularność telefonów komórkowych z obydwoma użytkownikami PDA. Tak więc w 1993 r. Na światłach pojawia się pierwszy smartfon o nazwie Simon. Częściowo 5. generacji można uznać za zmniejszenie wielkości oprogramowania i sprzętu. A także fakt, że dzisiejsze minikomputery są wbudowane w dowolną technikę: od smartfonów i czajników elektrycznych po samochody i pociągi kolejowe - i rozszerzają jej funkcjonalność. Warto również zwrócić uwagę na rozwój oprogramowania szpiegowskiego z ochroną oprogramowania sprzętowego. Bardziej niewidoczne, zaprojektowane do wykonywania swoich unikatowych funkcji.

    Rodzaje komputerów

    Nie ogranicza się do oprogramowania sprzętowego i komputerowego. NaObecnie jest ich wiele:
  • komputery jednorazowe: karty gratulacyjne, RFID;
  • mikrokontrolery: zegarki, zabawki, miód. sprzęt i inne urządzenia;
  • telefony komórkowe i laptopy;
  • komputery osobiste;
  • serwerów;
  • klastry (kilka serwerów zintegrowano w jedną)
  • komputery mainframe - komputery do przetwarzania wsadowego dużych ilości danych;
  • "technologie chmurowe" to komputery mainframe drugiego rzędu;
  • superkomputerów (chociaż tę klasę zastępują klastry, które mogą również wykonywać poważne obliczenia).
  • Biorąc pod uwagę te informacje, sprzęt i oprogramowanie można dostosować do różnych potrzeb.

    Rodziny komputerów

    Sprzęt komputerowy komputera osobistego (i nie tylko) różni się w zależności od domu. Najpopularniejsze rodziny to X86 ARM i AVR. W ramach rodziny odnosi się do architektury zestawu zespołów. Pierwsza rodzina - X86 - obejmuje prawie wszystkie komputery osobiste i serwery (zarówno w systemie Windows, Linux, a nawet Mac). Do drugiego - ARM - systemy mobilne. Wreszcie trzecia - AVR - odnosi się do większości mikrokontrolerów, najbardziej niewidocznych komputerów, które są wbudowane wszędzie: w samochodach, urządzeniach elektrycznych, telewizorach itp. X86 został opracowany przez firmę Intel. Ich procesory, od modelu 8080 (1974) do Pentium 4 (2000), mają kompatybilność wsteczną, to znaczy, że nowy procesor jest w stanie wykonywać programy napisane dla starego. Dziedziczenie sprzętu i oprogramowania jest dziełem całej generacji procesorów, dzięki czemu Intel jest tak wszechstronny.Komputer Acorn stał u źródła projektu ARM, który później rozdzielił się i stał się niezależny. Architektura ARM od dawna odnosi sukcesy w segmencie rynku, w którym zmniejsza się zużycie energii. Atmel zatrudnił dwóch studentów, którzy mieli ciekawy pomysł. Oni, ciągle się rozwijając, stworzyli procesor AVR, który różni się tym, że jest doskonały dla systemów, które nie wymagają wysokiej wydajności. Procesory AVR podlegają surowym warunkom, gdy istnieją poważne ograniczenia dotyczące rozmiaru, zużycia energii i mocy.

    Powiązane publikacje