Kto wynalazł komputer? Kiedy wynaleziono komputer i jak go wynaleziono? Historia komputera

kto znalazł komputer, kiedy go wynaleziono i jak go wynaleziono.
kto znalazł komputer, kiedy go wynaleziono i jak go wynaleziono.

Komputer to urządzenie, które może przechowywać i zwracać przetwarzane przez nas informacje w dowolnym momencie. Dzisiejsze komputery są zdolne do śledzenia uogólnionych zestawów procesów zwanych programami. Programy te umożliwiają komputerom wykonywanie różnorodnych zadań. Kompletny komputer zawierający sprzęt, system operacyjny (główne oprogramowanie) i urządzenia peryferyjne wymagane i używane do „pełnego” działania można nazwać systemem komputerowym. Termin ten może być również używany w odniesieniu do grupy komputerów połączonych i współpracujących, w szczególności sieci komputerowej lub klastra komputerów. Pierwszym komputerem elektrycznym jest ENIAC.

Komputery pojawiały się w wielu różnych formach na przestrzeni dziejów. Pierwsze komputery z połowy XX wieku były wielkości dużego pokoju i zużywały setki razy więcej energii niż dzisiejsze komputery. Na początku XXI wieku komputery mieszczą się w zegarku na rękę i działają na małej baterii. Głównym powodem, dla którego można je wytwarzać tak małe, jest to, że w 20 roku obwody, które można upakować na bardzo małej przestrzeni, można było wytwarzać z półprzewodników. Komputery, których używamy dzisiaj, nabrały rozpędu po Intel 21, pierwszym procesorze komputera. Nasze społeczeństwo uznało komputer osobisty i jego przenośny odpowiednik, laptop, za symbole ery informacji i utożsamiło je z pojęciem komputera. Są one dziś szeroko stosowane. Podstawową zasadą działania komputera jest binarny system liczbowy, czyli kodowanie składające się tylko z 1969 i 4004.

Możliwość zapisania żądanego oprogramowania i uruchomienia go w dowolnym momencie to główna cecha, która sprawia, że ​​komputery są wszechstronne i odróżniają je od kalkulatorów. Teza Church-Turinga jest matematycznym wyrazem tej wszechstronności i podkreśla, że ​​każdy komputer może wykonywać zadania innego. Zatem niezależnie od ich złożoności, od komputerów kieszonkowych po superkomputery, wszystkie mogą wykonywać te same zadania bez pamięci i ograniczeń czasowych.

Historia komputera

Wiele urządzeń znanych w przeszłości jako „komputery” nie zasługuje na taką definicję według dzisiejszych kryteriów. Komputer podczas uruchamiania sözcüByła to nazwa nadana obiektom, które ułatwiały proces obliczeniowy. Komputerowe przykłady tego wczesnego okresu obejmują koralik liczbowy (liczydło) i maszynę Antikitera (150 pne - 100 pne). Po stuleciach, w świetle nowych odkryć naukowych końca średniowiecza, pierwszy z serii mechanicznych urządzeń obliczeniowych opracowanych przez europejskich inżynierów należy do Wilhelma Schickarda (1623).

Jednak żadne z tych urządzeń nie spełnia dzisiejszej definicji komputera, ponieważ nie jest oprogramowaniem (ani nie można go zainstalować). Karty dziurkowane wyprodukowane przez Josepha Marie Jacquarda w 1801 r. W celu zautomatyzowania procesu na krośnie tkackim są uważane za jedne z pierwszych śladów oprogramowania (instalacji) w procesie rozwoju komputerów, choć są one ograniczone. Dzięki tym kartom dostarczonym przez użytkownika krosno tkackie mogło dostosować swoje działanie do rysunku opisanego otworami na karcie.

W 1837 roku Charles Babbage opracował konceptualizację i zaprojektował pierwszy w pełni programowalny komputer mechaniczny, który nazwał Analytical Engine (silnik analityczny). Nie mógł jednak rozwinąć tej maszyny ze względów finansowych i niemożności dokończenia na niej pracy.

Pierwszym zastosowaniem kart dziurkowanych na dużą skalę był kalkulator zaprojektowany przez Hermana Holleritha w 1890 r. Do wykorzystania w transakcjach księgowych. Biznesem, z którym związany był Hollerith w tamtym czasie, był IBM, który w następnych latach przekształcił się w światowego giganta komputerowego. Pod koniec XIX wieku zaczęły pojawiać się aplikacje (technologie), które w znacznym stopniu przyczyniły się do rozwoju sprzętu komputerowego i teorii w nadchodzących latach: karty dziurkowane, algebra Boole'a, lampy kosmiczne i urządzenia teletekstowe.

W pierwszej połowie XX wieku wiele naukowych wymagań stawiano wobec coraz bardziej złożonych komputerów analogowych. Jednak nadal byli daleko od poziomu nieomylności dzisiejszych komputerów.

W latach trzydziestych i czterdziestych XX wieku aplikacje komputerowe były ulepszane, a pojawienie się cyfrowego komputera elektronicznego nastąpiło dopiero po wynalezieniu układów elektronicznych (1930). Do ważnych prac tego okresu należą:

  • „Maszyny Z” Konrada Zuse. Z3 (1941) to pierwsza maszyna, która może działać w oparciu o liczby binarne i operować na liczbach rzeczywistych. W 1998 roku Z3 okazał się kompatybilny z Turingiem, zdobywając tym samym tytuł pierwszego komputera.
  • Komputer Atanasoff-Berry (1941) był oparty na lampach kosmicznych i miał bazę liczb binarnych, a także sprzęt pamięci oparty na kondensatorach.
  • Wyprodukowany w Anglii komputer Colossus (1944) wykazał, że użycie tysięcy lamp, pomimo ograniczonego oprogramowania (możliwości instalacji), może być wystarczająco niezawodne. II. Był używany podczas II wojny światowej do analizy tajnej komunikacji niemieckich sił zbrojnych.
  • Harvard Mark I (1944), komputer z ograniczoną konfigurowalnością.
  • Opracowany przez armię amerykańską ENIAC (1946) bazuje na liczbach dziesiętnych i jest pierwszym komputerem elektronicznym ogólnego przeznaczenia.

Identyfikując wady ENIAC, programiści pracowali nad bardziej elastycznym i eleganckim rozwiązaniem i zaproponowali coś, co jest obecnie znane jako ukryta architektura oprogramowania lub bardziej powszechnie znana jako architektura von Neumanna. Po pierwszej wzmiance o tym projekcie w publikacji Johna von Neumanna (1945), pierwszy z komputerów opracowanych w oparciu o tę architekturę został ukończony w Wielkiej Brytanii (SSEM). ENIAC, który rok później uzyskał taką samą architekturę, otrzymał nazwę EDVAC.

Ponieważ prawie wszystkie współczesne komputery dostosowują się do tej architektury, komputer sözcüJest również używany jako definicja dnia. Dlatego zgodnie z tą definicją, chociaż urządzenia z przeszłości nie są liczone jako komputery, nadal są tak określane w kontekście historycznym. Chociaż implementacja komputerowa przeszła radykalne zmiany od lat czterdziestych XX wieku, większość z nich pozostała wierna architekturze von Neumanna.

Po tym, jak komputery oparte na lampach kosmicznych były używane w latach pięćdziesiątych, szybsze i tańsze komputery oparte na tranzystorach stały się powszechne w latach sześćdziesiątych. W wyniku tych czynników komputery weszły do ​​masowej produkcji na niespotykanym dotąd poziomie. W latach 1950. ponownie nastąpił ogromny wzrost wydajności i niezawodności, a także redukcja kosztów, dzięki wdrożeniu układów scalonych i rozwojowi mikroprocesorów, takich jak Intel 1960. W latach 1970. komputery zaczęły zajmować swoje miejsce w urządzeniach sterujących wieloma urządzeniami codziennego użytku, takimi jak pralki. W tym samym okresie popularność zdobywały komputery osobiste. Wreszcie, wraz z rozwojem Internetu w latach 4004., komputery stały się rutynowymi urządzeniami, takimi jak telewizory i telefony.

Zgodnie z architekturą von Neumanna komputery składają się z czterech głównych komponentów, które posiadają logikę arytmetyczną.

pamięć

Pamięć komputera można traktować jako zbiór komórek zawierających liczby. Można go zapisać w każdej komórce i odczytać jego zawartość. Każda komórka ma unikalny adres. Jednym poleceniem byłoby na przykład zsumowanie zawartości komórki nr 34 z komórką nr 5.689 i umieszczenie jej w komórce 78. Liczby, które zawierają, mogą być dowolnymi liczbami, liczbą, poleceniem, adresem, literą itp. Tylko oprogramowanie, które z nich korzysta, decyduje o charakterze treści. Większość dzisiejszych komputerów używa liczb binarnych do zapisywania danych, a każda komórka może zawierać 8 bitów (czyli jeden bajt).

Zatem bajt może reprezentować 255 różnych liczb, ale mogą to być tylko od 0 do 255 lub od -128 do +127. Gdy używa się wielu bajtów ułożonych obok siebie (zwykle 2, 4 lub 8), możliwe jest zapisanie znacznie większych liczb. Pamięć współczesnych komputerów zawiera miliardy bajtów.

Komputery mają trzy rodzaje pamięci. Rejestry w procesorze są niezwykle szybkie, ale mają bardzo ograniczoną pojemność. Służą one do zaspokojenia zapotrzebowania procesora na dostęp do znacznie wolniejszej pamięci głównej. Pamięć główna jest podzielona na pamięć o dostępie swobodnym (REB lub RAM, pamięć o dostępie swobodnym) i pamięć tylko do odczytu (SOB lub ROM, pamięć tylko do odczytu). Można go zapisać do pamięci RAM w dowolnym momencie, a jego zawartość jest zachowywana tylko tak długo, jak długo utrzymywane jest zasilanie. Zawiera informacje, które można odczytać i załadować tylko do pamięci ROM. Zachowuje tę zawartość niezależnie od siły. Na przykład, podczas gdy dowolne dane lub polecenia znajdują się w pamięci RAM, znajdują się one w pamięci ROM systemu BIOS, która reguluje sprzęt komputerowy.

Ostatnim podtypem pamięci jest pamięć podręczna. Znajduje się w procesorze i jest szybszy niż pamięć główna, a także ma większą pojemność niż rejestry.

Wejście / Wyjście to narzędzie używane przez komputer do wymiany danych ze świata zewnętrznego. Powszechnie używane jednostki wejściowe obejmują klawiaturę i mysz, a wyjściowe - ekran (lub przeglądarkę, monitor), głośnik i drukarkę. Z drugiej strony dyski stałe i optyczne przejmują oba zadania.

Sieci komputerowe

Komputery są używane od lat pięćdziesiątych XX wieku do koordynowania informacji w wielu środowiskach. System armii amerykańskiej (SAGE) był pierwszym kompleksowym przykładem takich systemów i był pionierem wielu komercyjnych systemów specjalnego przeznaczenia, takich jak (Sabre). W latach 1950. amerykańscy inżynierowie połączyli ze sobą komputery (ARPANET) w ramach projektu realizowanego w wojsku i położyli podwaliny pod dzisiejszą sieć komputerową. Z biegiem czasu ta sieć komputerowa nie ograniczała się do jednostek wojskowych i akademickich, ale rozszerzyła się i dziś w Bilgisunar powstały miliony komputerów (sieć internetowa lub ogólna). W latach 1970. sieci komputerowe stały się powszechne dzięki protokołom o nazwie Global Network (World Wide Web, WWW) opracowanym w ośrodku badawczym CERN w Szwajcarii, aplikacjom takim jak poczta elektroniczna i niedrogim rozwiązaniom sprzętowym, takim jak Ethernet.

sprzęt komputerowy

Pojęcie sprzętu obejmuje wszystkie dotykowe elementy komputera.

Przykłady sprzętu
Jednostki peryferyjne (wlot / wylot) Wkład Mysz, klawiatura, joystick, przeglądarka
wyjście Monitor, drukarka, głośnik
Obie z nich Stacja dyskietek, dysk twardy, dysk optyczny
Jednostki linków Krótki zasięg RS-232, SCSI, PCI, USB
Daleki zasięg (sieci komputerowe) Ethernet, ATM, FDDI

Jednostki wejścia / wyjścia

Wejście / wyjście umożliwia komunikację między różnymi jednostkami funkcjonalnymi (podsystemami) systemu przetwarzania danych lub przesyłanie sygnałów informacyjnych bezpośrednio do tych interfejsów.

Wejścia to sygnały odbierane z różnych jednostek. Wyjścia to sygnały wysyłane do tych jednostek. Urządzenia we / wy są używane przez użytkownika (lub inne systemy) do łączenia się z komputerem. Na przykład klawiatura i mysz są komputerowymi urządzeniami wejściowymi. Ekran, głośnik i drukarka to urządzenia wyjściowe komputera. Różne urządzenia używają sygnałów wejściowych i wyjściowych do łączenia się z komputerem. Przykładami mogą być modemy i karty połączeniowe.

Klawiatura i mysz przyjmują fizyczne ruchy użytkowników jako dane wejściowe i przenoszą te fizyczne ruchy na poziom zrozumiały dla komputerów. Jednostki wyjściowe (takie jak drukarka, głośnik, ekran) przyjmują sygnały wyjściowe wytwarzane przez komputer jako sygnał wejściowy i przekształcają te sygnały w wyjścia, które użytkownicy mogą zobaczyć i odczytać.

W architekturze komputera centralna jednostka przetwarzająca (CPU) i główna pamięć stanowią serce komputera. Ponieważ pamięć może bezpośrednio odczytywać dane w jednostce centralnej i zapisywać dane bezpośrednio do jednostki centralnej za pomocą własnych instrukcji. Na przykład napęd dyskietek bierze pod uwagę sygnały we / wy. Zapewnienie przez jednostkę centralną metod wejścia / wyjścia pomaga uzupełnić sterowniki urządzeń w niskopoziomowym programowaniu komputerowym.

Wysokopoziomowe systemy operacyjne i programowanie wysokopoziomowe pozwalają na działanie poprzez rozróżnienie idealnych koncepcji I / O i podstawowych elementów. Na przykład język programowania C zawiera funkcje organizowania operacji we / wy oprogramowania. Funkcje te umożliwiają odczyt danych z plików i danych zapisanych w tych plikach.

oprogramowanie

Pojęcie oprogramowania opisuje wszystkie niematerialne komponenty komputera: oprogramowanie, protokoły i dane są oprogramowaniem.

oprogramowanie
OS Unix / BSD UNIX V, AIX, HP-UX, Solaris (SunOS), FreeBSD, NetBSD, IRIX
GNU / Linux Dystrybucje Linuksa
Microsoft Windows Windows 3.0, Windows 3.1, Windows 95, Windows 98, Windows NT, Windows CE, Windows XP, Windows Vista, Windows 7, Windows 8 Windows 8.1 Windows 10
DOS DOS / 360, QDOS, DRDOS, PC-DOS, MS-DOS, FreeDOS
Mac OS Mac OS X
Systemy operacyjne wbudowane i czasu rzeczywistego Katalog wbudowanych systemów operacyjnych
biblioteki Multimedia DirectX, OpenGL, OpenAL
Biblioteka oprogramowania Biblioteka C.
Dane Zasada komunikacji TCP / IP, Kermit, FTP, HTTP, SMTP, NNTP
Formaty dokumentów HTML, XML, JPEG, MPEG, PNG
interfejs użytkownika Graficzny interfejs użytkownika (WIMP) Microsoft Windows, GNOME, KDE, QNX Photon, CDE, GEM
Tekstowy interfejs użytkownika Linia poleceń, Shell
Diğer
aplikacja urząd Edytor tekstu, DTP, Oprogramowanie do prezentacji, System zarządzania bazą danych, Arkusz kalkulacyjny, Oprogramowanie księgowe
Dostęp do komputera Skaner, klient poczty e-mail, globalny serwer sieciowy, oprogramowanie do obsługi wiadomości błyskawicznych
projekt Projektowanie wspomagane komputerowo, Produkcja wspomagana komputerowo
Wykresy Edytor grafiki komórkowej, edytor grafiki kierunkowej, modeler 3D, edytor animacji, grafika komputerowa 3D, edycja wideo, obróbka obrazu
Dźwięk numeryczny Cyfrowy edytor dźwięku, odtwarzacz audio
Inżynieria oprogramowania Kompilator, tłumacz, interpreter, debugger, edytor tekstu, zintegrowane środowisko programistyczne, przegląd wydajności, kontrola zmian, zarządzanie konfiguracją oprogramowania
Gry Strategiczne, Przygodowe, Puzzle, Symulacje, RPG, Interaktywna fikcja
Ek Sztuczny +, oprogramowanie antywirusowe, menedżer dokumentów

Bądź pierwszy i skomentuj

zostaw odpowiedź

Twój adres e-mail nie zostanie opublikowany.


*