Różnica między komputerem analogowym a cyfrowym

Różnica między komputerem analogowym a cyfrowym
Różnica między komputerem analogowym a cyfrowym

Wideo: Różnica między komputerem analogowym a cyfrowym

Wideo: Różnica między komputerem analogowym a cyfrowym
Wideo: Mechanika płynów Wykład 09 Przepływy laminarne i turbulentne 2024, Lipiec
Anonim

Komputer analogowy a komputer cyfrowy

Komputer to urządzenie, które można zaprogramować do wykonywania skończonego zestawu instrukcji w dziedzinach arytmetycznych lub logicznych. Komputery działają poprzez sekwencyjne wykonywanie instrukcji, które w razie potrzeby mogą być zmieniane, dzięki czemu komputer może rozwiązywać problemy natury ogólnej, a nie konkretne.

Komputery mogą działać w oparciu o zasady i komponenty mechaniczne lub elektryczne. Ogólnie komputer ma jednostkę przetwarzającą do wykonywania operacji logicznych lub arytmetycznych oraz pamięć do przechowywania instrukcji.

Więcej o komputerach analogowych

W komputerze analogowym do modelowania problemu, który ma zostać rozwiązany, wykorzystywana jest stale zmieniająca się właściwość fizyczna. Rozwój komputerów analogowych sięga tysiąca lat wstecz w historii ludzkości. Najstarszym znanym człowiekowi komputerem analogowym jest maszyna z Antykithiry, czyli urządzenie służące do pomiaru pozycji astronomicznych i datowane na 100 rok p.n.e. Astrolabia i suwaki logarytmiczne to również przykłady komputerów analogowych.

Komputery analogowe osiągnęły swój szczyt pod koniec XVIII wieku i na początku XIX wieku, kiedy rewolucja technologiczna zainspirowała wiele analogowych urządzeń komputerowych. Podczas II wojny światowej nowe komputery analogowe były używane do szyfrowania i pomocy przy strzelaniu.

Elektrycznie sterowane komputery analogowe wykorzystują wielkość ciągłych sygnałów elektrycznych, takich jak napięcie, prąd i częstotliwość sygnału do operacji i składają się z obwodów zbudowanych ze wzmacniaczy operacyjnych, rezystorów kondensatorów i generatorów o stałej funkcji. Obwody te wykonywały sumowanie, całkowanie w odniesieniu do czasu, odwracanie, mnożenie, potęgowanie, logarytmowanie i dzielenie jako podstawową operację matematyczną w celu uzyskania wyników wyższego rzędu jako danych wyjściowych.

Nawet dzisiaj używane są komputery analogowe, ale do znacznie prostszych zadań, głównie ze względu na czynniki kosztowe.

Więcej o komputerach cyfrowych

Cyfrowe komputery działają przy użyciu dyskretnych sygnałów elektrycznych zamiast ciągłych sygnałów elektrycznych i stały się obecnie najbardziej dominującą formą komputerów ze względu na ich wszechstronność i moc. Pierwsze elektroniczne komputery cyfrowe zostały opracowane na początku lat czterdziestych w Wielkiej Brytanii i Stanach Zjednoczonych. Były to duże maszyny zużywające duże ilości energii elektrycznej, a przez to drogie, a komputery mechaniczne miały przewagę nad komputerami cyfrowymi.

Kiedy budowano mniejsze komputery, maszyny były projektowane do konkretnych zadań, przez co brakowało im wszechstronności. Wraz z postępem technologii półprzewodnikowej elementy składowe dużych komputerów zostały zastąpione małymi urządzeniami zużywającymi mniej energii, a komputery cyfrowe szybko się rozwijały.

Nowoczesne komputery cyfrowe są budowane przy użyciu układów scalonych, które mieszczą miliardy komponentów w skali nanometrowej w małym krzemowym kawałku nie większym niż miniatura, ale dysponując mocą obliczeniową kilku tysięcy komputerów zbudowanych na początku XX wieku. Dlatego komputery cyfrowe są wykorzystywane do wszystkich zaawansowanych aspektów rozwiązywania problemów lub obliczeń.

Jaka jest różnica między komputerami analogowymi a komputerami cyfrowymi?

• Komputery analogowe pracują na pomiarze ciągłych właściwości fizycznych, stąd działanie jest w większości przypadków liniowe i ciągłe, podczas gdy komputery cyfrowe używają dyskretnych sygnałów elektrycznych o dwóch możliwych stanach.

• Komputer analogowy może w ogóle nie mieć pamięci, podczas gdy komputery cyfrowe zdecydowanie wymagają pamięci do działania.

• Komputery analogowe działają wolniej niż komputery cyfrowe.

• Komputery analogowe zapewniają dokładne wyniki obliczeń, podczas gdy komputery cyfrowe tracą dokładność operacji z powodu dyskretnej natury sygnałów.

• Komputery analogowe są przeznaczone do określonego pojedynczego celu, podczas gdy komputery cyfrowe są przeznaczone do ogólnych celów.

Zalecana: