Data publikacji:

Historia komputera, czyli jak powstał komputer?

Komputery są tak bardzo integralną częścią życia każdego z nas, że trudno wyobrazić już sobie świat, w którym możemy polegać tylko na ręcznych lub mechanicznych liczydłach, a po niezbędne informacje musimy udać się do biblioteki lub przeczesywać gazety. Mimo że historia komputera jest długa i burzliwa, warto znać w skrócie jej najważniejsze punkty, by docenić wielu twórców tego wynalazku.

historia komputera

Według słownikowej definicji, komputer to maszyna, która może zostać zaprogramowana, by automatycznie przeprowadzać sekwencje obliczeń arytmetycznych oraz operacji logicznych. Samo słowo pojawiło się w użytku już w XVII wieku i przez kilkaset lat opisywało osoby, które zajmowały się dokonywaniem obliczeń matematycznych np. w instytucjach publicznych lub różnego rodzaju przedsiębiorstwach. Historia komputera zaczęła jednak tysiące lat wcześniej, wraz z wynalezieniem pierwszych maszyn liczących, takich jak liczydła. Na przestrzeni stulecia urządzenia te stawały się coraz bardziej skomplikowane i używano ich np. do ustalania ruchu planet i gwiazd, faz księżyca oraz nawigacji na morzu.

Maszyny liczące

Urządzenia astronomiczne otworzyły drogę do jeszcze bardziej kompleksowych maszyn liczących i kalendarzy. Postęp technologiczny w XVII i XVIII wieku przyniósł powstanie pierwszych kalkulatorów, używanych np. do obliczeń trygonometrycznych. Kolejnym przełomem w dziedzinie skomplikowanych urządzeń tego typu były maszyny różnicowe zaprojektowane w pierwszej połowie XIX wieku przez Charlesa Babbage'a. Jego pomysły zostały rozwinięte w projekcie analogowego komputera – analizatora różnicowego. Został on zaproponowany w 1876 roku przez doktora Jamesa Thomsona oraz jego syna Williama. Ta niezbudowana za życia wynalazców maszyna mogła rozwiązywać niezwykle skomplikowane równania różniczkowe, a także być w ograniczonym stopniu programowana. Wszystkie elementy jej konstrukcji były całkowicie mechaniczne.

Końcówka XIX i początek XX wieku to czas ogromnej popularyzacji analogowych kalkulatorów. Wówczas też po raz pierwszy zaczęto korzystać z perforowanych papierowych kart lub taśm, które służyły do wydawania sprzętowi zakodowanych instrukcji, przyśpieszając pracę operatorów. Pomysł ten zaczerpnięto z rozwiązań stosowanych między innymi w maszynach szwalniczych.

Pierwsze komputery elektromechaniczne i elektroniczne

Tuż przed wybuchem i w trakcie II wojny światowej do celów wojskowych zaczęto wykorzystywać napędzane prądem komputery elektromechaniczne. Urządzenia takie skonstruowali inżynierowie z Niemiec oraz USA. Współczesne komputery elektroniczne narodziły się jednak w latach 1943-1945 wraz z powstaniem dwóch wersji tzw. Colossusa w Wielkiej Brytanii. Było to jednak możliwe w dużej części dzięki teorii oraz pracy matematyka Alana Turinga, uznawanego za ojca informatyki. W 1945 roku w USA zadebiutował z kolei pierwszy amerykański komputer, sławny ENIAC, który podobnie jak Colossus, przy konstrukcji bramek logicznych korzystał z elektronicznych lamp próżniowych, a nie mechanicznych przełączników.

Rewolucja tranzystorowa

Przez dziesięć lat od debitu ENIACA komputery znacząco zwiększyły swoje możliwości obliczeniowe, ale były ograniczone przez ogromne rozmiary i szybujące w górę koszty utrzymania. Zawdzięczały to w dużej mierze często psującym się lampom próżniowym. Na kupno i budowę komputera mogły wówczas pozwolić sobie tylko największe jednostki badawcze, firmy, wojsko oraz instytucje państwowe. Zaczęło się to coraz szybciej zmieniać wraz z rozpoczęciem produkcji pierwszych tranzystorów, które pozwoliły na zastąpienie mało wydajnych lamp już w 1955 roku. Kolejnym przełomem były drukowane układy scalone, których zaczęto używać w 1959 roku. Pozwoliły one na dalszą miniaturyzację oraz szybką budowę coraz bardziej skomplikowanych systemów elektronicznych, bez potrzeby ręcznego i żmudnego łączenia ich wszystkich elementów przewodami.

Komputer w każdym domu

Lata 60., 70. i 80. były dekadami, w których komputery przestały być abstrakcyjnym kuriozum i zaczęły zdobywać współczesne kształty oraz funkcjonalność. W tym czasie zaczęto korzystać z nowych i bardziej doskonałych nośników danych (dyski twarde, dyskietki, taśmy magnetyczne), a także tekstowych i graficznych interfejsów użytkownika.

Nie można również zapomnieć, że to właśnie w latach 80. komputery po raz pierwszy na dużą skalę trafiły wreszcie pod strzechy. Dokonano tego w dużej mierze dzięki tanim i łatwym w obsłudze modelom, takim jak Commodore 64 czy ZX Spectrum. Niedługo po nich IBM przedstawił swojego pierwszego peceta. Wprowadzone wówczas przez firmę standardy konstrukcyjne używane są w zmodyfikowanej i rozwiniętej formie do dziś.

Autor: Redakcja ekspert ceneo