Pierwsza generacja komputerów: początek początku
W tłumaczeniu na język angielski słowo "komputer" oznacza "kalkulator". W celu przeprowadzenia skomplikowanych obliczeń stworzono pierwsze komputery.
Historia stworzenia komputera, paradoksalnie, jak mogłoby się wydawać,pochodzi z czasów starożytnych. Oczywiście pierwsze narzędzia obliczeniowe nie idą do żadnego porównania ze współczesnym, ale to właśnie z nimi zaczyna się tworzenie technologii komputerowej. Pierwsze narzędzie, które pomogło ludziom liczyć, było znane wszystkim punktom.
Starożytny grecki liczydło byłodrewniana tabletka, posypana piaskiem. W Rosji kości używane do prostych obliczeń i obliczeń posłużyły jako główne narzędzie do rozkładu na hałdy. Jednak od czasu istnienia Rusi minie wiele stuleci, zanim zbliży się do stworzenia prawdziwego komputera.
Pierwsza generacja komputerów jest związana z nazwiskiem Johna vonNeumann, Claude Shannon i Alan Turing - naukowcy, którzy mają bezpośredni związek z rozwojem technologii komputerowej. Większość pierwszych komputerów powstało w okresie od 1945 do 1954 roku jako eksperyment do sprawdzenia niektórych pozycji teoretycznych. W tym samym czasie rozwija się nowa nauka, cybernetyka, bezpośrednio związana z technologią informacyjną. Aż do lat 60. XX wieku cybernetyka była nauką związaną z rozwojem technologii komputerowych, w tym najbardziej obiecującym kierunkiem - robotyką i wynalazkiem sztucznej inteligencji. Pierwsza generacja komputerów powstała na bazie pracy lamp elektronowych (podobnie jak w przypadku starszych telewizorów), komputery w połowie XX wieku osiągnęły ogromne rozmiary, wymagały osobnego pomieszczenia do ich umieszczenia.
Ewolucja komputera obejmuje pięć głównych etapów. Dlaczego okres tworzenia pierwszej generacji komputerów jest warty rozważenia w najdrobniejszych szczegółach? Nie bierzemy pod uwagę obliczeniowych wynalazków naszych starożytnych przodków, ponieważ w rzeczywistości nie mają one nic wspólnego z pochodzeniem komputerów elektronicznych. Stworzenie pierwszego komputera, który jest prototypem nowoczesnego komputera, ma ogromne znaczenie dla takiej nauki, jak ogólnie informatyka.
Etapy rozwoju komputera:
- 1945-1954 g. - Stworzenie pierwszego komputera opartego na rozwoju sprzętu komputerowego John von Neumann - pierwsza generacja komputerów;
- 1955-1964, - Stworzenie drugiej generacji komputerów opartych na tranzystorach, wprowadzenie w nich pierwszego systemu operacyjnego, rozwój języków programowania: Cobol, Algol, Fortran, pojawienie się komputerów na sprzedaż;
- 1965-1974 g. - Wynalezienie mikroukładów, początek wykorzystania pamięci półprzewodnikowej (operacyjnej) w pracy komputerów, początek wielkoskalowej produkcji komputerów.
Czas od 1975 do 1985 roku uważany jest za okres spokoju w rozwoju elektro-komputerów.
Od 1985 roku okres rozwoju czwartegokomputery generacji, doskonalenie technologii komputerowej ze względu na zwiększenie jej mocy i wielkości, ogólną dostępność i masową produkcję komputerów.
Piąta generacja komputerów z punktu widzenia japońskiegonaukowcy sugerują ulepszenie istniejących modeli komputerowych i stworzenie technologii komputerowej, która może zrozumieć polecenia użytkownika na poziomie jego myślenia. Bez względu na to, czy wielkie plany zagranicznych wynalazców są wdrażane, czy nie, pierwsza generacja komputerów odegrała bardzo ważną rolę w rozwoju technologii informatycznych przyszłości. Pierwsze komputery, które zajmują ogromne terytorium i wydają się nam prawdziwymi potworami, tak czy inaczej, są prototypem naszego zwykłego komputera. Bez ich istnienia wynalezienie laptopów, netbooków, tabletów itp. byłoby to niemożliwe.