← Technologie

1800er – Mechanische Grundlagen

Charles Babbage entwarf 1822 die Differenzmaschine zur automatischen Berechnung mathematischer Tabellen. Er konzipierte später die Analytische Maschine – ein universeller mechanischer Computer mit Speicher, Prozessor und bedingten Verzweigungen. Ada Lovelace schrieb 1843 den ersten Computeralgorithmus dafür.

1930er–40er – Die ersten elektronischen Computer

Alan Turing veröffentlichte 1936 sein theoretisches Rahmenwerk für Berechnung und führte das Konzept der universellen Rechenmaschine ein. Während des Zweiten Weltkriegs knackte Colossus (UK) die Nazi-Enigma-Codes. ENIAC (1945, USA) war der erste universelle elektronische Computer – 30 Tonnen schwer, mit 18.000 Vakuumröhren.

1950er–60er – Transistoren und Großrechner

Die Erfindung des Transistors bei Bell Labs 1947 ersetzte sperrige Vakuumröhren. IBM dominierte mit Großrechnern für Unternehmen und Behörden. Die ersten Programmiersprachen entstanden: FORTRAN (1957) für Wissenschaft, COBOL (1959) für Wirtschaft. NASA nutzte IBM-Großrechner zur Berechnung der Apollo-Trajektorien.

1970er – Die Mikroprozessor-Revolution

Intels 4004 (1971) war der erste handelsübliche Mikroprozessor – eine komplette CPU auf einem einzigen Chip. Der Altair 8800 (1975) war das erste Heimcomputer-Bausatz. Bill Gates und Paul Allen schrieben einen BASIC-Interpreter dafür und gründeten Microsoft. Steve Jobs und Steve Wozniak gründeten Apple 1976.

1980er – Das PC-Zeitalter

IBM brachte 1981 den IBM PC heraus und legte die Standardarchitektur fest, die noch heute verwendet wird. Microsoft lizenzierte MS-DOS an IBM, behielt aber das Recht, es auch anderen zu verkaufen – der Deal, der Microsoft zur Dominanz verhalf. Apples Macintosh (1984) brachte GUI und Maus in den Mainstream.

1990er–2000er – Internet und Mobil

Tim Berners-Lee erfand das World Wide Web am CERN 1989–1991. Netscapes Browser brachte das Internet 1994 zu gewöhnlichen Nutzern. Google startete 1998. Das iPhone (2007) und der App Store (2008) läuteten das Smartphone-Zeitalter ein. Bis 2010 nutzten mehr Menschen das Internet über Mobilgeräte als über Desktop.

2010er–Heute – Cloud, Big Data, KI

Amazon Web Services, Google Cloud und Microsoft Azure verwandelten Computing in einen Versorgungsdienst. Maschinelles Lernen wandelte sich vom akademischen Forschungsthema zum industriellen Werkzeug. GPUs für KI-Training. Die 2020er sahen große Sprachmodelle im Mainstream – ChatGPT erreichte 100 Millionen Nutzer in zwei Monaten.

Quantencomputing

Klassische Computer verwenden Bits (0 oder 1). Quantencomputer verwenden Qubits, die in Superposition existieren (gleichzeitig 0 und 1) und verschränkt werden können. Dies ermöglicht bei bestimmten Problemen (Kryptographie, Arzneimittelentdeckung, Materialwissenschaft) exponentiell schnellere Lösungen. IBM, Google und andere haben kleine Quantenprozessoren demonstriert.