(2) Kurze Geschichte der Datenbanken
The untold story of databases 15-minütiges Video über die Geschichte der Datenbanken
- Punch cards
- Vector embeddings (interessant für die Verarbeitung von Firmendaten)
- Mainframes: extrem leistungsfähige Großcomputer für kritische Aufgaben wie Massendatenverarbeitung, die von großen Unternehmen für ihre essenziellen Anwendungen eingesetzt werden. Sie zeichnen sich durch hohe Zuverlässigkeit, Sicherheit und Geschwindigkeit aus und können Milliarden von Transaktionen gleichzeitig verarbeiten. Der Begriff leitet sich vom ursprünglichen Gehäuse ab, das die zentrale Einheit enthielt, und heute dienen sie oft als zentrale „Hubs“ für die Vernetzung von Systemen in Unternehmen.
- Quantum Storage
Die unterschätzte Macht der Datenbanken
Entwickler fokussieren sich oft auf Frameworks und Code, doch die Datenbank ist das eigentliche Fundament. Datenbanken organisieren Realität, nicht nur Daten: Flüge, Banküberweisungen, Streaming. Alles läuft über Datenbanken.
Frühe Anfänge (1801–1950er)
- 1801 nutz Joseph Jacquard Lochkarten zur Steuerung von Webstühlen: frühes Beispiel speicherbarer Logik.
- 1880 entwickelt Herman Hollerith eine elektromechanische Zählmaschine (tabulating machine) für die US-Volkszählung. Das war die Grundlage für IBM.
Problem der Zeit: Daten sind physisch, schwer zu verwalten, Suche dauert extrem lange.
In den 1950er-Jahren ersetzen magnetische Bänder und erste elektronische Computer die Lochkarten. Daten werden nun unsichtbar als magnetische Muster gespeichert. Doch das Auffinden einzelner Informationen bleibt mühsam, da man genau wissen muss, wo sie liegen; das Durchsuchen der Bänder kann Stunden oder sogar Tage dauern.
Wie funktionieren Magnetbänder?
Erste Datenbankkonzepte (1960er)
Charles Bachman entwickelt das erste echte Datenbank-Management-System mit Netzwerkmodell (IDS). Der Hintergrund ist, dass in dieser Zeit die Entwickler viel Zeit mit der Suche von Daten verschwendet haben. Daten können nun verknüpft werden, damit entsteht eine Struktur.
Sabre-System (1964) – Datenbanken als Waffe
American Airlines und IBM entwickeln Sabre: ein kontinentweites Reservierungssystem. Das revolutioniert den Luftverkehr und zeigt die Macht von Datenbank-Kontrolle. Sabre wird später manipuliert, um American Airlines zu bevorzugen, was politische Folgen hatte.
Die relationale Revolution (1970er)
Datenbanken waren bisher hierarchisch organisiert. Edgar F. Codd (IBM) schlägt ein relationales Datenmodell vor: Daten in Tabellen (Zeilen/Spalten) organisieren. Nutzer geben an, was sie wollen, nicht wie es gefunden werden soll. Das stellt die Grundlage von SQL dar.
Berkeley-Initiative (Ingres): Akademisches Projekt zur praktischen Umsetzung von Codds Modell.
IBM startet auch ein Projekt in die Richtung (System R). Der Fokus liegt hier auf echten Anwendungsfälle. Um nicht-Programmierer die Arbeit mit Daten zu ermöglichen, wird SQL entwickelt (Chamberlin und Boyce). IBM kommerzialisiert das System aber nicht.
Kommerzialisierung & Datenbankkriege (1980er)
Larry Ellison (Gründer von Oracle): Baut das erste kommerzielle SQL-DBMS (Oracle V2), schlägt IBM um Jahre.
IBM antwortet mit DB2; der Datenbankmarkt wird hart umkämpft.
1986: SQL wird offizieller Standard (ANSI) Interoperabilität und Entwicklerfreundlichkeit
ANSI X3.135-1986: Der erste offizielle Standard für SQL.
ISO/IEC 9075: Internationale Normenreihe für SQL, beginnend ab 1987 und laufend aktualisiert (z. B. SQL:1999, SQL:2011, SQL:2023 usw.).
1990er: Datenbanken kommen an ihre Grenzen
In den 1990er-Jahren stießen relationale Datenbanken zunehmend an ihre Grenzen, da sie sich nur schwer mit der aufkommenden objektorientierten Programmierung vereinen ließen. Entwickler arbeiteten in Objekten, während relationale Systeme in Tabellen dachten. Als Reaktion entstanden objektorientierte Datenbanken wie Versant und Objectivity, die Daten in ihrer nativen Objektstruktur speichern sollten. Trotz anfänglicher Hoffnungen konnten sie sich jedoch nicht durchsetzen: SQL (relationale Datenbanken) war zu weit verbreitet, zu standardisiert und zu fest im Markt etabliert.
2000er: Fokus auf Verfügbarkeit
In den 2000er-Jahren verschoben sich die Herausforderungen: Unternehmen wie Google und Amazon sahen sich mit Datenmengen konfrontiert, die die Kapazitäten klassischer relationaler Datenbanken sprengten. Um diese enormen Skalierungsprobleme zu lösen, entwickelten sie neue, verteilte Datenbanksysteme.
Google veröffentlichte 2006 das BigTable-Paper, Amazon folgte 2007 mit dem Dynamo-Paper. Diese Systeme legten weniger Wert auf vollständige Konsistenz, sondern setzten auf hohe Verfügbarkeit und Fehlertoleranz: Eine bewusste Abkehr von den klassischen ACID-Prinzipien hin zum BASE-Modell („Basically Available, Soft state, Eventual consistency“).
Die NoSQL-Bewegung entstand und brachte neue Datenbankmodelle wie Cassandra, MongoDB oder CouchDB hervor, die speziell für webbasierte, verteilte und hochskalierbare Anwendungen konzipiert wurden.
2010er: Fokus auf Skalierbarkeit und Cloud-Lösungen
Mit dem Aufstieg der Cloud in den 2010er-Jahren veränderte sich der Umgang mit Datenbanken erneut grundlegend. Datenbanken wurden zunehmend als Dienste angeboten, die sich automatisch skalieren, selbst reparieren und nach Verbrauch abgerechnet werden konnten.
Anbieter wie Amazon (DynamoDB), Google (Firestore) und Microsoft (Cosmos DB) ermöglichten es Unternehmen, komplexe Datenbankinfrastrukturen ohne eigene Server zu betreiben.
Gleichzeitig setzte sich der Ansatz durch, verschiedene Datenbanktypen je nach Anwendungsfall zu kombinieren: klassische relationale Datenbanken wie PostgreSQL für Transaktionen, Redis für schnelle Zwischenspeicherung, Elasticsearch für performante Volltextsuchen oder Neo4j für die Analyse von Beziehungsnetzwerken. Entwickler wurden zunehmend zu Datenarchitekten, die aus einer Vielzahl spezialisierter Systeme die optimale Kombination für ihre Anforderungen zusammenstellten.
2020er: KI Revolution
In den 2020er-Jahren steht die nächste große Datenbankrevolution im Zeichen der künstlichen Intelligenz. Mit dem Aufkommen von KI-Anwendungen und generativen Modellen wächst der Bedarf an Systemen, die nicht nur Daten, sondern auch Bedeutungen speichern können. Vektor-Datenbanken wie Pinecone oder Milvus ermöglichen genau das: Sie speichern hochdimensionale Repräsentationen von Text, Bildern oder Ton und ermöglichen so semantische Suche und AI-gesteuerte Verarbeitung. Der Fokus verschiebt sich auf neue Anforderungen wie Echtzeitverarbeitung, Edge-Computing, die Integration von IoT-Geräten und die nahtlose Anbindung an KI-Systeme. Datenbanken entwickeln sich damit weiter zur kognitiven Infrastruktur der digitalen Welt.