Datenbanktheorie

Quelle: Wikipedia. Seiten: 70. Kapitel: Normalisierung, Datenabhängigkeit, Relation, Relationale Algebra, Referentielle Integrität, Verlorenes Update, Deadlock, Funktionale Abhängigkeit, Object-relational impedance mismatch, Anfrageoptimierer, Selektivität, Sperrverfahren, Scheduler, Konsistenzerhaltung, Isolation, Transaktion, Serialisierbarkeit, Transaktionsmonitor, Kalkül, Datenbankoperator, Integritätsbedingung, Sorted Neighborhood, Commit-Protokoll, Auswertungsplan, Constraint, Logische Uhr, Kardinalität, Rollback, ACID, Redundanz, Gewichtetes Votieren, Anomalie, Konjunktive Anfrage, ANSI-SPARC-Architektur, Kanonische Überdeckung, Bucket-Algorithmus, Mehrwertige Abhängigkeit, Phantomproblem, Historie, Sichtenäquivalenz, Datenunabhängigkeit, Duplikaterkennung, Datenbankmodell, Halloween-Problem, Nichtwiederholbares Lesen, Konfliktäquivalenz, Sequentialisierung, Cache Fusion, Periodengruppe, Shadow Paging, Schreib-Lese-Konflikt, Sequenznummer, Satz von Delobel, Zeitstempelverfahren, Relationale Entwurfstheorie, Transaktionssystem, CAP-Theorem, Operation, Determinante, Atomare Operation, Eventual consistency, X/Open XA, Konfliktoperation, ARIES, Tupel, Schiller-Räuber-Problem, Basic Timestamp Ordering, Relationenschema, Chronon, Sperreskalation. Auszug: Die Normalisierung eines relationalen Datenschemas überführt es in eine Form, die keine vermeidbaren Redundanzen mehr enthält. Ein konzeptionelles Schema, das Datenredundanzen enthält, kann dazu führen, dass bei Änderungen der damit realisierten Datenbank die mehrfach enthaltenen Daten nicht konsistent, sondern nur teilweise und unvollständig geändert werden, womit sie obsolet oder widersprüchlich werden können. Man sagt auch, dass Anomalien auftreten können. Zudem belegt mehrfache Speicherung derselben Daten unnötig Speicherplatz. Aus diesen Gründen wird versucht, solche Redundanzen durch Normalisierung zu vermeiden. Es gibt verschiedene Ausmaße, in denen ein Datenbankschema gegen Anomalien gefeit sein kann. Je nachdem spricht man davon, dass es in erster, zweiter, dritter usw. Normalform vorliege. Diese Normalformen sind durch bestimmte formale Anforderungen an das Schema definiert. Man bringt ein Datenbankschema in eine Normalform, indem man fortschreitend anhand für sie geltender funktionaler Abhängigkeiten seine Relationen in einfachere zerlegt, bis keine weitere Zerlegung mehr möglich ist. Dabei dürfen jedoch auf keinen Fall Daten verloren gehen. Mit dem Satz von Delobel kann man für einen Zerlegungsschritt förmlich nachweisen, dass er keine Datenverluste mit sich bringt. Normalisiert wird vor allem in der Phase des Entwurfs einer relationalen Datenbank. Für die Normalisierung gibt es Algorithmen (Synthesealgorithmus (3NF), Zerlegungsalgorithmus (BCNF) usw.), die automatisiert werden können. Die Zerlegungsmethodik folgt der relationalen Entwurfstheorie. Aufspaltung der Tabelle TBL_AdressenAllesBei der Normalisierung werden zunächst Spalten (synonyme Begriffe: Felder, Attribute) von Tabellen innerhalb der Datenschemas in neue Spalten aufgeteilt, z. B. in , und . Zweitens werden Tabellen aufgeteilt, zum Beispiel eine Tabelle mit den Feldern , , und in diese Tabellen: Siehe Bild Aufspaltung der Tabelle - wobei die Tabelle noch den eindeutigen Primärschlüssel erhä

30,90 CHF

Lieferbar


Artikelnummer 9781158791545
Produkttyp Buch
Preis 30,90 CHF
Verfügbarkeit Lieferbar
Einband Kartonierter Einband (Kt)
Meldetext Folgt in ca. 5 Arbeitstagen
Autor Quelle: Wikipedia
Verlag Books LLC, Reference Series
Weight 0,0
Erscheinungsjahr 2011
Seitenangabe 72
Sprache ger
Anzahl der Bewertungen 0

Dieser Artikel hat noch keine Bewertungen.

Eine Produktbewertung schreiben