Entropie
Die Entropie kann als Maß für den Informationsgehalt einer Trainingsmenge betrachtet werden: Wieviele Ja/Nein-Entscheidungen sind nötig, um die Daten fehlerfrei zu repräsentieren?
Nach der Wahl eines Attributs kann die verbleibende mittlere Entropie berechnet werden. Damit hat man ein Kriterium für die Auswahl von Attributen beim Aufbau von Entscheidungsbäumen: Nimm das Attribut, welches einen möglichst hohen Informationsgehalt hat. Oder andersherum: Wähle das Attribut, bei dem die verbleibende mittlere Entropie der Trainingsmenge nach der Wahl des Attributs am kleinsten ist.
- (K3) Berechnung der Entropie und des Information Gain
Wie Attribute wählen?
Erinnerung: CAL2/CAL3
- Zyklische Iteration durch die Trainingsmenge
- Ausschließlich aktuelles Objekt betrachtet
- Reihenfolge der "richtigen" Attributwahl bei Verzweigung unklar
=> Betrachte stattdessen die komplette Trainingsmenge!
Relevanz => Informationsgehalt
- Shannon/Weaver (1949): Entropie
- Maß für die Unsicherheit einer Zufallsvariablen
- Anzahl der Bits zur Darstellung der Ergebnisse eines Zufallsexperiments
Beispiele
- Münze, die immer auf dem Rand landet: keine Unsicherheit, 0 Bit
- Faire Münze: Kopf oder Zahl: Entropie 1 Bit
- Fairer 4-seitiger Würfel: 4 mögliche Ausgänge: Entropie 2 Bit
- Münze, die zu 99% auf einer Seite landet: Entropie nahe Null
=> Anzahl der Ja/Nein-Fragen, um zur gleichen Information zu kommen
Definition der Entropie für Zufallsvariable
- Zufallsvariable
=> mögliche Werte - Wahrscheinlichkeit für
sei
- Nur eine Klasse:
=> Bit - Zwei Klassen, gleichwahrscheinlich:
=> Bit
Beispiele Entropie: faire Münze
Entropie:
Bit
Beispiele Entropie: unfaire Münze
Entropie:
-
-
-
Bit
Beispiele Entropie: 4-seitiger Würfel
Entropie:
Bit
Entropie der Trainingsmenge: Häufigkeit der Klassen zählen
Nr. | ||||
---|---|---|---|---|
1 | 0 | 0 | 0 | A |
2 | 1 | 0 | 2 | A |
3 | 0 | 1 | 1 | A |
4 | 1 | 1 | 0 | B |
5 | 0 | 1 | 1 | B |
6 | 0 | 1 | 0 | A |
- Anzahl Klasse
: 4 - Anzahl Klasse
: 2 - Gesamtzahl Beispiele: 6
Wahrscheinlichkeit für
Wahrscheinlichkeit für
Mittlere Entropie nach Betrachtung von Attribut
-
Auswahl von Attribut
partitioniert die Trainingsmenge: Je Ausprägung von erhält man eine Submenge -
berechnet die mittlere Entropie der Trainingsmenge, nachdem Attribut ausgewählt wurde: Unsicherheit/nötige Bits nach Auswahl von Attribut
Entropie der Trainingsmenge nach Attributwahl
Nr. | ||||
---|---|---|---|---|
1 | 0 | 0 | 0 | A |
2 | 1 | 0 | 2 | A |
3 | 0 | 1 | 1 | A |
4 | 1 | 1 | 0 | B |
5 | 0 | 1 | 1 | B |
6 | 0 | 1 | 0 | A |
- Sei Attribut
ausgewählt partitioniert die Trainingsmenge liefert liefert- Häufigkeit für
: - Häufigkeit für
: - Gesamtzahl Beispiele: 6
Ausblick: Gini Impurity
Wir haben hier die Entropie
als Maß für den Informationsgehalt einer Trainingsmenge genutzt.
In anderen Entscheidungsbaumlernern wird stattdessen die Gini Impurity zur Bestimmung des Informationsgehalts eingesetzt (u.a. CART). Dieses Maß sagt aus, wie oft man ein zufällig gezogenes Element des Datensatzes falsch klassifizieren würde, wenn man es mit einer zufälligen Klasse basierend auf der Verteilung der Klassen im Datensatz labeln würde.
Hierzu drei lesenswerte Blog-Einträge:
- Deep dive into the basics of Gini Impurity in Decision Trees with math Intuition
- Decision Trees, Explained
- Decision Tree Algorithm With Hands-On Example
Wrap-Up
- Begriff und Berechnung der Entropie: Maß für die Unsicherheit
- Begriff und Berechnung des Informationsgewinns
- Entropie für eine Trainingsmenge
- Mittlere Entropie nach Wahl eines Attributs
Entropie einer Trainingsmenge
Betrachten Sie die folgenden Aussagen:
- Patient A hat weder Husten noch Fieber und ist gesund.
- Patient B hat Husten, aber kein Fieber und ist gesund.
- Patient C hat keinen Husten, aber Fieber. Er ist krank.
- Patient D hat Husten und kein Fieber und ist krank.
- Patient E hat Husten und Fieber. Er ist krank.
Aufgaben:
- Geben Sie die Entropie
der Trainingsmenge an. - Berechnen Sie
(die mittlere Entropie der Trainingsmenge, nachdem Attribut gesehen wurde) für die einzelnen Attribute.
- [Ertel2017] Introduction to Artificial Intelligence
Ertel, W., Springer, 2017. ISBN 978-3-319-58487-4. DOI 10.1007/978-3-319-58487-4.
Entscheidungsbäume: Abschnitt 8.4 - [Mitchell2010] Machine Learning
Mitchell, T., McGraw-Hill, 2010. ISBN 978-0-0711-5467-3.
ID3: Kapitel 3 - [Russell2020] Artificial Intelligence: A Modern Approach
Russell, S. und Norvig, P., Pearson, 2020. ISBN 978-0134610993.
Entscheidungsbäume: Abschnitt 19.3