Seminar Aktives Lernen
Seminar im Wintersemester 2011/2012. Christoph Sawade, Prof. Tobias Scheffer.
Die Veranstaltungen umfassen jeweils 2 SWS (3 LP).
Das Seminar findet als Blockveranstaltung statt.
Raum: Haus 6, Hörsaal 1
Termine
-
17.10.2011, 12:00 Uhr:Einführungsveranstaltung mit Themenvorstellung und -vergabe (Folien)
-
04.12.2011, 23:59 Uhr:Abgabe 1. Version der Ausarbeitung
-
03.01.2012, 23:59 Uhr:Abgabe Endversion der Ausarbeitung und 1. Version der Vortragsfolien
- 13.01.2012, 10:00 Uhr: Blockseminar mit Seminarvortrag
Inhalte
Das Seminar beschäftigt sich mit aktiven Lernstrategien im maschinellen Lernen.
Um Klassifikations-Modelle wie z.B. Spamfilter zu lernen, werden große Mengen an gelabelten Trainingsdaten benötigt. Während die ungelabelten Testinstanzen (Email-Texte) meist in nahezu unbegrenzter Anzahl zur Verfügung stehen, ist die Aquirierung des Zielattributs (Spam oder Nicht-Spam) in der Praxis häufig zeitaufwändig und teuer. Unter aktiven Lernmethoden versteht man Algorithmen, die iterativ auf Basis des zu lernenden Modells nur wenige informative Label anfordern und so für ein begrenztes Budget das Modell mit geringstem Risiko bestimmen. Die mathematische Grundlagen und algorithmische Umsetzung dieser Methoden sind Gegenstand des Seminars.
Zusatzliteratur
- Wissenschaftliches Arbeiten im Seminar: Online als Vorlesungsvideo
- Überblick über aktive Lernverfahren: Active Learning Literature Survey (B.Settles)
- Maschinelles Lernen 1: Vorlesung
Themen
Siehe auch Folien der EinführungsveranstaltungThema | Literatur |
Uncertainty Sampling (vergeben)
Dieses Thema behandelt Selektionsstrategien für verschiedene Lernverfahren bzw. Problemstellungen, die jeweils das Beispiel mit höchster Label-Unsicherheit auswählen. |
[1,2] |
Expected Error Reduction
"Expected Error Reduction"-Ansätze schätzen für jedes ungelabelte Beispiel und alle potentiellen Label den erwarteten Fehler ab und wählen so das Beispiel, das diesen minimiert. |
[3,4,5] |
Duale aktive Lernverfahren
Dieses Thema beschäftigt sich mit Kombinationen von "Uncertainity Sampling" und "Zufälligem Ziehen" um den "Missed-Cluster-Effect" zu vermeiden. |
[6,7,8] |
Cluster-basierte aktive Lernverfahren (vergeben)
Diese Verfahren vermeiden den "Missed-Cluster-Effect" durch die Exploration des Eingaberaums mit Cluster-Algorithmen. |
[9,10] |
Query by Committee (vergeben)
QbC sind Verfahren, die eine Menge von Modellen betrachten, die auf den gleichen Daten gelernt wurden. Sie stimmen über das Beispiel ab, welches gelabelt werden soll. |
[11,12] |
Aktives Lernen mit Feature Feedback (vergeben)
Bei diesem Themen wird das Labeling-Orakel zusätzlich über die Relevanz von Features befragt. |
[13,14] |
Stream-based Active Learning
Im Gegensatz zu Pool-basierten Verfahren beschäftigt sich diesen Thema mit einem sequentiellen Datenstrom. Es ist nur möglich neu-eintreffenden Objekte labeln zu lassen. |
[15,16] |
Aktives Lernen mit optimalen Ziehverteilungen
Dieses Thema beschäftigt sich mit Ziehverteilungen, die den erwarteten Fehler des Modells minimieren. |
[17,18] |
Aktive Evaluierung
Dieses Thema beschäftigt sich mit der Fragestellung, welche Beispiele für eine möglichst genaue Fehlerschätzung gezogen werden müssen. |
[19,20] |