Seminar Aktives Lernen

Seminar im Wintersemester 2011/2012. Christoph Sawade, Prof. Tobias Scheffer.

Die Veranstaltungen umfassen jeweils 2 SWS (3 LP). Das Seminar findet als Blockveranstaltung statt.
Raum: Haus 6, Hörsaal 1


Termine


Inhalte

Das Seminar beschäftigt sich mit aktiven Lernstrategien im maschinellen Lernen.

Um Klassifikations-Modelle wie z.B. Spamfilter zu lernen, werden große Mengen an gelabelten Trainingsdaten benötigt. Während die ungelabelten Testinstanzen (Email-Texte) meist in nahezu unbegrenzter Anzahl zur Verfügung stehen, ist die Aquirierung des Zielattributs (Spam oder Nicht-Spam) in der Praxis häufig zeitaufwändig und teuer. Unter aktiven Lernmethoden versteht man Algorithmen, die iterativ auf Basis des zu lernenden Modells nur wenige informative Label anfordern und so für ein begrenztes Budget das Modell mit geringstem Risiko bestimmen. Die mathematische Grundlagen und algorithmische Umsetzung dieser Methoden sind Gegenstand des Seminars.


Zusatzliteratur


Themen

Siehe auch Folien der Einführungsveranstaltung

Thema Literatur
Uncertainty Sampling (vergeben)

Dieses Thema behandelt Selektionsstrategien für verschiedene Lernverfahren bzw. Problemstellungen, die jeweils das Beispiel mit höchster Label-Unsicherheit auswählen.
[1,2]
Expected Error Reduction

"Expected Error Reduction"-Ansätze schätzen für jedes ungelabelte Beispiel und alle potentiellen Label den erwarteten Fehler ab und wählen so das Beispiel, das diesen minimiert.
[3,4,5]
Duale aktive Lernverfahren

Dieses Thema beschäftigt sich mit Kombinationen von "Uncertainity Sampling" und "Zufälligem Ziehen" um den "Missed-Cluster-Effect" zu vermeiden.
[6,7,8]
Cluster-basierte aktive Lernverfahren (vergeben)

Diese Verfahren vermeiden den "Missed-Cluster-Effect" durch die Exploration des Eingaberaums mit Cluster-Algorithmen.
[9,10]
Query by Committee (vergeben)

QbC sind Verfahren, die eine Menge von Modellen betrachten, die auf den gleichen Daten gelernt wurden. Sie stimmen über das Beispiel ab, welches gelabelt werden soll.
[11,12]
Aktives Lernen mit Feature Feedback (vergeben)

Bei diesem Themen wird das Labeling-Orakel zusätzlich über die Relevanz von Features befragt.
[13,14]
Stream-based Active Learning

Im Gegensatz zu Pool-basierten Verfahren beschäftigt sich diesen Thema mit einem sequentiellen Datenstrom. Es ist nur möglich neu-eintreffenden Objekte labeln zu lassen.
[15,16]
Aktives Lernen mit optimalen Ziehverteilungen

Dieses Thema beschäftigt sich mit Ziehverteilungen, die den erwarteten Fehler des Modells minimieren.
[17,18]
Aktive Evaluierung

Dieses Thema beschäftigt sich mit der Fragestellung, welche Beispiele für eine möglichst genaue Fehlerschätzung gezogen werden müssen.
[19,20]


Literatur

[1] S. Tong, D. Koller (2002): Support Vector Machine Active Learning with Applications to Text Classification.
[2] D. D.Lewis, W.A. Gale (1994): A Sequential Algorithm for Training Text Classifier.
[3] N. Roy, A. McCallum (2001): Toward Optimal Active Learning through Sampling Estimation of Error Reduction.
[4] O. Chapelle (2005): Active Learning for Parzen Window Classifier.
[5] G. Schohn, D. Cohn (2000): Less is More: Active Learning with Support Vector Machines.
[6] T. Osugi, D. Kun, S. Scott (2005): Balancing Exploration and Exploitation: A New Algorithm for Active Machine Learning.
[7] P. Donmez, J.G. Carbonell, P.N. Bennett (2007): Dual Strategy Active Learning.
[8] G. Pandey, H. Gupta, P. Mitra (2005): Stochastic Scheduling of Active Support Vector Learning Algorithms.
[9] H.T. Nguyen, A. Smeulders (2004): Active Learning with Pre-Clustering.
[10] S. Dasgupta, D. Hsu (2008): Hierarchial Sampling for Active Learning.
[11] H. Seung, M. Opper H. Sompolinsky (1992): Query by Committee.
[12] A. McCallum, K. Nigam (1998): Employing EM in pool-based active learning for Text Classification.
[13] H. Raghavan, J. Allan (2007): An InterActive Algorithm For Asking And Incorporating Feature Feedback into Support Vector Machines.
[14] G. Druck, B. Settles, A. McCallum (2009): Active Learning by Labeling Features.
[15] A. Beygelzimer, S. Dasgupta, J. Langford (2009): Importance Weighted Active Learning.
[16] W. Chu, M. Zinkevich, L. Li, A. Thomas, B. Tseng (2010): Unbiased Online Active Learning in Data Streams.
[17] T. Kanamori (2006): Pool-based Active Learning With Optimal Sampling Distribution and Its Information Geometrical Interpretation
[18] F. Bach (2007): Active Learning for Misspecified Generalized Linear Models.
[19] C. Sawade, N. Landwehr, S. Bickel, T. Scheffer (2010): Active Risk Estimation.
[20] C. Sawade, N. Landwehr, T. Scheffer (2010): Active Estimation of F-Measures.