Erkennung handgeschriebener Ziffern
15.04.2009
Um vollständige Kontrolle über die Vorverarbeitung zu haben, wurde von uns eine eigene Datensammlung für die Erkennung handgeschriebener Ziffern erstellt. Die vollständige Vorverarbeitung ist im technischen Bericht TR-2005-27 beschrieben (siehe unten). Die Ziffern wurden von österreichischen Universitätsstudenten als Teil der Lehrveranstaltung AI Methoden der Datenanalyse zur Verfügung gestellt, und von uns eingescannt und automatisch verarbeitet. Leider wird diese Lehrveranstaltung nicht mehr angeboten.
Falls Sie so etwas ähnliches für Ihre Lehrveranstaltung machen wollen, kontaktieren Sie uns. Weitere Daten sind uns jederzeit willkommen da es ungefähr 5 Jahre dauern würde, mit einer einzigen Lehrveranstaltung eine Datensammlung der Größe von MNIST zu erstellen - und die Größe der Datensammlung scheint die hauptsächliche Determinante für die Fehlerrate von SVM Lernalgorithmen zu sein. MNIST hat durch die automatische Segmentierung einen Segmentierungsfehler von etwa 1%, welcher die Interpretation von Fehlerraten unter diesem Wert sehr schwierig macht.
Diese Methode hat die folgenden Vorteile für Sie und Ihre Studenten:
- Sie können jeder Klasse eigene Daten geben. Abschreiben ist nicht möglich. ;-)
- Neben der pixelbasierten Darstellung haben wir auch Sourcecode für die Berechnung von OCR-verwandten Attributes. Diese sind für Attributselektion, Transformation und Erzeugung neuer Attribute besser geeignet.
- Sie helfen mit, eine Ressource zur Bestimmung des Effekts von Vorverarbeitung auf die Erkennung handgeschriebener Ziffern zu erstellen.
Downloads
Alle Dateien sind im gzipped ARFF Format (für WEKA). Bitte vor Verwendung gunzippen. Die Ziffern wurden mittels einem Mitchell filter auf 16x16 Pixel herunterskaliert (blur=2.5). Details siehe Paper. SMO -E 5 -C 10 -F ergibt eine Fehlerrate von 6.46% auf dieser Datensammlung (-t train -T test). Diese Datensammlung wurde von Studenten der Klasse SS2005 zur Verfügung gestellt.
Wenn Sie das Dataset nutzen, bitte zitieren Sie einen der technischen Berichte.
Update
2009 haben wir auch einige Annahmen über Maschinelles Lernen überprüft und dabei herausgefunden, das aktuelle Systeme so brittle (zerbrechlich) sind wie die klassischen Artificial Intelligence - Systeme. Brittle in diesem Kontext bedeutet das ihre Fähigkeit zur Generalisierung auf die gesamte Gruppe aller handgeschriebenen Ziffern (angenähert durch drei separate Datensammlungen) sehr unzufriedenstellend ist - die Systeme sind nicht in der Lage, handgeschriebene Ziffern im Allgemeinen zu erkennen, und die gelernten Modelle sind sehr spezifisch auf jede Datensammlung angepaßt. Im Bericht findet sich die gut fundierte empirische Argumentation zu diesem Thema. Es ist möglich, das die Einschränkung allgemein für Maschinelle Lernsysteme zutrifft - das wäre allerdings sehr schwierig zu zeigen.
01.03.2004
Vorlesung mit Übung am Institut für Medizinische Kybernetik und Artificial Intelligence der Medizinischen Universität Wien (2h/Woche Vortrag, 1h/Woche Übung)
31.12.2005
Forschung, Design und Entwicklung eines SpamAssassin-basierenden Spamfiltersystems (Samplingmethode, Trainingsmethodologie, Evaluierung) mit sieben Testusern, vorbereitet zum institutsweiten Einsatz; Mitarbeit in zahlreichen lokalen und EU-geförderten Forschungsprojekten.
01.12.2011
Alexander K. Seewald, "On the Brittleness of Handwritten Digit Recognition Models," ISRN Machine Vision, vol. 2012, Article ID 834127, 10 pages, 2012. doi:10.5402/2012/834127.
15.04.2009
Seewald A.K.: On the Brittleness of Handwritten Digit Recognition Models. Technical Report, Seewald Solutions, Wien, 2009.
01.01.2005
Seewald A.K.: Digits - A Dataset for Handwritten Digit Recognition. Technical Report, Austrian Research Institute for Artificial Intelligence, Vienna, TR-2005-27, 2005.