5180
Kommentar:
|
14879
|
Gelöschter Text ist auf diese Art markiert. | Hinzugefügter Text ist auf diese Art markiert. |
Zeile 11: | Zeile 11: |
Bei nicht numerischen Daten versucht Data-Mining ebenfalls die Daten durch eine Funktion zu approproximieren. Diese ist dann allerdings keine analytische Funktion, sondern eine abstrahierte Funktion. Das Verfahren ist somit noch fehleranfälliger als wie bei numerischen Daten. Zum Finden der Funktion gibt es verschiedene Verfahren, welche je nach vorhandenen Daten ausgewählt werden müssen. Das Finden der Funktion wird bei den KI-Informatikern [[http://wissensexploration.de/datamining-kdd-machine-learning.php|Maschinelles Lernen]] genannt. Dieser Begriff ist allerdings problematisch, da er zur Überschätzung der Erkenntnisse durch Data-Mining führt. |
Bei nicht numerischen Daten versucht Data-Mining ebenfalls die Daten durch eine Funktion zu approproximieren. Diese ist dann allerdings keine analytische Funktion, sondern eine abstrahierte Funktion. Diese abstrahierte Funktion wird als vorhandenes Muster in den Daten bezeichnet, welches in der Regel zu einem diskreten Wert führt. |
Zeile 14: | Zeile 13: |
=== Methoden des Data-Mining === | Zum Finden der Muster oder Funktionen gibt es verschiedene Verfahren, welche je nach vorhandenen Daten ausgewählt werden müssen. Zum Finden des Musters oder der Funktion werden Methoden des [[http://wissensexploration.de/datamining-kdd-machine-learning.php|Maschinelles Lernen]] verwendet. Dabei finden bei Data-Mining nur Methoden des induktiven Maschinellen Lernens Anwendung (deduktives Maschinelles Lernen wird für Automatisierungen verwendet). |
Zeile 16: | Zeile 15: |
==== Classification ==== | == Vorgehensweise == |
Zeile 18: | Zeile 17: |
Es wird versucht in den vorhandenen Daten allgemeinen Strukturen zu finden, so dass Rückschlüsse auf neue Daten gezogen werden können. | Teilweise werden zuerst verschiedene Datenbanken zu einer zusammengeführt, dieses wird Datawarehouse genannt. Als nächstes werden die Daten von Fehlern bereinigt. Dann werden aus den Datensätzen sogenannte Trainingsdaten ausgewählt. Dieses ist ein heikler Punkt, da bei falscher Auswahl der Trainingsdaten es zur Überanpassung und somit fehlerhaften Ergebnissen führen kann. Dann wird eine der Methoden des Data-Mining ausgewählt um die abstrahierte Funktion oder das Muster zu finden, wobei hier das Problem ist die passende Methode auszuwählen. Dafür bedarf es theoretisch die genaue Kenntnis der Methoden. Anschließend wird die gefundene Funktion mit Testdaten, die ebenfalls aus den Datensätzen stammen, überprüft und notfalls verbessert. |
Zeile 20: | Zeile 22: |
===== K-Nearest Neighbor Methode ===== Wird auch als Lazy Learning bezeichnet, d.h. von allem vorhandenen Datensätzen werden K-Datensätzen gesucht, die den neuen Daten am ähnlichsten sind. Dabei werden bei nicht numerischen Daten abstrahierte Abstände verwendet. Die gesuchten Werte des neuen Datensatzes werden dann mit Gewichtung 1/Abstand aus den nächsten K-Datensätzen bestimmt. |
== Methoden des Data-Mining == |
Zeile 23: | Zeile 24: |
===== Entscheidungsbäume ===== | === Klassifizierung === |
Zeile 25: | Zeile 26: |
Es wird versucht aus den Daten Entscheidungsbäume zu machen. D.h. es wird geschaut, was passiert wenn A ja oder nein und dann wen B ja oder nein ist, ... . Da es verschieden Möglichkeiten für die Bäume gibt wird per Algorithmus versucht den Kürzesten zu finden. | Bei der WikiPedia:Statistical_classification wird versucht in den vorhandenen Daten allgemeinen Strukturen zu finden, so dass Rückschlüsse neuen Daten gezogen werden können, d.h. es wird eine Abbildungsfunktion auf einen diskreten Wert (Klasse) oder einen numerischen Funktionswert gesucht. Methoden der Klassfizierung sind u.a. Nearest Neigbour Methode, Entscheidungsbäume und Neuronale Netze. |
Zeile 27: | Zeile 28: |
===== Künstliche Neuronale Netze ===== | ==== K-Nearest Neighbor Methode ==== Die WikiPedia:K-nearest_neighbor_algorithm wird auch als Lazy Learning bezeichnet, d.h. von allem vorhandenen Datensätzen werden K-Datensätzen gesucht, die den neuen Daten am ähnlichsten sind. Dabei werden bei nicht numerischen Daten abstrahierte Abstände verwendet. Die gesuchten Werte des neuen Datensatzes werden dann mit Gewichtung 1/Abstand aus den nächsten K-Datensätzen bestimmt. |
Zeile 29: | Zeile 31: |
==== Clustering ==== | ==== Entscheidungsbäume ==== |
Zeile 31: | Zeile 33: |
Clustering ist das Einteilen der Datensätze in verschiedene Mengen mit ähnlichen Eigenschaften. | Beim [[Lernen aus Entscheidungsbäumen]] (WikiPedia:Decision_tree_learning) werden die Daten in einem abstrakten Baum dargestellt, wobei jede Verästelung eine Entscheidung darstellt. Es wird dabei von der Wurzel angefangen und bei jeder Verästelung wird ein Attribut abgefragt und die nächste Verästelung ausgewählt. Diese Prozedur wird so lange fortgesetzt, bis das Baumende erreicht ist. Da es verschieden Möglichkeiten für die Bäume gibt wird per Algorithmus versucht den Kürzesten und Optimalsten (d.h. mit dem kleinsten Fehler) zu finden. [[Lernen aus Entscheidungsbäumen]] ist eines der am häufigsten benutzten Verfahren beim Data Mining. |
Zeile 33: | Zeile 35: |
==== Regression ==== | ==== Naive Bayes ==== |
Zeile 35: | Zeile 37: |
Bei numerischen Daten als lineare Regression bezeichnet, gibt es in der KI Methoden dieses auf nicht numerische Daten zu verallgemeinern. | Bei Naive_Bayes_classifier wird vereinfacht (d.h. naiv) angenommen, dass alle Attribute der Datensätze mit einer von einander unabhängigen Wahrscheinlichkeit ein Klasse oder einen Funktionswert ergeben (D.h. die Wahrscheinlichkeit mit der jeweils islamischer Glauben, technischer Studiengang, ... einen Terroristen ausmacht). So kann das Bayes Theorem in einer vereinfachten Version verwendet werden )Wenn diese vereinfachende Annahme nicht gemacht würde, wären die Ergebnisse nur durch erheblichen rechnerischen Aufwand zu erzielen). Die Werte für die unabhänig angenommenen Wahrscheinlichkeiten lassen sich dann mit Hilfe der Trainingsdaten und dem Bayes Theorem berechnen. |
Zeile 37: | Zeile 39: |
== Projekte im Überwachungsbereich mit Data-Mining == | ==== Künstliche Neuronale Netze ==== === Assoziationsregeln === Beim WikiPedia:Association_rule_learning werden die gegenseitige Abhängigkeit von Attributen mit Hilfe von Wahrscheinlichkeitsrechnung bestimmt. (wie z.B. dicke Jacke, Selbstmordattentäter) |
Zeile 40: | Zeile 45: |
=== INDECT === | === Clustering === |
Zeile 42: | Zeile 47: |
Im Rahmen der [[Datenbanken EU|EU]] gibt es ein Projekt namens [[INDECT]] indem alle Datenbanken, alle durch [[Überwachungstechnik]] aufgezeichneten Daten und durch Software Agenten im Netz gefundenen Daten mit Hilfe von Data-Mining geplante Verbrechen a la Minority Report vorhergesehen werden sollen. | WikiPedia:Cluster_analysis ist das Einteilen der Datensätze in verschiedene Mengen (d.h. Clustern) mit ähnlichen Eigenschaften. ==== k-means Clustering ==== Beim k-means Clustering werden die Daten in eine vorher festgelegt Anzahl von Clustern (nämlich k) eingeteilt. ==== Hierachisches Clustering ==== Beim Hierachischen Clustern wird zuerst jeder Datensatz als ein Cluster angenommen um dann suksessiv die Anzahl der Cluster zu verkleinern. === Regression === Die WikiPedia:Regression_analysis wird mit Hilfe von numerischen Methoden eine mehrdimensionale Funktion für die Daten approximiert. == Anwendungen von Data-Mining == === SPAM Erkennung === Spam_(electronic) Erkennungsprogramm verwenden Data-Mining, dabei wird [[http://de.wikipedia.org/wiki/Bayes-Klassifikator#Beispiel|Naive Bayes]] verwendet. SPAM-Erkennung ist ein gutes Beispiel für das was Data Mining kann und was nicht. Es ist kein Problem für einen Menschen Mails in Spam und Nicht-Spam einzuteilen, Merkmale die in allen Spams vorkommen rauszufinden ist dagegen schwieriger. Bei Anwendung von Data Mining zur SPAM-Erkennung wurde entdeckt, dass die meisten SPAM-Mails die Zeichenfolge FF0000 enthielten, da wäre manuell niemand drauf gekommen, es ist aber logisch da es in WikiPedia:HTML zur Erzeugung von roter Schrift dient. === Scooring === Beim [[Private Datenbanken#Scoring_Datenbanken|Scooring]] werden Entscheidungsbäume und andere Methoden der Klassifizierung verwendet um die Menschen in kredit- und nicht kreditwürdig einzuteilen. === Operative Fallanalyse === Zur Unterstützung der [[operativen Fallanalyse]] werden Data-Mining Programme verwendet. In der BRD werden dafür meist, die bei der Polizei vorhandenen Daten und Vekehrsdaten verwendet. '''vgl [[Länderübergreifende Software#Data-Mining_Software]]''' === Vorratsdatenspeicherung === Es gibt laut [[http://www.heise.de/newsticker/meldung/ETSI-legt-Standards-zum-Data-Mining-bei-der-Vorratsdatenspeicherung-fest-178769.html|Heise-Newsticker]] eine WikiPedia:ETSI Richtlinie, die die Anwendung von Data Mining auf die [[Vorratsdatenspeicherung]] regelt. In einem [[http://derstandard.at/1297216314225/WebStandard-Interview-Wir-steuern-einem-Paranoiastaat-entgegen|Interview mit dem Standard]] kritisiert der Obmann der [[Österreich|österreichischen]] Bürgerrechtsorganisation Arge-Daten, das die Anwendung von Data Mining auf die Vorratsdatenspeicherung dazu führen würde das wir uns als Bürger immer öfter für unsere Taten rechtfertigen müssen, aber nicht weil sie illegal sind, sondern bloß weil sie einem verdächtigen Muster entsprechen würden. === Überwachung von Beschäftigen === Laut einem [[https://archiv.foebud.org/bba/docs/bba_ts021023_lischka_kundeDiebUndCDU-Waehler.html|Tagespiegelartikel]] vom Oktober 2002 werden Data Mining Tools des Stinnes-Tochterunternehmen Logware verwendet um aufspüren, welcher Angestellte an der Kasse unterschlägt. Alle Vorgänge wie Mitarbeiterkauf, Korrektur, Umtausch, Storno, Rückgabe, Öffnung der Kassenschublade werden an eine Datenbank übermittelt und zu _Kassierprofilen_ verdichtet. Wer von diesen abweicht, macht sich verdächtig. Die Ketten Edeka, Kaufhof und Toom würden das Programm bereits einsetzen. === Spezielle Projekte === ==== Total Information Awarness Program ==== Im Zuge der Terror-Hysterie nach dem 9/11 Anschlag auf das World Trade Center, starteten die amerikanischen Sicherheitsbehörden das TIA-Programm. Bekannt wurde es 2002 und im Jahre 2003 auf Geund von öffentlicher Proteste dann beendet. Laut einem [[http://www.schneier.com/essay-163.html|Artikel]] von WikiPedia:Bruce_Schneier werden zahlreiche andere Data-Mining Projekte von den amerikanischen Sicherheitsbehörden weiterbetrieben. |
Zeile 45: | Zeile 90: |
== Anschauliche Erläuterung der Gefahren von Data-Mining == | ==== INDECT ==== Im Rahmen der [[Datenbanken EU|EU]] gibt es ein Projekt namens [[INDECT]] indem alle Datenbanken, alle durch [[Überwachungstechnik]] aufgezeichneten Daten und durch Software Agenten im Netz gefundenen Daten mit Hilfe von Data-Mining geplante Verbrechen vorhergesehen werden sollen. vgl [[INDECT]] == Kritik == Von Data Mining wird laut der [[http://www.ai.wu.ac.at/~koch/courses/wuw/archive/inf-sem-ws-00/nentwich/index.htm#A|Kritik in einer Seminarbeit an der Wiener Uni]] häufig geglaubt, es diene dazu, Zusammenhänge automatisch zu entdecken, an die bisher noch nicht einmal jemand gedacht hat, und Fragen zu beantworten, die nicht einmal noch jemand gestellt hat. Diesem wird dort wiedersprochen. "Schlaue" Data Mining Tools können danach kein profundes Know How ersetzen. ''Anmerkung: Bei falscher zielgruppenorientierter Werbung ist das für den Beworbenen erstmal lustig oder auch nur nervig. Bei negativen [[Private Datenbanken#Scoring_Datenbanken|Scooring]] der Kreditwürdigkeit ist das ärgerlich, bei der falscher Verdächtigung von der [[Datenbanken der Bundespolizeien|Polizei]] kann es dann allerdings richtig unangenehm werden.'' === Problematik bei der Anwendung im Polizei-Bereich === Gerade im Sicherheitsbereich, wenn [[Länderübergreifende Software#Data-Mining_Software|Data-Mining Software bei der Polizei]] dazu benutzt wird aus polizeiliche Datenbanken neue Erkenntnisse zu gewinnen, kann es dazu führen, dass nicht mehr ergebnissoffen in alle Richtungen ermittelt wird. Bei einem Serientäter kann es so ersten zu Problem für die Allgemeinheit werden, da so der oder die Täterin nicht gefunden wird und zweitens kann es für die eventuell Falschverdächtigten zu den üblichen Nachteilen führen. Ganz problematisch wird es allerdings, wenn geglaubt wird mittels Data Mining Prognosen über zukünftige Straftäter anstellen zu können. Da in [[INPOL]] schon Daten über Personen geführt werden, die nach Meinung der Polizei in Zukunft Straftaten begehen werden, ist es nicht unwahrscheinlich das diese Personen in Zukunft (oder jetzt schon) durch Data-Mining ausgewählt werden. (Quelle ?) === Einzelne Kritiker aus dem Computer-Bereich === ==== Anschauliche Erläuterung der Gefahren von Data-Mining ==== |
Zeile 49: | Zeile 113: |
''Die Profile sind nützlich, um uns gezielt zum Kauf von mehr nutzlosem Tand oder interessanteren Büchern zu verleiten, uns effizienter zu verwalten und zukünftiges Verhalten zu prognostizieren. Und um Menschen unter präventive Überwachung zu stellen, deren Profil sich bedenklich dem von Straftätern nähert. Dabei geht es nicht um hundertprozentige Präzision der Vorhersage. Wahrscheinlichkeiten, Neigungen, Tendenzen, Zugehörigkeit zu Kohorten sind die Währungen der algorithmischen Orakel.'' | {{{#!blockquote Die Profile sind nützlich, um uns gezielt zum Kauf von mehr nutzlosem Tand oder interessanteren Büchern zu verleiten, uns effizienter zu verwalten und zukünftiges Verhalten zu prognostizieren. Und um Menschen unter präventive Überwachung zu stellen, deren Profil sich bedenklich dem von Straftätern nähert. Dabei geht es nicht um hundertprozentige Präzision der Vorhersage. Wahrscheinlichkeiten, Neigungen, Tendenzen, Zugehörigkeit zu Kohorten sind die Währungen der algorithmischen Orakel. }}} ==== Kritik von einem Computer-Sicherheits-Spezialisten ==== WikiPedia:Bruce_Schneier, ein [[USA|amerikanischer]] Computer Sicherheits-Spezialist, stellt in seiner Kritik des Data-Minings zum Terrorabwehr, eine Kosten-Nutzen-Abwegung her. Danach gibt es zu viele falsche Treffer durch Terror-Abwehr mittels Data-Mining und deswegen würden Ressourcen verplempert. Denn Terroristen-Plots sind nicht so simpel, wie z.B. die Identifizierung von gestolenen Kreditkarten, welche sich gut durch Data-Mining identifizieren lassen. Dieses führt dazu, dass Terroristen-Muster sich nur dann identifizieren lassen, wenn ein sehr grobes Muster angelegt wird, welches widerum zu vielen Fehlalarmen führt. {{{#!blockquote Terrorist plots are different. There is no well-defined profile and attacks are very rare. Taken together, these facts mean that data-mining systems won't uncover any terrorist plots until they are very accurate, and that even very accurate systems will be so flooded with false alarms that they will be useless. }}} Quelle: [[http://www.wired.com/politics/security/commentary/securitymatters/2006/03/70357|Wired.com:Why Data Mining Won't Stop Terror vom 03.09.06]] |
Zeile 52: | Zeile 128: |
== Grundsätzliche Kritik an de KI == Einer der ersten und versiertesten Kritiker der Künstlichen Intelligenz Forschung ist Joseph Weizenbaum. Joseph Weizenbaum war einer der Pioniere in der Künstlichen Intelligenz Forschung. Er hat das Programm Eliza entwickelt, welches einen Psychiater symuliert. Seine Intention für das Programm war allerdings nur eine bloße Übung, wie der Computer mit Sprache umgehen kann. Zu seinem Erschrecken wurde das Programm von vielen (auch seinen Kolleg_innen und Mitarbeiter_innen) als ernste Alternative zu einem realen Psychiater angenommen. Dieses Schlüsselerlebnis hat Joseph Weizenbaum zu einem entschiedenen Warner vor den Gefahren der KI gemacht (und dem latenten Größenwahn der Wissenschaftler_innen). |
==== Grundsätzliche Kritik an de KI ==== Einer der ersten und versiertesten Kritiker der Künstlichen Intelligenz Forschung ist WikiPedia:Joseph_Weizenbaum. Joseph Weizenbaum war einer der Pioniere in der Künstlichen Intelligenz Forschung. Er hat das Programm Eliza entwickelt, welches einen Psychiater symuliert. Seine Intention für das Programm war allerdings nur eine bloße Übung, wie der Computer mit Sprache umgehen kann. Zu seinem Erschrecken wurde das Programm von vielen (auch seinen Kolleg_innen und Mitarbeiter_innen) als ernste Alternative zu einem realen Psychiater angenommen. Dieses Schlüsselerlebnis hat Joseph Weizenbaum zu einem entschiedenen Warner vor den Gefahren der KI gemacht (''und dem latenten Größenwahn der Wissenschaftler_innen''). |
Zeile 58: | Zeile 134: |
== Weitere Links == | == Programme für Data Mining == |
Zeile 60: | Zeile 136: |
[[http://www.ai.wu.ac.at/~koch/courses/wuw/archive/inf-sem-ws-00/nentwich/index.htm| Seminararbeit zu Data-Mining]] | Es gibt eine Java-Klassen Bibliothek für Data-Mining, die heißt Weka: |
Zeile 62: | Zeile 138: |
[[http://www.rote-hilfe.de/static/publikationen/die-rote-hilfe-zeitung/2006/4/data-mining-rasterfahndung-und-der-ueberwachungsstaat.html| Rote Hilfe Zeitung zu Data Mining]] | [[http://www.cs.waikato.ac.nz/ml/weka/|Weka Webseite]] |
Zeile 64: | Zeile 140: |
[[http://dbs.informatik.uni-halle.de/Lehre/KDD_SS09_web/dm_skript.pdf|Data-Mining Skript (mathematisch)]] | Das Programm KMIME ist mit dieser Bibliothek geschrieben worden: [[http://knime.org/|KMIME]] == Weitere Infos == [[http://www.hs-weingarten.de/~ertel/index.php?page=buch-ki|Grundkurs Künstliche Intelligenz von Wolfgang Ertel, Vieweg-Verlag]] -- bietet eine einfache und theoretisch fundierte Einführung in Künstliche Intelligenz und es gibt auch ein Kapitle zu Data Mining [[http://www.ai.wu.ac.at/~koch/courses/wuw/archive/inf-sem-ws-00/nentwich/index.htm| Seminararbeit zu Data-Mining]] -- bietet eine Übersicht [[http://dbs.informatik.uni-halle.de/Lehre/KDD_SS09_web/dm_skript.pdf|Data-Mining Skript zu einer Vorlesung in Halle]] (pdf) [[http://datenschmutz.de/gc/datamining.txt|Artikel in der RHZ zu Data Mining]] (txt) [[http://www.datenminen.net|Blog zur Kritik von Data Mining]] |
Inhaltsverzeichnis
Data Mining
Data Mining als Teilbereich der KI
Data-Mining ist ein Teilbereich der Künstlichen Intelligenz (KI) in der Informartik. Data-Mining ist ein vereinfachter Begriff für Knowledge Discovery in Databases (KDD). D.h. KDD ist der Versuch aus vorhandenen Datenmassen in Datenbanken Erkenntnisse zu bekommen. Bei nicht als Datenbanken vorliegenden Texten wird dabei zuerst Text Mining betrieben.
Bei Zahlendaten ist dieses nicht anderes als ein numerisches Verfahren, d.h. mathematische Funktionen werden durch Polynome angenähert, also eine kompliziertere Version der linearen Regression.
Bei nicht numerischen Daten versucht Data-Mining ebenfalls die Daten durch eine Funktion zu approproximieren. Diese ist dann allerdings keine analytische Funktion, sondern eine abstrahierte Funktion. Diese abstrahierte Funktion wird als vorhandenes Muster in den Daten bezeichnet, welches in der Regel zu einem diskreten Wert führt.
Zum Finden der Muster oder Funktionen gibt es verschiedene Verfahren, welche je nach vorhandenen Daten ausgewählt werden müssen. Zum Finden des Musters oder der Funktion werden Methoden des Maschinelles Lernen verwendet. Dabei finden bei Data-Mining nur Methoden des induktiven Maschinellen Lernens Anwendung (deduktives Maschinelles Lernen wird für Automatisierungen verwendet).
Vorgehensweise
Teilweise werden zuerst verschiedene Datenbanken zu einer zusammengeführt, dieses wird Datawarehouse genannt. Als nächstes werden die Daten von Fehlern bereinigt. Dann werden aus den Datensätzen sogenannte Trainingsdaten ausgewählt. Dieses ist ein heikler Punkt, da bei falscher Auswahl der Trainingsdaten es zur Überanpassung und somit fehlerhaften Ergebnissen führen kann. Dann wird eine der Methoden des Data-Mining ausgewählt um die abstrahierte Funktion oder das Muster zu finden, wobei hier das Problem ist die passende Methode auszuwählen. Dafür bedarf es theoretisch die genaue Kenntnis der Methoden. Anschließend wird die gefundene Funktion mit Testdaten, die ebenfalls aus den Datensätzen stammen, überprüft und notfalls verbessert.
Methoden des Data-Mining
Klassifizierung
Bei der Statistical_classification wird versucht in den vorhandenen Daten allgemeinen Strukturen zu finden, so dass Rückschlüsse neuen Daten gezogen werden können, d.h. es wird eine Abbildungsfunktion auf einen diskreten Wert (Klasse) oder einen numerischen Funktionswert gesucht. Methoden der Klassfizierung sind u.a. Nearest Neigbour Methode, Entscheidungsbäume und Neuronale Netze.
K-Nearest Neighbor Methode
Die K-nearest_neighbor_algorithm wird auch als Lazy Learning bezeichnet, d.h. von allem vorhandenen Datensätzen werden K-Datensätzen gesucht, die den neuen Daten am ähnlichsten sind. Dabei werden bei nicht numerischen Daten abstrahierte Abstände verwendet. Die gesuchten Werte des neuen Datensatzes werden dann mit Gewichtung 1/Abstand aus den nächsten K-Datensätzen bestimmt.
Entscheidungsbäume
Beim Lernen aus Entscheidungsbäumen (Decision_tree_learning) werden die Daten in einem abstrakten Baum dargestellt, wobei jede Verästelung eine Entscheidung darstellt. Es wird dabei von der Wurzel angefangen und bei jeder Verästelung wird ein Attribut abgefragt und die nächste Verästelung ausgewählt. Diese Prozedur wird so lange fortgesetzt, bis das Baumende erreicht ist. Da es verschieden Möglichkeiten für die Bäume gibt wird per Algorithmus versucht den Kürzesten und Optimalsten (d.h. mit dem kleinsten Fehler) zu finden. Lernen aus Entscheidungsbäumen ist eines der am häufigsten benutzten Verfahren beim Data Mining.
Naive Bayes
Bei Naive_Bayes_classifier wird vereinfacht (d.h. naiv) angenommen, dass alle Attribute der Datensätze mit einer von einander unabhängigen Wahrscheinlichkeit ein Klasse oder einen Funktionswert ergeben (D.h. die Wahrscheinlichkeit mit der jeweils islamischer Glauben, technischer Studiengang, ... einen Terroristen ausmacht). So kann das Bayes Theorem in einer vereinfachten Version verwendet werden )Wenn diese vereinfachende Annahme nicht gemacht würde, wären die Ergebnisse nur durch erheblichen rechnerischen Aufwand zu erzielen). Die Werte für die unabhänig angenommenen Wahrscheinlichkeiten lassen sich dann mit Hilfe der Trainingsdaten und dem Bayes Theorem berechnen.
Künstliche Neuronale Netze
Assoziationsregeln
Beim Association_rule_learning werden die gegenseitige Abhängigkeit von Attributen mit Hilfe von Wahrscheinlichkeitsrechnung bestimmt. (wie z.B. dicke Jacke, Selbstmordattentäter)
Clustering
Cluster_analysis ist das Einteilen der Datensätze in verschiedene Mengen (d.h. Clustern) mit ähnlichen Eigenschaften.
k-means Clustering
Beim k-means Clustering werden die Daten in eine vorher festgelegt Anzahl von Clustern (nämlich k) eingeteilt.
Hierachisches Clustering
Beim Hierachischen Clustern wird zuerst jeder Datensatz als ein Cluster angenommen um dann suksessiv die Anzahl der Cluster zu verkleinern.
Regression
Die Regression_analysis wird mit Hilfe von numerischen Methoden eine mehrdimensionale Funktion für die Daten approximiert.
Anwendungen von Data-Mining
SPAM Erkennung
Spam_(electronic) Erkennungsprogramm verwenden Data-Mining, dabei wird Naive Bayes verwendet. SPAM-Erkennung ist ein gutes Beispiel für das was Data Mining kann und was nicht. Es ist kein Problem für einen Menschen Mails in Spam und Nicht-Spam einzuteilen, Merkmale die in allen Spams vorkommen rauszufinden ist dagegen schwieriger. Bei Anwendung von Data Mining zur SPAM-Erkennung wurde entdeckt, dass die meisten SPAM-Mails die Zeichenfolge FF0000 enthielten, da wäre manuell niemand drauf gekommen, es ist aber logisch da es in HTML zur Erzeugung von roter Schrift dient.
Scooring
Beim Scooring werden Entscheidungsbäume und andere Methoden der Klassifizierung verwendet um die Menschen in kredit- und nicht kreditwürdig einzuteilen.
Operative Fallanalyse
Zur Unterstützung der operativen Fallanalyse werden Data-Mining Programme verwendet. In der BRD werden dafür meist, die bei der Polizei vorhandenen Daten und Vekehrsdaten verwendet.
Vorratsdatenspeicherung
Es gibt laut Heise-Newsticker eine ETSI Richtlinie, die die Anwendung von Data Mining auf die Vorratsdatenspeicherung regelt. In einem Interview mit dem Standard kritisiert der Obmann der österreichischen Bürgerrechtsorganisation Arge-Daten, das die Anwendung von Data Mining auf die Vorratsdatenspeicherung dazu führen würde das wir uns als Bürger immer öfter für unsere Taten rechtfertigen müssen, aber nicht weil sie illegal sind, sondern bloß weil sie einem verdächtigen Muster entsprechen würden.
Überwachung von Beschäftigen
Laut einem Tagespiegelartikel vom Oktober 2002 werden Data Mining Tools des Stinnes-Tochterunternehmen Logware verwendet um aufspüren, welcher Angestellte an der Kasse unterschlägt. Alle Vorgänge wie Mitarbeiterkauf, Korrektur, Umtausch, Storno, Rückgabe, Öffnung der Kassenschublade werden an eine Datenbank übermittelt und zu _Kassierprofilen_ verdichtet. Wer von diesen abweicht, macht sich verdächtig. Die Ketten Edeka, Kaufhof und Toom würden das Programm bereits einsetzen.
Spezielle Projekte
Total Information Awarness Program
Im Zuge der Terror-Hysterie nach dem 9/11 Anschlag auf das World Trade Center, starteten die amerikanischen Sicherheitsbehörden das TIA-Programm. Bekannt wurde es 2002 und im Jahre 2003 auf Geund von öffentlicher Proteste dann beendet. Laut einem Artikel von Bruce_Schneier werden zahlreiche andere Data-Mining Projekte von den amerikanischen Sicherheitsbehörden weiterbetrieben.
INDECT
Im Rahmen der EU gibt es ein Projekt namens INDECT indem alle Datenbanken, alle durch Überwachungstechnik aufgezeichneten Daten und durch Software Agenten im Netz gefundenen Daten mit Hilfe von Data-Mining geplante Verbrechen vorhergesehen werden sollen.
vgl INDECT
Kritik
Von Data Mining wird laut der Kritik in einer Seminarbeit an der Wiener Uni häufig geglaubt, es diene dazu, Zusammenhänge automatisch zu entdecken, an die bisher noch nicht einmal jemand gedacht hat, und Fragen zu beantworten, die nicht einmal noch jemand gestellt hat. Diesem wird dort wiedersprochen. "Schlaue" Data Mining Tools können danach kein profundes Know How ersetzen.
Anmerkung: Bei falscher zielgruppenorientierter Werbung ist das für den Beworbenen erstmal lustig oder auch nur nervig. Bei negativen Scooring der Kreditwürdigkeit ist das ärgerlich, bei der falscher Verdächtigung von der Polizei kann es dann allerdings richtig unangenehm werden.
Problematik bei der Anwendung im Polizei-Bereich
Gerade im Sicherheitsbereich, wenn Data-Mining Software bei der Polizei dazu benutzt wird aus polizeiliche Datenbanken neue Erkenntnisse zu gewinnen, kann es dazu führen, dass nicht mehr ergebnissoffen in alle Richtungen ermittelt wird. Bei einem Serientäter kann es so ersten zu Problem für die Allgemeinheit werden, da so der oder die Täterin nicht gefunden wird und zweitens kann es für die eventuell Falschverdächtigten zu den üblichen Nachteilen führen. Ganz problematisch wird es allerdings, wenn geglaubt wird mittels Data Mining Prognosen über zukünftige Straftäter anstellen zu können. Da in INPOL schon Daten über Personen geführt werden, die nach Meinung der Polizei in Zukunft Straftaten begehen werden, ist es nicht unwahrscheinlich das diese Personen in Zukunft (oder jetzt schon) durch Data-Mining ausgewählt werden. (Quelle ?)
Einzelne Kritiker aus dem Computer-Bereich
Anschauliche Erläuterung der Gefahren von Data-Mining
In einem FAZ-Artikel über Data-Mining von Frank Rieger wird die Problematik von Data-Minig sehr anschaulich beschrieben:
Die Profile sind nützlich, um uns gezielt zum Kauf von mehr nutzlosem Tand oder interessanteren Büchern zu verleiten, uns effizienter zu verwalten und zukünftiges Verhalten zu prognostizieren. Und um Menschen unter präventive Überwachung zu stellen, deren Profil sich bedenklich dem von Straftätern nähert. Dabei geht es nicht um hundertprozentige Präzision der Vorhersage. Wahrscheinlichkeiten, Neigungen, Tendenzen, Zugehörigkeit zu Kohorten sind die Währungen der algorithmischen Orakel.
Kritik von einem Computer-Sicherheits-Spezialisten
Bruce_Schneier, ein amerikanischer Computer Sicherheits-Spezialist, stellt in seiner Kritik des Data-Minings zum Terrorabwehr, eine Kosten-Nutzen-Abwegung her. Danach gibt es zu viele falsche Treffer durch Terror-Abwehr mittels Data-Mining und deswegen würden Ressourcen verplempert. Denn Terroristen-Plots sind nicht so simpel, wie z.B. die Identifizierung von gestolenen Kreditkarten, welche sich gut durch Data-Mining identifizieren lassen. Dieses führt dazu, dass Terroristen-Muster sich nur dann identifizieren lassen, wenn ein sehr grobes Muster angelegt wird, welches widerum zu vielen Fehlalarmen führt.
Terrorist plots are different. There is no well-defined profile and attacks are very rare. Taken together, these facts mean that data-mining systems won't uncover any terrorist plots until they are very accurate, and that even very accurate systems will be so flooded with false alarms that they will be useless.
Quelle: Wired.com:Why Data Mining Won't Stop Terror vom 03.09.06
Grundsätzliche Kritik an de KI
Einer der ersten und versiertesten Kritiker der Künstlichen Intelligenz Forschung ist Joseph_Weizenbaum. Joseph Weizenbaum war einer der Pioniere in der Künstlichen Intelligenz Forschung. Er hat das Programm Eliza entwickelt, welches einen Psychiater symuliert. Seine Intention für das Programm war allerdings nur eine bloße Übung, wie der Computer mit Sprache umgehen kann. Zu seinem Erschrecken wurde das Programm von vielen (auch seinen Kolleg_innen und Mitarbeiter_innen) als ernste Alternative zu einem realen Psychiater angenommen. Dieses Schlüsselerlebnis hat Joseph Weizenbaum zu einem entschiedenen Warner vor den Gefahren der KI gemacht (und dem latenten Größenwahn der Wissenschaftler_innen).
Programme für Data Mining
Es gibt eine Java-Klassen Bibliothek für Data-Mining, die heißt Weka:
Das Programm KMIME ist mit dieser Bibliothek geschrieben worden:
Weitere Infos
Grundkurs Künstliche Intelligenz von Wolfgang Ertel, Vieweg-Verlag -- bietet eine einfache und theoretisch fundierte Einführung in Künstliche Intelligenz und es gibt auch ein Kapitle zu Data Mining
Seminararbeit zu Data-Mining -- bietet eine Übersicht
Data-Mining Skript zu einer Vorlesung in Halle (pdf)