Page cover

Tools und Methoden für Anomalieerkennung & Datenentropie

In dieser Studie wurde eine ausführliche Desk Study in Form einer Literaturrecherche in drei Schlüsselbereichen durchgeführt, um ein tiefgehendes Verständnis und einen umfassenden Überblick über die aktuellen Entwicklungen und Techniken zu gewinnen. Die drei Themen, die im Rahmen dieser Recherche behandelt wurden, sind:

  • Anomalieerkennung

  • Anomalieerkennung mittels Autoencoder

  • Datenentropie

Dieser Ansatz ermöglichte es, Erkenntnisse aus einer Vielzahl von State-of-the-Art-Publikationen zu gewinnen und die Funktionsweise dieser Techniken vorzustellen. Durch die Zusammenfassung und Analyse dieser wissenschaftlichen Arbeiten ist es das Ziel, eine fundierte Grundlage für das Verständnis und die Anwendung dieser Konzepte im Bereich der Anomalieerkennung und Datenanalyse zu schaffen.

Anomalieerkennung

Anomalieerkennung zielt darauf ab, dass anomale und fehlerhafte Muster erkannt werden, die sich von den normalen Mustern unterscheiden. Ein Beispiel hierfür sind fehlerhafte Bauteile, die bei der Qualitätskontrolle aussortiert werden sollen. Dieses Problem ist mit einer Reihe von besonderen Herausforderungen verbunden:

  1. Es ist oft schwierig, eine große Menge anomaler Daten zu erhalten

  2. Der Unterschied zwischen einem normalen Datenpunkt und einem anomalen Datenpunkt kann sehr gering sein

  3. Die Art der Anomalien ist nicht immer im Voraus bekannt.

Diese Herausforderungen erschweren das Training herkömmlicher neuronaler Netze. Hierfür können unüberwachte (unsupervised) Methoden verwendet werden. Dabei können diese zur Erkennung und Lokalisierung von Anomalien in diskriminative und generative Methoden unterteilt werden.

Diskriminative Methoden versuchen, die Entscheidungsgrenze zwischen Anomalie und keiner Anomalie zu modellieren. Diese Methoden extrahieren im Allgemeinen Merkmale bspw. aus einem Bild und vergleichen sie mit den Referenzmerkmalen aus den trainierten "guten" Bildern. Die Differenz wird als Anomalie-Score verwendet. Sie liefern gute Ergebnisse bei der Erkennung von Anomalien, sind aber oft nicht interpretierbar, da man bspw. bei Bilddaten nicht weiß, welcher Teil des Bildes die Anomalie verursacht hat.

Generative Methoden versuchen, die tatsächliche Verteilung jeder Klasse zu modellieren, aus der dann Stichproben gezogen werden können, um z. B. neue Bilder zu erzeugen. Ansätze zur Erkennung von Anomalien, die diese Modelle verwenden, basieren auf der Idee, dass die Anomalien nicht erzeugt werden können, da sie in der Trainingsmenge nicht vorhanden sind. Autoencoder-basierte Ansätze versuchen, Anomalien zu erkennen, indem sie die Ausgabe eines Autoencoders mit seiner Eingabe vergleichen. Ein hoher Rekonstruktionsfehler sollte auf eine anomale Region hinweisen. GAN-basierte Ansätze gehen davon aus, dass nur positive Muster erzeugt werden können. [1]

Bibliotheken

Es gibt einige Open Source Bibliotheken, die verschiedene Algorithmen zur Anomalieerkennung implementiert haben. Hier werden einige von Ihnen kurz vorgestellt.

Anomalib: Bietet mehrere gebrauchsfertige Implementierungen von Algorithmen zur Erkennung von Anomalien, sowie eine Reihe von Tools, die die Entwicklung und Implementierung von benutzerdefinierten Modellen erleichtern. Der Schwerpunkt der Bibliothek liegt auf der bildbasierten Anomalieerkennung. Anomalib kann über PyPI installiert werden. Aktuell werden Algorithmen unterstützt wie: CFA, GANomaly, PatchCore oder STFPM. [2] [3]

PyOD: Dies ist eine umfassende Python-Bibliothek zur Erkennung von Anomalien in mehrdimensionalen Daten. Es enthält mehr als 40 Algorithmen zur Anomalieerkennung. Seit 2017 wurde PyOD erfolgreich in zahlreichen akademischen Forschungen und kommerziellen Produkten mit mehr als 10 Millionen Downloads eingesetzt. PyOD kann über PyPI installiert werden und enthält beispielsweise Algorithmen wie: ECOD, kNN oder XGBOD. [4] [5]

PySAD: PySAD ist ein Open Source Python-Framework für die Erkennung von Anomalien in multivariaten Datenströmen. PySAD bietet verschiedene Features wie Methoden zur Online Anomaly Detection, d. h. zur Erkennung von Anomalien in Streaming-Daten, bei denen sich das Modell selbst aktualisiert, wenn eine neue Instanz eintrifft. Zusätzlich zu den Streaming-Modellen bietet PySAD auch Integrationen von PyOD. PySAD kann über PyPI installiert werden. [6] [7]

State of the art

Im Folgenden werden einige Paper/Algorithmen zur Anomalieerkennung vorgestellt.

Triplet Networks Die Architektur des Triplet-Netzes ist wie folgt. Ein Triplett aus drei verschiedenen Eingangsdaten wird in dasselbe CNN eingespeist. Die Datenpunkte a und b gehören zur gleichen Klasse, der Datenpunkt c gehört zu einer anderen Klasse. Nach der Berechnung der Merkmale für jede Eingabe werden der Abstand d1 zwischen den Daten derselben Klasse und der Abstand d2 zwischen Datenpunkt a und dem klassenfremden Datenpunkt c berechnet. Das Netzwerk sollte lernen, einen kleineren Abstand zwischen den gleichklassigen Datenpunkten a und b zuzuordnen als zwischen den Datenpunkten a und c. [8]

Abbildung 1: Triplet Network Pipeline [8]

Filter-like restoration process Die vorgeschlagene Methode zur Erkennung von Anomalien basiert auf einem filterähnlichen Wiederherstellungsprozess, der ein Bild, das Defekte enthalten kann, als Eingabe nimmt und eine "bereinigte Version" davon ausgibt, in der alle Anomalien herausgefiltert sind. Die binäre Maske der Anomalien wird durch Schwellenwertbildung der Differenz zwischen dem Eingangsbild und der entsprechenden "bereinigten Version" ermittelt. Ein universeller CNN-Autoencoder, bildet die Grundlage, um unabhängig vom Eingangsbild anomaliefreie Bilder zu erzeugen. Außerdem kommt ein Normalitätspassfilter zum Einsatz. Der Normalitätspassfilter nutzt eine statistische Transformation der Merkmale des neuronalen Netzes, um Anomalien aus dem Eingangsbild zu entfernen. [9]

Abbildung 2: Anomalieerkennung-Pipeline [9]

SA-PatchCore Beim Self-Attention-PatchCore-Algorithmus (SA-PatchCore) können auch Anomalien mit Co-Occurrence-Beziehungen erkannt werden. Co-Occurrence-Beziehungen beziehen sich auf den statistischen Zusammenhang zwischen zwei oder mehr Variablen in einem Datensatz. Diese Beziehungen können darauf hinweisen, dass gewisse Variablen in bestimmten Situationen oder Kontexten wahrscheinlich zusammen auftreten. Diese Zusammenhänge werden zwischen entfernten Merkmalen mithilfe von Self-Attention erfasst. Beim SA-PatchCore Algorithmus, wird die Self-Attention des PatchCore Algorithmus miteinbezogen, um Anomalien in Co-Occurrence-Beziehungen zu erkennen. Das vorgeschlagene Modell gilt sowohl für Anomalien in lokalen Regionen als auch für Anomalien in Co-Occurrence-Beziehungen. In SA-PatchCore werden die lokalen Merkmale, die mit einem vortrainierten CNN extrahiert wurden, und die globalen Merkmale, die auf der Beziehung zwischen entfernten Pixeln basieren und durch Self-Attention zu den Merkmalen gewonnen wurden, auf den Merkmalsraum abgebildet. Zwischen normalen Daten oder Anomalien wird anhand der Verteilung der Merkmale unterschieden. [10]

Abbildung 3: SA-PatchCore Pipeline [10]

MemSeg Das "speicherbasierte End-to-End-Segmentierungsnetzwerk" (end-to-end memory-based segmentation network - MemSeg) ist ein semi-supervised learning Ansatz zur Erkennung von Oberflächenfehlern auf Industrieprodukten. Vor dem Hintergrund der geringen Intraklassen-Varianz von Produkten in derselben Produktionslinie führt MemSeg künstlich simulierte Anomalien und Speicher für Datenbeispiele ein, um das Lernen des Netzwerks zu unterstützen. In der Trainingsphase lernt MemSeg explizit die potenziellen Unterschiede zwischen normalen Daten und Anomalien, um eine robuste Klassifikationshyperebene zu ermitteln. Gleichzeitig verwendet MemSeg, inspiriert durch den Mechanismus des menschlichen Gedächtnisses, einen Speicherpool, um die allgemeinen Muster normaler Daten zu speichern. Durch den Vergleich von Eingangsdaten und den Daten aus dem Speicherpool werden Rückschlüsse auf anomale Regionen gezogen. [11]

Abbildung 4: MemSeg Pipeline [11]

Handlungsempfehlung

Das Gebiet der Anomalieerkennung ist noch ein junges Forschungsfeld, in dem sich viele Innovationen noch in der Entwicklungsphase befinden.

Als Handlungsempfehlung für Unternehmen und Entwickler, die in das Thema einsteigen wollen, empfehlen wir im ersten Schritt "Anomalib" zu nutzen. Die große Anzahl an Beispielen und die Bandbreite an implementierten State-of-the-art Methoden erlauben es in kurzer Zeit KI-basierte Anomalieerkennung zu implementieren. Dadurch kann effizient die Machbarkeit des jeweiligen Projektes überprüft oder sogar komplette Lösungen entwickelt werden.

Sollten die Ergebnisse von Anomalib für den eigenen Use-Case nicht ausreichend sein, empfehlen wir die Methode SA-PatchCore zu verwenden, welche auf dem PatchCore Algorithmus basiert und eine Weiterentwicklung dessen ist. Schon der Vorgängeralgorithmus PatchCore ist für die ausgezeichneten Ergebnisse bekannt.

Anomalieerkennung mittels Autoencoder

Auch Autoencoder können verwendet werden, zur Anomalieerkennung. Im Folgenden werden Aufbau und Funktionsweise von Autoencodern und Variational Autoencodern, die eine Abwandlung der Autoencoder darstellen.

Autoencoder (AE): Ein Autoencoder ist eine neuronale Netzarchitektur, die darauf trainiert ist, seine Eingabe zu rekonstruieren. Er besteht aus zwei Teilen: einem Encoder, der die Eingabe auf eine geringere Dimension reduziert, den latenten Raum. Sowie einem Decoder, der die reduzierte Darstellung zurück auf die ursprüngliche Eingabe abbildet. Das Ziel des Trainings ist es, die Differenz zwischen der ursprünglichen Eingabe und der rekonstruierten Ausgabe zu minimieren.

Abbildung 5: Aufbau eines Autoencoders [12]

Die Verwendung eines Autoencoders zur Erkennung von Anomalien besteht darin, das Netzwerk auf einem Datensatz mit normalen Beispielen zu trainieren und es dann zur Erkennung von Anomalien in neuen, ungesehenen Daten einzusetzen. Der Gedanke dahinter ist, dass der Autoencoder gelernt hat, normale Beispiele gut zu rekonstruieren; wenn er also nicht in der Lage ist, eine Eingabe zu rekonstruieren, handelt es sich wahrscheinlich um eine Anomalie. [12]

Variational Autoencoder (VAE): Ein AE enkodiert die Eingabedaten so, um sie am effizientesten zu reproduzieren. Das bedeutet zum Beispiel, dass der Encoder, selbst wenn zwei Datenpunkte sehr ähnlich sind, sie relativ weit voneinander entfernt im latenten Raum positionieren kann, wenn dies den Rekonstruktionsverlust minimiert. Folglich kann ein Autoencoder zwar einen latenten Raum bilden, der es ermöglicht, die Aufgabe sehr genau zu erfüllen, aber es kann nicht viel über die Verteilung und Topologie des erzeugten latenten Raums ausgesagt werden.

Abbildung 6: Aufbau eines Variational Autoencoders [12]

Bei einem VAE lernt der Encoder in ähnlicher Weise. Anstatt jedoch zu lernen, wie man einen latenten Vektor erzeugt, den der Decoder reproduzieren kann, lernt ein VAE, zwei Vektoren zu erzeugen, die die Parameter (Mittelwert und Varianz) einer Verteilung darstellen. Aus diesen Parametern wird dann der latente Vektor gebildet. Einfach ausgedrückt: Die Lernaufgabe der AE besteht darin, eine Funktion zu erlernen, die Daten in einen latenten Vektor transformiert, den ein Decoder leicht reproduzieren kann. Die Lernaufgabe der VAE besteht darin, eine Funktion zu erlernen, die Parameter von Verteilungen erzeugt, aus denen ein latenter Vektor, den ein Decoder leicht reproduzieren kann, ermittelt werden kann. [12]

State of the art

Im Folgenden werden einige Paper/Algorithmen zur Anomalieerkennung mithilfe von (variational) Autoencodern vorgestellt.

Deep Perceptual Autoencoder Autoencoder-basierte Ansätze beruhen auf der Tatsache, dass Autoencoder gemeinsame Muster der normalen Bilder lernen können und diese dann korrekt wiederherstellen. Die Schlüsselidee dieser Methode besteht darin, das Erlernen dieser gemeinsamen Faktoren zu vereinfachen, indem eine Verlustfunktion bereitgestellt wird, die die „inhaltliche Unähnlichkeit“ der Eingabe und der Ausgabe misst (die Unähnlichkeit zwischen den allgemeinen räumlichen Strukturen, die in den beiden Bildern vorhanden sind, ohne die genauen Pixelwerte zu vergleichen). Es wird gezeigt, dass der Wahrnehmungsverlust – der einen Abstand zwischen den tiefen Merkmalen berechnet, die von einem neuronalen Netzwerk zur Objektklassifizierung erhalten wurden – die inhaltliche Unähnlichkeit der Bilder erfassen kann. Ebenfalls wird nur der Wahrnehmungsverlust verwendet, um den Autoencoder zu trainieren und den Wiederherstellungsfehler während der Evaluierung zu berechnen. Es wird gezeigt, dass ein solcher Verlust den Autoencoder flexibler macht, wenn es darum geht, aussagekräftige Hinweise auf die „Normalität“ der Daten zu erhalten, was letztendlich zu besseren Ergebnissen bei der Erkennung von Anomalien führt. [13]

Abbildung 7: Deep Perceptual Autoencoder Pipeline zur Anomalieerkennung bei Bilddaten [13]

Defect-Removing Autoencoder Um Anomalien zu erkennen, wird ein Vergleich zwischen normalen und anomalen Daten (Bildern) vorgenommen. Das Konzept besteht darin, normale Bilder aus anomalen Bildern mit CAE (Convolutional Autoencoder) zu generieren, das von DAE (De-noising Autoencoder) und Image Inpainting abgeleitet ist. Zunächst werden in der Trainingsphase nur fehlerfreie Bilder verwendet, was das Erlernen von latenten Merkmalen ermöglicht, die nur dem normalen Zustand entsprechen. Anstatt den normalen Bildern zufälliges Rauschen hinzuzufügen, wird ein künstliches Defekt-Modul (ADM) eingeführt. Seine Funktion besteht darin, künstliche transparente Defekte verschiedener Texturen zufällig auf normale Daten anzuwenden, um einen aussagekräftigeren Trainingsdatensatz zu erstellen. Der CAE wird darauf trainiert, die angebrachten Defekte zu entfernen, und das Ergebnis wird mit dem normalen, fehlerfreien Bild verglichen, sodass der CAE nur normale Muster rekonstruieren kann. [14]

Abbildung 8: Defect-Removing Autoencoder Pipeline [14]

RIAD Der Reconstruction by inpainting for visual anomaly detection (RIAD) Algorithmus wird für die Anomalieerkennung und -segmentierung von Bilddaten angewendet. Der Autoencoder (U-Net-Architektur) wird auf anomaliefreien Bildern trainiert, wobei zufällig ausgewählte Regionen in den Bildern auf 0 gesetzt werden. Der Maskierungsprozess umfasst die zufällige Auswahl einer Gruppe von $k*k$ Pixeln, die Unterteilung des Bildes in n disjunkte (nicht überlappende) Gruppen, die Erstellung einer binären Maske und die Anwendung der Maske auf das Originalbild. Während des Trainings wird die Größe k nach dem Zufallsprinzip aus einer Reihe von Werten ausgewählt, z. B. $k={2,4,8,16}$. Die zuvor entfernten Regionen der n maskierten Bilder werden vom Autoencoder hierbei wieder in n Ausgangsbilder rekonstruiert. Das fertige Bild ist das Produkt aus den n Ausgangsbildern. Der Gesamtverlust wird unter Berücksichtigung von drei Lossarten berechnet: MSGMS-Loss, SSIM-Loss und MSE-Loss. Aus dem Gesamtverlust lässt sich letztlich eine Anomalie-Map erstellen. [15] [16]

Abbildung 9: RIAD Pipeline [15]

Learning Sparse Representation With Variational Auto-Encoder for Anomaly Detection In diesem Paper wird ein Framework zur Sparse Representation vorgestellt, das Dictionaries auf der Grundlage des latenten Raums von Variatonal Autoencodern (VAE) lernt. Diese Methode konstruiert ein strukturiertes Dictionary durch lineare Umstrukturierung des latenten Raums eines VAEs. Bei den Merkmalen, die in das Dictionary-Learning-Modell eingehen, handelt es sich um die reduzierte Form der Eingangsdaten. [17]

Abbildung 10: Sparse Representation Pipeline [17]

Handlungsempfehlung

Anomalieerkennung mithilfe von AEs und VAEs basiert auf ein gänzlich anderen Verfahren als z. B. PatchCore. Direkt sind die Methoden auch nicht zu vergleichen, da das Ziel anders definiert ist.

Während PatchCore etc. versucht, die Anomalie zu lokalisieren, geht es bei AE basierten Algorithmen hauptsächlich darum, die Anomalie überhaupt zu erkennen.

Durch den Einsatz von AE ergeben sich folgende Vorteile:

  1. Es werden weniger Daten benötigt, um die AEs zu trainieren, da Anomalien bspw. direkt im Trainingsprozess erstellt werden.

  2. Das fertige Modell ist speichereffizienter, da hier für nur ein neuronales Netz benötigt wird und nicht noch diverse Samples bzw. Patches.

  3. Die Algorithmen sind nicht nur auf Bilder limitiert. Sondern könnten auch bspw. Zeitreihen analysieren.

Je nach Anwendung kann auch eine Kombination der Methoden herangezogen werden. In dem 2-stufigen Verfahren könnte:

  1. Das Bestehen einer Anomalie erkannt werden

  2. Die Lokalisierung der Anomalie durchgeführt werden.

Datenentropie

Damit ein Algorithmus für maschinelles Lernen gute Ergebnisse erzielt, müssen oft großen Mengen von Trainingsdaten vorhanden sein. Das Training der ML-Modelle kann jedoch aufgrund der Kosten, die mit dem Training auf solch großen Datensätzen verbunden sind, eine Herausforderung darstellen, sowohl in Bezug auf die Rechenanforderungen als auch auf die Arbeitszeit. Außerdem kann auch nicht immer eine große Datenmenge bereitgestellt werden oder es benötigt sehr viel Zeit, um diese Daten zu generieren und bereitstellen zu können. Große Datensätze benötigen oftmals auch sehr viel Speicherplatz. Deshalb ist von Interesse, wie die Wichtigkeit/Informationsgehalt von Daten ermittelt werden kann (Entropie) oder auch wie Datensätze verkleinert werden können.

State of the art

Im Folgenden werden einige Paper/Algorithmen zur Datenentropie vorgestellt.

Datendestillation Sind große Datensätzen vorhanden, die ein speicher- und rechenintensives Training verursachen, kann mithilfe der Datendestillation die erforderlichen Ressourcen reduziert werden. Hierbei wird ein großer Datensatz in einen synthetischen, kleineren Datensatz destilliert. Anstatt beispielsweise alle 60.000 Bilder und Label des MNIST-Datensatzes zu verwenden, könnte man zum Beispiel einen destillierten Datensatz verwenden. Dieser könnte nur aus 10 synthetischen Datenpunkten bestehen (1 Bild pro Klasse), um ein ML-Modell zu trainieren, das immer noch eine gute Leistung auf dem ungesehenen Testdatensatz erzielen kann. [18]

Abbildung 11: Genauigkeit eines NNs mithilfe von Datendestillation unter verschiedenen Voraussetzungen [18]

Learning Confidence for Out-of-Distribution Detection in Neural Networks Das Paper beschreibt eine Methode zur Erkennung, ob ein neuronales Netzwerk Vorhersagen auf Daten macht, die "out-of-distribution" (OOD) sind, d. h. sich von den Daten unterscheiden, auf denen das Netz trainiert wurde. Bei dieser Methode wird das Netz so trainiert, dass es neben seinen regulären Vorhersagen auch einen Confidence Score vorhersagt. Dieser Confidence Score ist ein Maß dafür, wie sicher das Netz ist, dass seine Vorhersage richtig ist. OOD-Daten führen in der Regel zu niedrigeren Confidence Scores, sodass das Netz erkennen kann, wenn es Vorhersagen für Daten macht, die sich von den bisher gesehenen unterscheiden. [19]

Abbildung 12: Confidence Score for Out-of-Distribution Detection [19]

Data valuation using Shapley value Der Data Shapley-Wert kann auf das Training eines ML-Modells angewendet werden, um den Beitrag jedes Datenpunktes zur finalen Leistung des Modells zu berechnen. Der "Data Shapley"-Wert eines Datenpunkts ist ein gewichteter Durchschnitt seines Beitrags zum restlichen Datensatz. Er kann als Maß für die Datenqualität verwendet werden, wobei ein hoher Shapley-Wert auf einen Datenpunkt hinweist, der die Leistung des Modells verbessert, und ein negativer Wert auf einen Datenpunkt, der die Leistung beeinträchtigt. Es wurde hier der TMC-Shapley verwendet, was eine Abwandlung des Shapley Algorithmus darstellt. Der Algorithmus wurde hier eingesetzt, um den Wert der Trainingsdaten für die Leistung eines Pneumonie Algorithmus zur Erkennung von Lungenentzündungen in einem großen Brustkorb-Röntgendatensatz zu bestimmen. [20] [21] [22]

Abbildung 13: Data Shapley Algorithmus Pipeline [21]

Handlungsempfehlung

Die Entropie von Daten zu bestimmen, ist für eine gänzliche Analyse des Datensatzes unerlässlich.

Doch will man bei einem Datenstream bestimmen, ob sich der Speicheraufwand lohnt, so gibt es nicht viele Methoden. Eine Besonderheit bei der Ausführung auf Embedded Geräten ist, dass dem Algorithmus üblicherweise keine Trainingsdaten zur Verfügung stehen. Mit "Learning Confidence for Out-of-Distribution Detection in Neural Networks" können jedoch Online Daten mit neuem Informationsgehalt erkannt werden.

Der Algorithmus hat den Vorteil, dass die Lösung auch nachträglich zu bestehenden neuronalen Netzen hinzugefügt werden kann und sich die Methode nicht nur auf Bilder beschränkt.

Literaturverzeichnis

Zitat
Quelle

[1]

S. Wehkamp, "A practical guide to anomaly detection using Anomalib

[2]

GitHub, "openvinotoolkit/anomalib: An anomaly detection library comprising state-of-the-art algorithms and features such as experiment management, hyper-parameter optimization, and edge inference," [Online]. Available: https://github.com/openvinotoolkit/anomalib. [Zugriff am 23 1 2023].

[3]

S. Akcay, D. Ameln, A. Vaidya, B. Lakshmanan, N. Ahuja und U. Genc, "Anomalib: A Deep Learning Library for Anomaly Detection," 2022, p. 1706–1710.

[4]

A. Amidon, "PyOD: a Unified Python Library for Anomaly Detection," 2021.

[5]

"pyod 1.0.7 documentation," [Online]. Available: https://pyod.readthedocs.io/en/latest/. [Zugriff am 23 1 2023].

[6]

"Python Streaming Anomaly Detection (PySAD) — PySAD 0.1.1 documentation," [Online]. Available: https://pysad.readthedocs.io/en/latest/index.html. [Zugriff am 23 1 2023].

[7]

GitHub, "selimfirat/pysad: Streaming Anomaly Detection Framework in Python (Outlier Detection for Streaming Data)," [Online]. Available: https://github.com/selimfirat/pysad. [Zugriff am 23 1 2023].

[8]

B. Staar, M. Lütjen und M. Freitag, "Anomaly detection with convolutional neural networks for industrial surface inspection," Procedia CIRP, Bd. 79, p. 484–489, 2019.

[9]

P. Napoletano, F. Piccoli und R. Schettini, "Semi-supervised anomaly detection for visual quality inspection," Expert Systems with Applications, Bd. 183, p. 115275, 2021.

[10]

"SA-PatchCore: Anomaly Detection in Dataset With Co-Occurrence Relationships Using Self-Attention," [Online]. [Zugriff am 23 1 2023].

[11]

M. Yang, P. Wu, J. Liu und H. Feng, MemSeg: A semi-supervised method for image surface defect detection using differences and commonalities.

[12]

A. Agmon, "Hands-on Anomaly Detection with Variational Autoencoders," 2021.

[13]

N. Shvetsova, B. Bakker, I. Fedulova, H. Schulz und D. V. Dylov, "Anomaly Detection in Medical Imaging With Deep Perceptual Autoencoders," IEEE Access, Bd. 9, p. 118571–118583, 2021.

[14]

Y. Hida, S. Makariou und S. Kobayashi, "Smart Image Inspection using Defect-Removing Autoencoder," Procedia CIRP, Bd. 104, p. 559–564, 2021.

[15]

E. Anello, "Paper Review: Reconstruction by inpainting for visual anomaly detection," 2022.

[16]

V. Zavrtanik, M. Kristan und D. Skočaj, "Reconstruction by inpainting for visual anomaly detection," Pattern Recognition, Bd. 112, p. 107706, 2021.

[17]

J. Sun, X. Wang, N. Xiong und J. Shao, "Learning Sparse Representation With Variational Auto-Encoder for Anomaly Detection," IEEE Access, Bd. 6, p. 33353–33361, 2018.

[18]

"Training Machine Learning Models More Efficiently with Dataset Distillation – Google AI Blog," [Online]. Available: https://ai.googleblog.com/2021/12/training-machine-learning-models-more.html. [Zugriff am 23 1 2023].

[19]

T. DeVries und G. W. Taylor, Learning Confidence for Out-of-Distribution Detection in Neural Networks.

[20]

A. Ghorbani und J. Zou, Data Shapley: Equitable Valuation of Data for Machine Learning.

[21]

S. Tang, A. Ghorbani, R. Yamashita, S. Rehman, J. A. Dunnmon, J. Zou und D. L. Rubin, "Data valuation for medical imaging using Shapley value and application to a large-scale chest X-ray dataset," Scientific Reports, Bd. 11, Nr. 1, p. 8366, 2021.

[22]

Z. Warnes, "Efficient Data Valuation with Exact Shapley Values - Towards Data Science," 2021.

Last updated