Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.

53,90 CHF

Lieferbar


Artikelnummer 9783961468560
Produkttyp Buch
Preis 53,90 CHF
Verfügbarkeit Lieferbar
Einband Kartonierter Einband (Kt)
Meldetext Folgt in ca. 5 Arbeitstagen
Autor Riesenberg, Bijan Kianoush
Verlag Diplomica Verlag
Weight 0,0
Erscheinungsjahr 20210824
Seitenangabe 128
Sprache ger
Anzahl der Bewertungen 0

Dieser Artikel hat noch keine Bewertungen.

Eine Produktbewertung schreiben