History of Περιγραφή Επίθεσης

Last update 2020-06-04 15:26:20 Creation date 2020-06-03 23:55:51
  • Poisoning or causative or pollution attacks
    ο επιτιθέμενος «δηλητηριάζει» τα δεδομένα, εισάγοντας προσεκτικά σχεδιασμένα λανθασμένα δείγματα προκειμένου να θέσει σε κίνδυνο ολόκληρη τη διαδικασία μάθησης. Υποκατηγορίες: Poison Label modification attacks: ο επιτιθέμενος μπορεί να τροποποιεί αποκλειστικά τις ετικέτες σε εποπτευόμενα σύνολα δεδομένων μάθησης, αλλά για αυθαίρετα σημεία δεδομένων. Συνήθως υπόκειται σε περιορισμό στο συνολικό κόστος τροποποίησης. Poison insertion attacks: Ο επιτιθέμενος έχει τη δυνατότητα να αυξήσει νέα δεδομένα στο εκπαιδευτικό σύνολο χωρίς να έχει πρόσβαση στα δεδομένα εκπαίδευσης καθώς και στον αλγόριθμο εκμάθησης. Είναι πιθανό να καταστρέψει το μοντέλο-στόχο εισάγοντας τροποποιημένα δείγματα στο σύνολο δεδομένων εκπαίδευσης. Data modification attacks: Ο επιτιθέμενος δεν έχει πρόσβαση στον αλγόριθμο εκμάθησης αλλά έχει πλήρη πρόσβαση στα δεδομένα εκπαίδευσης. Τα δεδομένα εκπαίδευσης μπορούν να «δηλητηριαστούν» απευθείας τροποποιώντας τα πριν χρησιμοποιηθούν για την εκπαίδευση του μοντέλου στόχου. Boiling frog attacks: σε αυτές τις επιθέσεις, ο αμυνόμενος θεωρείται ότι επαναλαμβάνει επαναληπτικά ένα μοντέλο. Η επανεκπαίδευση, με τη σειρά της, δίνει την ευκαιρία στον επιτιθέμενο να κατευθύνει χωρίς να γίνει αντιληπτό το μοντέλο με την πάροδο του χρόνου με την εισαγωγή μιας μικρής ποσότητας λανθασμένου δείγματος κάθε φορά, έτσι ώστε να έχει ελάχιστο αντίκτυπο σε μια συγκεκριμένη επανάληψη της επανεκπαίδευσης, αλλά ο αυξητικός αντίκτυπος τέτοιων επιθέσεων με την πάροδο του χρόνου είναι σημαντικός.
    Posted 2020-06-04 15:26:20 by xr
  • Impersonate attacks
    O επιτιθέμενος στοχεύει στη δημιουργία συγκεκριμένων δειγμάτων, έτσι ώστε τα υπάρχοντα συστήματα που βασίζονται στη μηχανική μάθηση να ταξινομούν εσφαλμένα τα αρχικά δείγματα με διαφορετικές ετικέτες από τα πλαστογραφημένα. Μια τέτοια επίθεση είναι ιδιαίτερα αποτελεσματική στην επίθεση αλγορίθμων DNN επειδή το DNN συνήθως εξάγει ένα μικρό σύνολο χαρακτηριστικών για να διευκολύνει την αναγνώριση του αντικειμένου . Έτσι, ο εισβολέας μπορεί εύκολα να ξεκινήσει πλαστοπροσωπίες επιθέσεις τροποποιώντας ορισμένα βασικά χαρακτηριστικά. Ορισμένα παραδείγματα: απομίμηση δειγμάτων δεδομένων από θύματα, χρήση στην αναγνώριση εικόνας, ανίχνευση κακόβουλου λογισμικού.
    Poisoning or causative or pollution attacks
    ο επιτιθέμενος «δηλητηριάζει» τα δεδομένα, εισάγοντας προσεκτικά σχεδιασμένα λανθασμένα δείγματα προκειμένου να θέσει σε κίνδυνο ολόκληρη τη διαδικασία μάθησης. Υποκατηγορίες: Poison Label modification attacks: αυτές οι επιθέσεις επιτρέπουν στον αντίπαλο να τροποποιεί αποκλειστικά τις ετικέτες σε εποπτευόμενα σύνολα δεδομένων μάθησης, αλλά για αυθαίρετα σημεία δεδομένων, συνήθως υπόκεινται σε περιορισμό στο συνολικό κόστος τροποποίησης (π.χ., ένα ανώτερο όριο στον αριθμό των ετικετών που μπορεί να είναι άλλαξε). Η κοινή μορφή αυτής της επίθεσης είναι συγκεκριμένη για δυαδικούς ταξινομητές και είναι συνήθως γνωστή ως ετικέτα επίθεσης. Poison insertion attacks: σε αυτήν την περίπτωση, ο εισβολέας μπορεί να προσθέσει περιορισμένο αριθμό φορέων χαρακτηριστικών αυθαίρετων δηλητηριασμένων, με μια ετικέτα που μπορεί ή όχι να ελέγξει (ανάλογα με το συγκεκριμένο μοντέλο απειλής). Σε μη ελεγχόμενες ρυθμίσεις μάθησης, φυσικά, δεν υπάρχουν ετικέτες και ο αντίπαλος μπορεί να μολύνει μόνο τα διανύσματα χαρακτηριστικών. Data modification attacks: σε αυτές τις επιθέσεις ο εισβολέας μπορεί να τροποποιήσει διανύσματα χαρακτηριστικών ή / και ετικέτες για ένα αυθαίρετο υποσύνολο των δεδομένων εκπαίδευσης. Boiling frog attacks: σε αυτές τις επιθέσεις, ο αμυντικός θεωρείται ότι επαναλαμβάνει επαναληπτικά ένα μοντέλο. Η επανεκπαίδευση, με τη σειρά της, δίνει την ευκαιρία στον εισβολέα να κατευθύνει κρυφά το μοντέλο με την πάροδο του χρόνου με την ένεση μιας μικρής ποσότητας δηλητηρίου κάθε φορά, έτσι ώστε να έχει ελάχιστο αντίκτυπο σε μια συγκεκριμένη επανάληψη της επανεκπαίδευσης, αλλά ο αυξητικός αντίκτυπος τέτοιων επιθέσεων με την πάροδο του χρόνου είναι σημαντικός. Οι κρίσεις βρασμού βατράχου μπορούν να εφαρμοστούν τόσο σε εποπτευόμενες όσο και σε μη εποπτευόμενες ρυθμίσεις, αν και έχουν μελετηθεί συνήθως στο πλαίσιο των μη εποπτευόμενων μαθησιακών προβλημάτων. Ορισμένα παραδείγματα: Support Vector Machine Poisoning, Poisoning on collaborative filtering systems, Anomaly Detection Systems
    Evasion attacks
    ο επιτιθέμενος τροποποιεί δείγματα κατά τη διάρκεια της δοκιμής για να αποφύγει την ανίχνευσή τους ή να τα ωθήσει σε εσφαλμένη ταξινόμηση.
    Backdoor or Trojan attacks
    οι μη εξουσιοδοτημένοι ή και εξουσιοδοτημένοι επιτιθέμενοι μπορούν να παρακάμψουν τα μέτρα ασφαλείας και να αποκτήσουν πρόσβαση υψηλού επιπέδου (root access) σε ένα υπολογιστικό σύστημα, δίκτυο ή εφαρμογή. Μπορούν να εγκατασταθούν από τους κατασκευαστές λογισμικού ή hardware ως σκόπιμα μέσα με σκοπό να αποκτούν πρόσβαση στις τεχνολογίες τους μετά την παραγωγή. Είναι χρήσιμα για να μπορούν να βοηθούν τους πελάτες τους που μπορεί να έχουν κλειδωθεί στις συσκευές τους ή για να επιλύουν προβλήματα λογισμικού. Τα backdoors σε νευρωνικά δίκτυα είναι κακόβουλο λογισμικό ενσωματωμένο σε ΑΝΝ που μπορεί να ενεργοποιηθεί μέσω συγκεκριμένων διαδικασιών. Ορισμένα παραδείγματα: Traditional backdoors, BadNets, Latent backdoor, Neural trojans
    Posted 2020-06-04 00:27:37 by xr
  • Inference or privacy attacks
    ο επιτιθέμενος λαμβάνει χρήσιμες πληροφορίες σχετικά με το μοντέλο-στόχο μόνο από τα API πρόβλεψης. Αυτές οι επιθέσεις ανάλογα με το στόχο του επιτιθέμενου διακρίνονται περαιτέρω σε επιθέσεις Data inference και σε επιθέσεις Model inference. • Model inference στοχεύεται η λήψη πληροφοριών σχετικά με το ίδιο το μοντέλο-στόχο, όπως οι παράμετροι και η αρχιτεκτονική του. • Data inference στοχεύεται η εξαγωγή πληροφοριών σχετικά με τα δεδομένα στα οποία λειτουργεί το μοντέλο-στόχος•Membership inference attack •Model inversion •Model extraction via APIS
    Gradient-based attacks
    ο επιτιθέμενος αποκτά πρόσβαση στην κλίση του μοντέλου στόχου (είτε αυτή είναι χρήσιμη είτε είναι obfuscated: Shattered, Stochastic, Vanishing) προκειμένου να αυξήσει αντίστροφα τη συνάρτηση απώλειας και να προκαλέσει εσφαλμένη ταξινόμηση των εισόδων του. Απαραίτητη προϋπόθεση είναι η ύπαρξη κλίσης στο μοντέλο στόχο. Ορισμένα παραδείγματα τέτοιων επιθέσεων: Projected Gradient Descent PGD, Backward Pass Differentiable Approximation (BPDA), Expectation Over Transformation (EOT), Reparameterization, Fast gradient sign method (FGSM), Limited-memory Broyden-Fletcher-Goldfarb-Shanno (L-BFGS), Carlini & Wagner Attack (C&W), DeepFool, Jacobian Saliency Map Approach (JSMA)
    Posted 2020-06-04 00:16:04 by xr
  • Mode
    70
    Name
    Περιγραφή Επίθεσης
    Viewer
    unlisted
    Editor
    xr-4qknqqmd
    Inference or privacy attacks
    ο επιτιθέμενος λαμβάνει χρήσιμες πληροφορίες σχετικά με το μοντέλο-στόχο μόνο από τα API πρόβλεψης. Αυτές οι επιθέσεις ανάλογα με το στόχο του επιτιθέμενου διακρίνονται περαιτέρω σε επιθέσεις Data inference και σε επιθέσεις Model inference. • Model inference στοχεύεται η λήψη πληροφοριών σχετικά με το ίδιο το μοντέλο-στόχο, όπως οι παράμετροι και η αρχιτεκτονική του. • Data inference στοχεύεται η εξαγωγή πληροφοριών σχετικά με τα δεδομένα στα οποία λειτουργεί το μοντέλο-στόχος
    Posted 2020-06-03 23:55:51 by xr