Κυβερνοασφάλεια

Τα Deepfake αυξήθηκαν ενόψει Ευρωεκλογών

cyber-attack-security-hacker

Σημαντικά αυξημένοι, ενόψει των ευρωεκλογών, είναι οι κίνδυνοι κυβερνοεπιθέσεων και κατάχρησης τεχνολογιών deepfake, κάτι που δεν συνιστά μόνο μια τεχνολογική απειλή, αλλά και μια πρόκληση για όλα τα δημοκρατικά κράτη-μέλη της Ε.Ε.

“Ερευνήσαμε 36 κοινοβουλευτικές, περιφερειακές και προεδρικές εκλογικές διαδικασίες, που διεξήχθησαν μεταξύ Σεπτεμβρίου 2023 και Φεβρουαρίου 2024 και διαπιστώσαμε ότι σε τουλάχιστον 10 περιπτώσεις deepfake βίντεο και ηχογραφήσεις με κλωνοποίηση φωνής χρησιμοποιήθηκαν για εκστρατείες παραπληροφόρησης”, αναφέρει η Check Point Software Technologies, προειδοποιώντας ότι οι απειλές στον κυβερνοχώρο και οι τεχνολογίες deepfake επηρεάζουν την εμπιστοσύνη στις εκλογές και τη διαδικασία τους.

Δεν πρόκειται μόνο για τεχνολογική απειλή, αλλά και για μια πρόκληση για όλα τα δημοκρατικά κράτη-μέλη

Οι αναλυτές της εταιρείας σημειώνουν ότι, στο πλαίσιο των ευρωεκλογών, δημιουργείται νέο κύμα hoaxes σε όλες τις χώρες. Για παράδειγμα, κατά τη διάρκεια των κοινοβουλευτικών εκλογών στη Σλοβακία, είδαμε προσπάθειες επηρεασμού της κοινής γνώμης μέσω της κλωνοποίησης φωνής υποψηφίων και είναι πιθανό αυτές οι απάτες να αποτέλεσαν τον παράγοντα, που καθόρισε τον νικητή στις αμφίρροπες εκλογές.

Ομοίως, έχουμε δει προσπάθειες επηρεασμού των πολωνικών εκλογών χρησιμοποιώντας βίντεο με ήχο, που παράγεται από AI, και παρόμοιες καταστροφικές εμπειρίες να επηρεάζουν πολλές άλλες χώρες. “Η επιτυχία αυτών των μεθόδων εξαπάτησης, όσο δύσκολο κι αν είναι να μετρηθεί, θα αυξήσει περαιτέρω το κίνητρο άλλων επιτιθέμενων σε επερχόμενες εκλογές”, εξηγεί η εταιρεία κυβερνοασφάλειας.

Τι κάνουν τα deepfake hoaxes

Τα deepfake hoaxes μπορούν να χρησιμοποιηθούν για τη διάδοση παραπληροφόρησης και τη χειραγώγηση της κοινής γνώμης, αλλά υπάρχει, επίσης, η πιθανή απειλή κυβερνοεπιθέσεων στην υποδομή των εκλογικών συστημάτων. Οι τεχνολογίες deepfake χρησιμοποιούν μηχανική μάθηση και τεχνητή νοημοσύνη για τη δημιουργία ή την επεξεργασία βίντεο και ηχογραφήσεων, ώστε αυτά να φαίνονται και να ακούγονται αυθεντικά.

Οι άνθρωποι, που απεικονίζονται, μπορούν στη συνέχεια να κάνουν και να πουν πράγματα, που ποτέ δεν έκαναν ή δεν είπαν. Στο πλαίσιο των εκλογών, τέτοια βίντεο μπορούν να βλάψουν τη φήμη των πολιτικών και να διαδώσουν ψευδείς ειδήσεις και παραπληροφόρηση, που μπορούν να επηρεάσουν τις αποφάσεις των ψηφοφόρων.

Υπάρχουν εκατοντάδες κανάλια (περίπου 400-500) και ομάδες στο Telegram, που προσφέρουν ποικίλες υπηρεσίες deepfake, από αυτοματοποιημένα bots που καθοδηγούν τους χρήστες σε ολόκληρη τη διαδικασία έως εξατομικευμένες υπηρεσίες, που παρέχονται απευθείας από μεμονωμένους εγκληματίες στον κυβερνοχώρο.

Όπως εξηγούν οι αναλυτές, η κλωνοποίηση φωνής χρησιμοποιείται για την αναπαραγωγή της ανθρώπινης φωνής με αξιοσημείωτη ακρίβεια. Ο τόνος, ο τόνος και το στυλ της φωνής αναλύονται έτσι ώστε το AI να μπορεί στη συνέχεια να δημιουργήσει πειστικές ψεύτικες ομιλίες, που μιμούνται πιστά την αρχική φωνή.

Με αυτόν τον τρόπο, το μόνο που χρειάζεται είναι μερικά δευτερόλεπτα ήχου από ένα διαδικτυακό βίντεο ή άλλη εγγραφή. Οι τιμές ξεκινούν από περίπου $10 για μηνιαία εγγραφή, αλλά μπορούν να ανέλθουν σε εκατοντάδες δολάρια ανάλογα με την ποιότητα των παρεχόμενων λειτουργιών, όπως μετατροπή σε ομιλία σε πραγματικό χρόνο, χαμηλότερη καθυστέρηση ή πρόσβαση σε APIs.

ΔΕΙΤΕ ΑΚΟΜΑ

Περισσότερα