Close Menu
InfoCom
  • Telecoms
  • IT
  • AI
  • Security
  • Πρόσωπα
    • Στελέχη
    • Συνεντεύξεις
    • Απόψεις
  • Today
  • SmartTalks
  • eMagazine
  • Weekly Telecom
  • AI.BRIEF
  • MWC 2026
Facebook X (Twitter) Instagram
  • ABOUT
  • ΟΡΟΙ ΧΡΗΣΗΣ
  • ΕΠΙΚΟΙΝΩΝΙΑ
  • NEWSLETTER
Τετάρτη, 15 Απριλίου
Facebook X (Twitter) YouTube LinkedIn RSS
InfoCom
  • Telecoms
  • IT
  • AI
  • Security
  • Πρόσωπα
    • Στελέχη
    • Συνεντεύξεις
    • Απόψεις
  • Today
  • SmartTalks
  • eMagazine
  • Weekly Telecom
  • AI.BRIEF
  • MWC 2026
InfoCom
Home»Security

Πώς να καταλάβετε αν στο τηλέφωνο μιλάτε με άνθρωπο ή με τεχνητή νοημοσύνη

23/03/2026infocomBy infocom6 Mins Read AI Security

Κάποτε μπορούσαμε να εμπιστευτούμε ό,τι βλέπαμε και ακούγαμε. Δυστυχώς, εκείνη η εποχή έχει παρέλθει. Σήμερα, η γενετική τεχνητή νοημοσύνη (GenAI) έχει διεισδύσει στη δημιουργία deepfake ήχου και βίντεο σε τέτοιο σημείο, που η παραγωγή ενός πλαστού κλιπ είναι πλέον τόσο εύκολη όσο το πάτημα ενός κουμπιού. Και αυτό δεν είναι καθόλου καλή είδηση.

«Κανείς δεν είναι εκτός στόχου», εξηγεί ο Phil Muncaster από την παγκόσμια εταιρία ψηφιακής ασφάλειας ESET. Τα deepfakes δίνουν στους απατεώνες τη δυνατότητα να υποδύονται πρόσωπα που δεν είναι πχ για να ανοίξουν τραπεζικούς λογαριασμούς, ή για να παρουσιαστούν ως υποψήφιοι για θέσεις εργασίας. «Ωστόσο, η μεγαλύτερη απειλή που συνιστούν αφορά την οικονομική απάτη, ιδίως τις τραπεζικές απάτες και την κατάληψη λογαριασμών υψηλόβαθμων στελεχών» εξηγεί ο Muncaster από την ESET.

Κι όμως, πολλοί οργανισμοί εξακολουθούν να υποτιμούν την απειλή, με δική τους ευθύνη. Η βρετανική κυβέρνηση υποστηρίζει ότι πέρυσι διαμοιράστηκαν έως και οκτώ εκατομμύρια συνθετικά βίντεο, από μόλις 500.000 το 2023. Ο πραγματικός αριθμός ενδέχεται να είναι πολύ μεγαλύτερος.

Πως γίνονται οι επιθέσεις

Όπως έδειξε ένα πείραμα που πραγματοποίησε ο Jake Moore, σύμβουλος παγκόσμιας ασφάλειας στην ESET, δεν ήταν ποτέ πιο εύκολο να πραγματοποιηθεί μια επίθεση deepfake audio εναντίον μιας επιχείρησης. Το μόνο που χρειάζεται είναι ένα σύντομο βίντεο του θύματος, η τεχνητή νοημοσύνη μπορεί να κάνει τα υπόλοιπα.

Δείτε πώς μπορεί να πραγματοποιηθεί μια τέτοια επίθεση:

  1. Ο απατεώνας διαλέγει ποιόν θα υποδυθεί, πχ τον CEO, τον οικονομικό διευθυντή, έναν προμηθευτή.
  2. Ψάχνει στο διαδίκτυο για δείγμα της φωνής του. Για υψηλόβαθμα στελέχη που μιλούν δημόσια, αυτό είναι πολύ εύκολο. Το δείγμα μπορεί να προέρχεται από λογαριασμό στα μέσα κοινωνικής δικτύωσης, από τηλεδιάσκεψη παρουσίασης οικονομικών αποτελεσμάτων, από τηλεοπτική συνέντευξη ή από οποιαδήποτε άλλη πηγή. Μερικά δευτερόλεπτα φτάνουν.
  3. Επιλέγει ποιον θα «χτυπήσει» — συνήθως κάποιον από το IT ή το οικονομικό τμήμα, τον οποίο εντοπίζει εύκολα μέσω LinkedIn.
  4. Ο απατεώνας τον καλεί ή του στέλνει πρώτα ένα email. Για παράδειγμα, μπορεί να παρουσιαστεί ως διευθύνων σύμβουλος που ζητά μια επείγουσα μεταφορά χρημάτων, να ζητήσει επαναφορά κωδικού πρόσβασης, ή να υποδυθεί έναν προμηθευτή που απαιτεί πληρωμή για ένα ληξιπρόθεσμο τιμολόγιο.
  5. Ο εισβολέας χρησιμοποιεί ήχο που έχει δημιουργηθεί με τεχνητή νοημοσύνη για να υποδυθεί τον CEO ή τον προμηθευτή. Ανάλογα με το εργαλείο, μπορεί να ακολουθεί ένα προκαθορισμένο σενάριο ή να χρησιμοποιεί μια πιο εξελιγμένη μέθοδο speech-to-speech, όπου η φωνή του μετατρέπεται σχεδόν σε πραγματικό χρόνο στη φωνή του θύματος.

Μην πιστεύετε στα αυτιά σας

Αυτός ο τύπος επίθεσης γίνεται όλο και φθηνότερος, ευκολότερος και πιο πειστικός. Ορισμένα εργαλεία είναι πλέον ικανά να εισάγουν θόρυβο στο παρασκήνιο, παύσεις και τραυλίσματα, ώστε η φωνή που μιμούνται να ακούγεται πιο φυσική και αξιόπιστη. Παράλληλα, βελτιώνονται συνεχώς στο να αναπαράγουν τους ρυθμούς, τις εντάσεις και τις λεκτικές ιδιαιτερότητες που είναι μοναδικές για κάθε ομιλητή. Όταν μάλιστα μια επίθεση πραγματοποιείται μέσω τηλεφώνου, οι δυσλειτουργίες που σχετίζονται με την τεχνητή νοημοσύνη μπορεί να είναι ακόμη πιο δύσκολο να εντοπιστούν από τον ακροατή.

Οι επιτιθέμενοι χρησιμοποιούν συχνά και τακτικές κοινωνικής μηχανικής, όπως η άσκηση πίεσης στο θύμα να ανταποκριθεί άμεσα στο αίτημά τους, προκειμένου να πετύχουν τον στόχο τους. Μια άλλη κλασική τακτική είναι να παροτρύνουν το θύμα να διατηρήσει το αίτημα εμπιστευτικό. Αν προστεθεί σε αυτό και το γεγονός ότι οι απατεώνες συχνά υποδύονται ανώτερα στελέχη, γίνεται εύκολα κατανοητό γιατί ορισμένα θύματα εξαπατώνται. Άλλωστε, ποιος θα ήθελε να μπει στο μάτι του διευθύνοντος συμβούλου;

Ωστόσο, υπάρχουν τρόποι για να εντοπίσετε έναν επιτήδειο. Ανάλογα με το πόσο εξελιγμένη είναι η GenAI που χρησιμοποιούν, μπορεί να είναι δυνατό να διακρίνετε:

  • Έναν αφύσικο ρυθμό στην ομιλία του ομιλητή
  • Μια αφύσικα επίπεδη συναισθηματική χροιά στη φωνή του
  • Αφύσικη αναπνοή ή ακόμη και προτάσεις χωρίς παύσεις για αναπνοή
  • Έναν ασυνήθιστα ρομποτικό ήχο (ιδίως όταν χρησιμοποιούνται λιγότερο προηγμένα εργαλεία)
  • Θόρυβο στο υπόβαθρο που είτε απουσιάζει παράξενα είτε είναι υπερβολικά ομοιόμορφος

Ώρα για αντεπίθεση

Ο λόγος για τον οποίο οι δράστες απειλών αφιερώνουν ολοένα περισσότερο χρόνο σε τέτοιου είδους απάτες είναι απλός: τα πιθανά οικονομικά κέρδη είναι σημαντικά.

Ένα από τα πιο χαρακτηριστικά περιστατικά σημειώθηκε το 2020, όταν ένας υπάλληλος εταιρείας στα Ηνωμένα Αραβικά Εμιράτα εξαπατήθηκε και πίστεψε ότι ο διευθυντής του τον είχε καλέσει τηλεφωνικά για να ζητήσει μεταφορά κεφαλαίων ύψους 35 εκατομμυρίων δολαρίων για μια συμφωνία εξαγοράς.

Δεδομένου ότι η τεχνολογία deepfake έχει βελτιωθεί σημαντικά τα τελευταία έξι χρόνια, αξίζει να επανεξετάσουμε ορισμένα βασικά μέτρα που μπορούν να μειώσουν την πιθανότητα ενός τέτοιου σεναρίου.

Το πρώτο βήμα είναι η εκπαίδευση και η ευαισθητοποίηση των εργαζομένων. Τα σχετικά προγράμματα θα πρέπει να επικαιροποιηθούν ώστε να περιλαμβάνουν προσομοιώσεις deepfake ήχου, διασφαλίζοντας ότι το προσωπικό γνωρίζει τι μπορεί να αντιμετωπίσει, τι διακυβεύεται και πώς πρέπει να αντιδράσει.

Οι εργαζόμενοι θα πρέπει επίσης να εκπαιδεύονται στον εντοπισμό των προειδοποιητικών σημείων της κοινωνικής μηχανικής και των τυπικών σεναρίων deepfake, όπως αυτά που περιγράφονται παραπάνω. Παράλληλα, θα πρέπει να διεξάγονται ασκήσεις με προσομοιώσεις κυβερνοεπιθέσεων, προκειμένου να αξιολογείται κατά πόσο οι εργαζόμενοι έχουν αφομοιώσει αυτές τις πληροφορίες.

Στη συνέχεια έρχεται η διαδικασία. Εξετάστε τα εξής:

  • Εξωτερική επαλήθευση αιτημάτων μέσω τηλεφώνου – δηλαδή, χρήση εταιρικών λογαριασμών ανταλλαγής μηνυμάτων για ανεξάρτητη επιβεβαίωση με τον αποστολέα.
  • Δύο άτομα θα πρέπει να υπογράφουν για οποιαδήποτε μεταφορά μεγάλων χρηματικών ποσών ή για αλλαγές στα τραπεζικά στοιχεία προμηθευτών.
  • Προκαθορισμένες φράσεις πρόσβασης ή ερωτήσεις στις οποίες πρέπει να απαντούν τα στελέχη, ώστε να αποδεικνύουν ότι είναι πράγματι τα άτομα που ισχυρίζονται ότι είναι όταν επικοινωνούν τηλεφωνικά.

Η τεχνολογία μπορεί επίσης να βοηθήσει. Υπάρχουν εργαλεία ανίχνευσης που ελέγχουν διάφορες παραμέτρους για την παρουσία συνθετικής φωνής. Μια άλλη λύση, πιο δύσκολη στην εφαρμογή, θα ήταν ο περιορισμός των ευκαιριών των απειλητικών παραγόντων να αποκτήσουν πρόσβαση σε ηχητικά αρχεία, για παράδειγμα με τον περιορισμό των δημόσιων εμφανίσεων των στελεχών.

Άνθρωποι, διαδικασίες και τεχνολογία

Ωστόσο, το συμπέρασμα είναι σαφές: τα deepfakes είναι εύκολο να δημιουργηθούν και το κόστος παραγωγής τους είναι ελάχιστο. Δεδομένου του τεράστιου κέρδους που μπορούν να αποκομίσουν οι απατεώνες, είναι απίθανο να δούμε σύντομα το τέλος των απατών που βασίζονται στην κλωνοποίηση φωνής.

Για το λόγο αυτό, μια τριπλή προσέγγιση που βασίζεται στους ανθρώπους, τις διαδικασίες και την τεχνολογία αποτελεί την καλύτερη επιλογή για τον μετριασμό του κινδύνου.

Μόλις εγκριθεί ένα σχέδιο, είναι σημαντικό να επανεξετάζεται τακτικά ώστε να παραμένει επίκαιρο, καθώς η καινοτομία στον τομέα της τεχνητής νοημοσύνης προχωρά με ταχύ ρυθμό. Το νέο τοπίο της κυβερνοαπάτης απαιτεί συνεχή επαγρύπνηση.

Ακολουθήστε το Infocom.gr και στα Google News, για όλες τις τελευταίες εξελίξεις από τον κόσμο των τηλεπικοινωνιών και της τεχνολογίας!

Infocom Today
SmartTalks

ESET
Share. Facebook Twitter LinkedIn Email Copy Link
infocom

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

Φωνητική συνομιλία με το ChatGPT: Ο πιο φυσικός τρόπος να επικοινωνήσεις με την ΤΝ!

Συμβουλευτική υποστήριξη από χριστιανούς ηγέτες ζήτησε η Anthropic

Η επιστροφή κορυφαίων επιστημόνων AI στην Κίνα ανατρέπει τις ισορροπίες

1 στους 2 Ευρωπαίους κοιτάζουν την οθόνη του κινητού αγνώστων σε δημόσιους χώρους – 1 στους 4 από περιέργεια

Πάνω από 1 εκατ. τραπεζικοί λογαριασμοί παραβιάστηκαν το 2025

Ένας στους πέντε εργαζόμενους αναφέρει αντικατάσταση εργασιών από την AI

Comments are closed.

Εγγραφείτε στο Weekly Telecom
* indicates required
RSS BizNow.gr
  • Υπεγράφη η σύμβαση Γεώτρησης για το Block 2 μεταξύ της Energean και της Stena Drilling
  • Στις 12/5 η παρουσίαση του βιβλίου «2 ex CEOs συζητούν» των Δερμούση & Λοΐζου
  • Pfizer Hellas: Αλλαγή ηγεσίας – Αποχωρεί μετά από 40 χρόνια επαγγελματικής πορείας ο Ζ. Ραγκούσης
  • ΕΚΚΟΜΕΔ: Το Locate (with)in GREECE, είναι εδώ!
  • Έκθεση EY–Eurelectric: Η ηλεκτροκίνηση μπορεί να εξοικονομήσει σχεδόν 250 δισ. ευρώ
  • Όμιλος Dräger: Ρεκόρ πωλήσεων και σημαντική άνοδος κερδοφορίας το 2025
  • Η ΤΝ ανατρέπει τις ισορροπίες στην ψηφιακή διαφήμιση
RSS itsecuritypro.gr
  • Οδηγός νόμιμης μεταπώλησης software: Τι πρέπει να γνωρίζουν οι ελληνικές επιχειρήσεις
  • Το breach της Ευρωπαϊκής Επιτροπής και το νέο πρόσωπο των supply chain attacks
  • Διπλή διάκριση για τα SmartTalks της Smart Press στα Greek Podcast Awards 2025!
  • Η IDEAL Technology αναγνωρίζεται ως SASE Specialized Distributor της Fortinet σε Ελλάδα & Κύπρο
  • Η Μαρία Περιμένη αναλαμβάνει τη θέση της Training Business Development Manager στην ALEF Distribution GR
  • PeS Cybersecurity & CrowdStrike φέρνουν το AI στην πρώτη γραμμή σε ένα υψηλού επιπέδου cybersecurity event
  • Synthesis.ai: Το νέο Κέντρο Αριστείας της Uni Systems που μετατρέπει την Τεχνητή Νοημοσύνη σε μετρήσιμη επιχειρησιακή αξία
Infocom Today

Copyright 2024 | All Rights Reserved

Type above and press Enter to search. Press Esc to cancel.