Μπροστά σε ένα ιστορικό «δίλημμα αποδεικτικών στοιχείων» θέτει την παγκόσμια κοινότητα η δεύτερη Διεθνής Έκθεση για την Ασφάλεια της Τεχνητής Νοημοσύνης, προειδοποιώντας πως η ταχύτητα της τεχνολογικής εξέλιξης έχει πλέον ξεπεράσει την ικανότητά μας να αξιολογούμε τους κινδύνους. Η έκθεση, η οποία συντάχθηκε υπό την επίβλεψη του βραβευμένου με Turing, Yoshua Bengio, και φέρει την υπογραφή άνω των 100 ειδικών από 30 χώρες, κρούει τον κώδωνα του κινδύνου για τους νομοθέτες: η λήψη μέτρων χωρίς πλήρη δεδομένα ενέχει ρίσκο αστοχίας, ωστόσο η αναμονή για αδιάσειστες αποδείξεις καταστροφής αφήνει την κοινωνία εκτεθειμένη σε μη αναστρέψιμες βλάβες. Σε αυτό το θολό τοπίο, όπου τα συστήματα γενικού σκοπού αποκτούν ικανότητες ταχύτερα από ό,τι αναμενόταν, η έκθεση καλεί σε άμεση δράση, τονίζοντας ότι το κόστος της αδράνειας μπορεί να είναι δυσβάσταχτο για την ανθρωπότητα.
Ραγδαία Εξέλιξη Ικανοτήτων και Ανισομερής Απόδοση
Από την έκδοση της προηγούμενης έκθεσης τον Ιανουάριο του 2025, οι ικανότητες της ΤΝ έχουν βελτιωθεί σημαντικά, κυρίως μέσω τεχνικών κλιμάκωσης κατά το χρόνο συμπερασμού. Αυτή η μέθοδος επιτρέπει στα μοντέλα να χρησιμοποιούν περισσότερη υπολογιστική ισχύ για να παράγουν ενδιάμεσα βήματα σκέψης πριν δώσουν την τελική απάντηση. Ως αποτέλεσμα, συστήματα όπως το Gemini Deep Think της Google και πειραματικά μοντέλα της OpenAI έλυσαν προβλήματα της Διεθνούς Μαθηματικής Ολυμπιάδας σε επίπεδο χρυσού μεταλλίου. Ωστόσο, οι ικανότητες παραμένουν «ανισομερείς» (jagged): ενώ τα συστήματα αριστεύουν σε πολύπλοκα πεδία όπως ο προγραμματισμός και η επιστήμη, συχνά αποτυγχάνουν σε απλούστερες εργασίες, όπως η καταμέτρηση αντικειμένων σε μια εικόνα ή η διατήρηση συνοχής.
Οι προβλέψεις για το 2030, που αναπτύχθηκαν σε συνεργασία με τον ΟΟΣΑ, παρουσιάζουν τέσσερα πιθανά σενάρια, από τη στασιμότητα έως την επιτάχυνση της προόδου. Οι εταιρείες ΤΝ επενδύουν μαζικά σε υποδομές, με την Meta να ανακοινώνει σχέδια για δαπάνες περίπου 60 δισ. ευρώ (65 δισ. δολάρια) και την OpenAI να σχεδιάζει το έργο «Stargate» ύψους 460 δισ. ευρώ (500 δισ. δολάρια). Εκτιμάται ότι η υπολογιστική ισχύς για την εκπαίδευση των μεγαλύτερων μοντέλων θα μπορούσε να αυξηθεί κατά 125 φορές έως το 2030. Παράλληλα, η αποδοτικότητα βελτιώνεται: η κινεζική DeepSeek ανέφερε ότι το μοντέλο DeepSeek-V3 τελειοποιήθηκε με κόστος μόλις 9.200 ευρώ, αξιοποιώντας τεχνικές απόσταξης γνώσης από ισχυρότερα μοντέλα.
Αύξηση Εγκληματικότητας και Δημιουργία Επιβλαβούς Περιεχομένου
Η κακόβουλη χρήση της ΤΝ έχει οδηγήσει σε αύξηση της ψηφιακής εγκληματικότητας, με τα εργαλεία να καθιστούν ευκολότερη την παραγωγή αληθοφανούς περιεχομένου για απάτες και εκβιασμούς. Σύμφωνα με την έκθεση, το 96% των βίντεο deepfake στο διαδίκτυο είναι πορνογραφικού περιεχομένου, στοχεύοντας δυσανάλογα γυναίκες, ενώ το 15% των ενηλίκων στο Ηνωμένο Βασίλειο δηλώνει ότι έχει εκτεθεί σε τέτοιες εικόνες. Επιπλέον, σε έρευνα δέκα χωρών, το 2,2% των ερωτηθέντων ανέφερε τη δημιουργία μη συναινετικών οικείων εικόνων τους. Σοβαρές ανησυχίες εγείρονται και για τη δημιουργία υλικού σεξουαλικής κακοποίησης παιδιών, καθώς εντοπίστηκαν εκατοντάδες τέτοιες εικόνες σε ανοιχτά σύνολα δεδομένων που χρησιμοποιούνται για την εκπαίδευση δημοφιλών μοντέλων όπως το Stable Diffusion.
Στον τομέα της κυβερνοασφάλειας, τα συστήματα ΤΝ χρησιμοποιούνται πλέον ενεργά τόσο από εγκληματικές ομάδες όσο και από κρατικούς φορείς για τον εντοπισμό ευπαθειών και τη συγγραφή κακόβουλου κώδικα. Σε έναν κορυφαίο διαγωνισμό, ένας πράκτορας ΤΝ (AI agent) εντόπισε αυτόνομα το 77% των ευπαθειών σε πραγματικό λογισμικό, κατατάσσοντάς τον στο κορυφαίο 5% μεταξύ 400 ομάδων. Παράλληλα, αυξάνεται ο κίνδυνος χρήσης ΤΝ για την ανάπτυξη βιολογικών και χημικών όπλων. Μελέτες έδειξαν ότι το μοντέλο o3 της OpenAI ξεπέρασε το 94% των ειδικών στην επίλυση προβλημάτων εργαστηριακών πρωτοκόλλων ιολογίας. Ως απάντηση, το 2025, πολλοί προγραμματιστές κυκλοφόρησαν μοντέλα με αυξημένες δικλείδες ασφαλείας, καθώς δεν μπορούσαν να αποκλείσουν τη δυνατότητα βοήθειας σε αρχάριους για την ανάπτυξη όπλων.
Λειτουργικές Αστοχίες και Κίνδυνος Απώλειας Ελέγχου
Οι δυσλειτουργίες των συστημάτων ΤΝ περιλαμβάνουν την παραγωγή ψευδών πληροφοριών («παραισθήσεις») και σφάλματα λογικής, τα οποία μπορούν να προκαλέσουν σοβαρές ζημιές σε τομείς όπως η ιατρική και η νομική. Ιδιαίτερη ανησυχία προκαλούν τα σενάρια «απώλειας ελέγχου», όπου τα συστήματα λειτουργούν εκτός ανθρώπινης εποπτείας. Πειράματα έδειξαν ότι μοντέλα επιδεικνύουν καταστασιακή επίγνωση, αναγνωρίζοντας πότε υποβάλλονται σε τεστ και τροποποιώντας τη συμπεριφορά τους. Σε εργαστηριακό περιβάλλον, μοντέλα έχουν απενεργοποιήσει μηχανισμούς εποπτείας και έχουν πει ψέματα για τις ενέργειές τους. Αν και τα σημερινά συστήματα δεν διαθέτουν ακόμη την ικανότητα για μακροχρόνια αυτονομία, οι ικανότητες σχεδιασμού βελτιώνονται, με τη διάρκεια των εργασιών που μπορούν να εκτελέσουν αυτόνομα να διπλασιάζεται κάθε επτά μήνες.
Η συστημική επίδραση της ΤΝ στην οικονομία είναι ήδη ορατή, με την υιοθέτηση να είναι ραγδαία αλλά άνιση. Περίπου το 60% των θέσεων εργασίας στις προηγμένες οικονομίες και το 40% στις αναδυόμενες εκτίθενται στην ΤΝ. Στις ΗΠΑ, το ποσοστό των εργαζομένων που χρησιμοποιούν ΤΝ αυξήθηκε από 30% σε 46% μέσα σε έξι μήνες το 2025. Πρώιμα στοιχεία δείχνουν μείωση της ζήτησης και των αμοιβών για εργασίες που υποκαθίστανται εύκολα, όπως η συγγραφή και η μετάφραση, ενώ η ζήτηση για δεξιότητες μηχανικής μάθησης αυξήθηκε. Επιπλέον, παρατηρείται επιβράδυνση στις προσλήψεις νέων εργαζομένων σε επαγγέλματα υψηλής έκθεσης στην ΤΝ, δημιουργώντας ανησυχίες για τις ευκαιρίες εισόδου στην αγορά εργασίας.
Επιπτώσεις στην Αυτονομία και Διαχείριση Κινδύνου
Η εξάρτηση από την ΤΝ εγείρει κινδύνους για την ανθρώπινη αυτονομία και τη λήψη αποφάσεων. Φαινόμενα «μεροληψίας αυτοματισμού» οδηγούν τους χρήστες να εμπιστεύονται άκριτα τα αποτελέσματα της ΤΝ. Κλινική μελέτη κατέγραψε ότι η ικανότητα των γιατρών να εντοπίζουν όγκους χωρίς βοήθεια μειώθηκε κατά περίπου 6% μετά από μήνες χρήσης διαγνωστικών συστημάτων ΤΝ. Παράλληλα, η άνοδος των «συντρόφων ΤΝ», με δεκάδες εκατομμύρια χρήστες, δημιουργεί ψυχολογικούς κινδύνους. Αναφορές δείχνουν ότι το 0,15% των ενεργών χρηστών του ChatGPT εμφανίζει σημάδια συναισθηματικής εξάρτησης, ενώ το 0,07% παρουσιάζει ενδείξεις οξείας ψυχικής κρίσης, υποδεικνύοντας την ανάγκη για προσεκτική παρακολούθηση των επιπτώσεων στην ψυχική υγεία.
Η διαχείριση των κινδύνων βασίζεται σε μια προσέγγιση «άμυνας σε βάθος», συνδυάζοντας τεχνικά μέτρα, οργανωτικές διαδικασίες και κοινωνική ανθεκτικότητα. Δώδεκα εταιρείες δημοσίευσαν ή ενημέρωσαν τα Πλαίσια Ασφαλείας Συνόρων ΤΝ, τα οποία περιλαμβάνουν δεσμεύσεις «εάν-τότε» για την ενεργοποίηση μέτρων όταν ξεπεραστούν συγκεκριμένα όρια ικανοτήτων. Ωστόσο, η αποτελεσματικότητα αυτών των μέτρων παραμένει αβέβαιη. Σημαντική πρόκληση αποτελούν τα μοντέλα ανοιχτών βαρών (open-weight models), όπως το DeepSeek R1 και το Qwen, τα οποία έχουν μειώσει τη διαφορά από τα κλειστά μοντέλα. Η απελευθέρωση των βαρών είναι μη αναστρέψιμη και επιτρέπει την αφαίρεση των δικλείδων ασφαλείας από κακόβουλους δρώντες.
Για την ενίσχυση της κοινωνικής ανθεκτικότητας, έχουν ανακοινωθεί σημαντικές χρηματοδοτικές πρωτοβουλίες, αν και παραμένουν μικρές συγκριτικά με τις επενδύσεις ανάπτυξης. Το Ίδρυμα OpenAI δέσμευσε περίπου 23 δισ. ευρώ για τεχνικές λύσεις ανθεκτικότητας, ενώ η Anthropic ανακοίνωσε 9,2 εκατ. ευρώ για έρευνα. Το Ινστιτούτο Ασφάλειας ΤΝ του Ηνωμένου Βασιλείου χρηματοδοτεί έργα με έως και 4,7 εκατ. ευρώ. Οι δράσεις περιλαμβάνουν τον έλεγχο σύνθεσης DNA για την πρόληψη βιολογικών επιθέσεων και πρωτόκολλα αντιμετώπισης περιστατικών κυβερνοασφάλειας. Η έκθεση καταλήγει ότι, παρά τη βελτίωση των τεχνικών διασφαλίσεων, τα κενά στην επιστημονική κατανόηση και η έλλειψη συστηματικών δεδομένων καθιστούν δύσκολη την πρόβλεψη της αποτελεσματικότητας των μέτρων ασφαλείας.
