Οι πρακτικές ασφαλείας των σημαντικότερων εταιρειών τεχνητής νοημοσύνης, συμπεριλαμβανομένων των Anthropic, OpenAI, xAI και Meta, υπολείπονται κατά πολύ των αναδυόμενων παγκόσμιων προτύπων, σύμφωνα με τη νέα έκδοση του «Δείκτη Ασφάλειας Τεχνητής Νοημοσύνης» που δημοσίευσε το Future of Life Institute. Η έκθεση, η οποία συντάχθηκε εν μέσω έντονης δημόσιας ανησυχίας για τον κοινωνικό αντίκτυπο συστημάτων ικανών για συλλογιστική σκέψη, διαπιστώνει ότι ενώ οι εταιρείες επιδίδονται σε έναν αγώνα δρόμου για την ανάπτυξη υπερ-νοημοσύνης, καμία δεν διαθέτει ισχυρή στρατηγική ελέγχου αυτών των προηγμένων τεχνολογιών. Το ζήτημα της ασφάλειας έχει έρθει στο προσκήνιο μετά από περιστατικά αυτοκτονιών και αυτοτραυματισμών που συνδέθηκαν με τη χρήση chatbots, με τον οργανισμό να επισημαίνει ότι παρά τις επενδύσεις εκατοντάδων δισεκατομμυρίων δολαρίων στη μηχανική μάθηση, οι ασφαλιστικές δικλείδες παραμένουν ανεπαρκείς.
Η μελέτη αποκαλύπτει έναν σαφή διαχωρισμό στις επιδόσεις, με τις Anthropic, OpenAI και Google DeepMind να σημειώνουν συγκριτικά καλύτερα αποτελέσματα, ενώ οι Z.ai, xAI, Meta, Alibaba Cloud και DeepSeek καταγράφουν χαμηλότερες βαθμολογίες βάσει του αμερικανικού συστήματος αξιολόγησης GPA που κυμαίνεται από A+ έως F. Τα σημαντικότερα κενά εντοπίζονται στους τομείς της εκτίμησης κινδύνου, των πλαισίων ασφαλείας και της κοινοποίησης πληροφοριών, εξαιτίας της περιορισμένης διαφάνειας και της έλλειψης αποδείξεων για συστηματικές διαδικασίες. Παρά τις δημόσιες δεσμεύσεις, η ποιότητα εφαρμογής των μέτρων ασφαλείας είναι άνιση και δεν ανταποκρίνεται στην αυστηρότητα ή τη μετρησιμότητα που οραματίζονται πλαίσια όπως ο «Κώδικας Πρακτικής για την Τεχνητή Νοημοσύνη της ΕΕ», αφήνοντας κρίσιμα ζητήματα ουσιαστικά αρυθμιστα.
Η «υπαρξιακή ασφάλεια» αναδεικνύεται ως η βασική δομική αδυναμία του κλάδου, καθώς όλες οι εταιρείες επιδιώκουν τη Γενική Τεχνητή Νοημοσύνη (AGI) χωρίς ρητά σχέδια ευθυγράμμισης ή ελέγχου. Ο Μαξ Τέγκμαρκ, καθηγητής του ΜΙΤ και πρόεδρος του ινστιτούτου, δήλωσε χαρακτηριστικά ότι παρά την αναταραχή για το hacking μέσω AI και την πρόκληση ψύχωσης σε χρήστες, οι αμερικανικές εταιρείες παραμένουν «λιγότερο ρυθμισμένες από τα εστιατόρια» και συνεχίζουν να ασκούν πιέσεις ενάντια σε δεσμευτικά πρότυπα. Η κριτική αυτή έρχεται να προστεθεί στην έκκληση που απεύθυναν τον Οκτώβριο κορυφαίοι επιστήμονες, όπως οι Τζέφρι Χίντον και Γιόσουα Μπέντζιο, για απαγόρευση ανάπτυξης υπερ-ευφυούς AI έως ότου η επιστήμη εγγυηθεί έναν ασφαλή δρόμο προς τα εμπρός.
Για την κατάρτιση του δείκτη, μια ανεξάρτητη επιτροπή οκτώ εμπειρογνωμόνων από κορυφαία ιδρύματα, όπως το UC Berkeley, το MIT και η Κινεζική Ακαδημία Επιστημών, αξιολόγησε τις εταιρείες βάσει 35 δεικτών υπεύθυνης συμπεριφοράς. Η μεθοδολογία βασίστηκε τόσο σε δημοσίως διαθέσιμα στοιχεία όσο και σε μια προσαρμοσμένη έρευνα κλάδου, με στόχο να καταστήσει τις πρακτικές ορατές και να ασκήσει πίεση φήμης, αντισταθμίζοντας τα ισχυρά κίνητρα κέρδους.
