Περίπου το ένα τρίτο των κρατών που συμμετείχαν στη σύνοδο κορυφής για τη στρατιωτική χρήση της τεχνητής νοημοσύνης συμφώνησαν την Πέμπτη σε μια κοινή διακήρυξη σχετικά με τον τρόπο διακυβέρνησης και ανάπτυξης της συγκεκριμένης τεχνολογίας στο πεδίο του πολέμου. Ωστόσο, όπως επισημαίνεται, οι μεγάλες στρατιωτικές δυνάμεις, συγκεκριμένα η Κίνα και οι Ηνωμένες Πολιτείες, επέλεξαν να μην συμμετάσχουν στη συμφωνία. Σύμφωνα με δηλώσεις παρευρισκομένων και αντιπροσώπων, οι εντάσεις στις σχέσεις μεταξύ των Ηνωμένων Πολιτειών και των Ευρωπαίων συμμάχων τους, καθώς και η διάχυτη αβεβαιότητα για το μέλλον των διατλαντικών δεσμών τους επόμενους μήνες και χρόνια, έκαναν ορισμένες χώρες διστακτικές στο να υπογράψουν κοινές συμφωνίες τη δεδομένη χρονική στιγμή. Η δέσμευση αυτή υπογραμμίζει την αυξανόμενη ανησυχία ορισμένων κυβερνήσεων ότι η ραγδαία πρόοδος της τεχνητής νοημοσύνης ενδέχεται να ξεπεράσει τους θεσπισμένους κανόνες στρατιωτικής χρήσης, αυξάνοντας τον κίνδυνο ατυχημάτων, λανθασμένων υπολογισμών ή ακόμα και ακούσιας κλιμάκωσης των συγκρούσεων.
Ο Ολλανδός Υπουργός Άμυνας, Ruben Brekelmans, τόνισε ότι οι κυβερνήσεις βρίσκονται αντιμέτωπες με ένα «δίλημμα του φυλακισμένου», καθώς καλούνται να ισορροπήσουν ανάμεσα στην εφαρμογή υπεύθυνων περιορισμών και στην απροθυμία τους να περιορίσουν τις δικές τους δυνατότητες συγκριτικά με τους αντιπάλους τους. Μιλώντας στο πρακτορείο Reuters, ο Brekelmans δήλωσε χαρακτηριστικά ότι «η Ρωσία και η Κίνα κινούνται πολύ γρήγορα», γεγονός που δημιουργεί επιτακτική ανάγκη για πρόοδο στην ανάπτυξη της τεχνητής νοημοσύνης. Παράλληλα, σημείωσε ότι η παρατήρηση αυτής της ταχύτητας αυξάνει την ανάγκη να συνεχιστεί η εργασία για την υπεύθυνη χρήση της τεχνολογίας, υπογραμμίζοντας ότι «αυτά τα δύο πάνε χέρι-χέρι». Στη σύνοδο κορυφής REAIM (Responsible AI in the Military Domain) που έλαβε χώρα στη Λα Κορούνια της Ισπανίας, μόλις 35 από τις 85 χώρες που παρευρέθηκαν υπέγραψαν τελικά τη δέσμευση για την τήρηση 20 αρχών σχετικά με την τεχνητή νοημοσύνη την Πέμπτη.
Οι αρχές αυτές περιελάμβαναν την επιβεβαίωση της ανθρώπινης ευθύνης επί των όπλων που λειτουργούν με τεχνητή νοημοσύνη, την ενθάρρυνση σαφών αλυσίδων διοίκησης και ελέγχου, καθώς και τον διαμοιρασμό πληροφοριών σχετικά με τις εθνικές ρυθμίσεις εποπτείας, «όπου αυτό συνάδει με την εθνική ασφάλεια». Το έγγραφο προσδιόρισε επίσης τη σημασία της διενέργειας αξιολογήσεων κινδύνου, των ισχυρών δοκιμών και της εκπαίδευσης του προσωπικού που χειρίζεται στρατιωτικές ικανότητες AI. Αξίζει να σημειωθεί ότι σε δύο προηγούμενες συνόδους κορυφής για τη στρατιωτική τεχνητή νοημοσύνη, στη Χάγη και τη Σεούλ το 2023 και το 2024 αντίστοιχα, περίπου 60 έθνη, εξαιρουμένης της Κίνας αλλά συμπεριλαμβανομένων των ΗΠΑ, είχαν προσυπογράψει ένα μετριοπαθές «σχέδιο δράσης» χωρίς νομική δέσμευση. Η Yasmin Afina, ερευνήτρια στο Ινστιτούτο των Ηνωμένων Εθνών για την Έρευνα Αφοπλισμού (UNIDIR) και σύμβουλος στη διαδικασία, ανέφερε ότι αν και το φετινό έγγραφο ήταν επίσης μη δεσμευτικό, ορισμένοι ένιωθαν άβολα με την ιδέα της υποστήριξης πιο συγκεκριμένων πολιτικών.
