Κανόνες στην Τεχνητή Νοημοσύνη θέτει η Ευρωπαϊκή Επιτροπή

0

Νέους κανόνες και δράσεις με στόχο να καταστεί η Ευρώπη παγκόσμιος κόμβος αξιόπιστης τεχνητής νοημοσύνης (ΤΝ) πρότεινε χθες η Ευρωπαϊκή Επιτροπή. Το επόμενο στάδιο είναι να η έγκρισή τους από το Ευρωπαϊκό Κοινοβούλιο και τα κράτη μέλη ώστε να τεθούν σε εφαρμογή σε ολόκληρη την ΕΕ.

Σύμφωνα με την Margrethe Vestager, Εκτελεστική Αντιπρόεδρο της ΕΕ «Η εμπιστοσύνη στην ΤΝ είναι απολύτως αναγκαία και όχι απλώς ευκταία. Με αυτούς τους κανόνες – ορόσημο, η ΕΕ πρωτοστατεί στην ανάπτυξη νέων παγκόσμιων προτύπων ώστε να διασφαλιστεί ότι μπορούμε να έχουμε εμπιστοσύνη στην τεχνητή νοημοσύνη. Καθορίζοντας τα πρότυπα, μπορούμε να προετοιμάσουμε το έδαφος για μια τεχνολογία βασιζόμενη σε δεοντολογικές αρχές σε παγκόσμιο επίπεδο και να διασφαλίσουμε ότι η ΕΕ παραμένει ανταγωνιστική καθ’ όλη τη διαδικασία.»

Οι εν λόγω κανόνες ακολουθούν μια προσέγγιση με βάση τον κίνδυνο:

Μη αποδεκτός κίνδυνος: τα συστήματα ΤΝ που θεωρείται ότι συνιστούν σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμων θα απαγορεύονται. Εδώ περιλαμβάνονται συστήματα ή εφαρμογές ΤΝ που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών / χρηστριών (παραδείγματος χάριν, παιχνίδια με φωνητικό βοηθό που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά) και συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από τις κυβερνήσεις.

Υψηλός κίνδυνος: στα συστήματα ΤΝ που χαρακτηρίζονται ως υψηλού κινδύνου περιλαμβάνεται η τεχνολογία ΤΝ που χρησιμοποιείται: Στις υποδομές ζωτικής σημασίας (π.χ. μεταφορές), τεχνολογία ΤΝ που θα μπορούσε να θέσει σε κίνδυνο τη ζωή και την υγεία των πολιτών. Στην εκπαίδευση ή την επαγγελματική κατάρτιση, τεχνολογία ΤΝ που μπορεί να καθορίζει την πρόσβαση στην εκπαίδευση και την πορεία της επαγγελματικής ζωής ενός ατόμου (π.χ. βαθμολόγηση εξετάσεων).

Στα κατασκευαστικά στοιχεία ασφαλείας των προϊόντων (π.χ. εφαρμογή ΤΝ σε υποβοηθούμενη από ρομπότ χειρουργική). Στην απασχόληση, στη διαχείριση εργαζομένων και στην πρόσβαση στην αυτοαπασχόληση (π.χ. λογισμικό διαλογής βιογραφικών σημειωμάτων για διαδικασίες πρόσληψης). Στις βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. αξιολόγηση πιστοληπτικής ικανότητας που στερεί από τους πολίτες τη δυνατότητα να λαμβάνουν δάνεια). Στην επιβολή του νόμου, τεχνολογία ΤΝ που μπορεί να παρεμβαίνει στα θεμελιώδη δικαιώματα των πολιτών (π.χ. αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων). Στη διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων (π.χ. εξακρίβωση της γνησιότητας ταξιδιωτικών εγγράφων). Στην απονομή δικαιοσύνης και στις δημοκρατικές διαδικασίες (π.χ. εφαρμογή του νόμου σε συγκεκριμένα πραγματικά περιστατικά).

Τα συστήματα ΤΝ υψηλού κινδύνου θα υπόκεινται σε αυστηρές υποχρεώσεις προτού επιτραπεί η διάθεσή τους στην αγορά. Κατάλληλα συστήματα εκτίμησης και μετριασμού των κινδύνων. Υψηλή ποιότητα των συνόλων δεδομένων που τροφοδοτούν το σύστημα ώστε να ελαχιστοποιούνται οι κίνδυνοι και οι διακρίσεις. Καταγραφή των δραστηριοτήτων με σκοπό τη διασφάλιση της ιχνηλασιμότητας των αποτελεσμάτων. Λεπτομερής τεκμηρίωση που παρέχει όλες τις απαραίτητες πληροφορίες σχετικά με το σύστημα και τον σκοπό του ώστε οι αρχές να αξιολογούν τη συμμόρφωσή του. Σαφείς και επαρκείς πληροφορίες για τον χρήστη / χρήστρια. Κατάλληλα μέτρα ανθρώπινης εποπτείας για την ελαχιστοποίηση του κινδύνου. Υψηλό επίπεδο ανθεκτικότητας, ασφάλειας και ακρίβειας.

Ειδικότερα, όλα τα συστήματα εξ αποστάσεως βιομετρικής ταυτοποίησης θεωρούνται υψηλού κινδύνου και υπόκεινται σε αυστηρές απαιτήσεις. Η χρήση τους σε πραγματικό χρόνο σε δημοσίως προσβάσιμους χώρους για σκοπούς επιβολής του νόμου καταρχήν απαγορεύεται. Οι ελάχιστες εξαιρέσεις σ’ αυτόν τον κανόνα καθορίζονται και ρυθμίζονται αυστηρά (για παράδειγμα, όταν είναι απολύτως αναγκαίο για την αναζήτηση αγνοούμενου παιδιού, για την πρόληψη συγκεκριμένης και επικείμενης τρομοκρατικής απειλής ή για τον εντοπισμό, την επισήμανση, την ταυτοποίηση ή τη δίωξη δράστη ή υπόπτου σοβαρής αξιόποινης πράξης). Η χρήση αυτή υπόκειται στην έγκριση δικαστικής ή άλλης ανεξάρτητης αρχής και σε κατάλληλους περιορισμούς όσον αφορά το χρονικό διάστημα, τη γεωγραφική εμβέλεια και τις βάσεις δεδομένων όπου πραγματοποιείται αναζήτηση.

Περιορισμένος κίνδυνος, δηλαδή συστήματα ΤΝ που υπόκεινται σε συγκεκριμένες υποχρεώσεις διαφάνειας: όταν χρησιμοποιούν συστήματα ΤΝ όπως τα διαλογικά ρομπότ (chatbot), οι χρήστες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχάνημα, ώστε να μπορούν να λάβουν τεκμηριωμένη απόφαση να συνεχίσουν ή να διακόψουν την αλληλεπίδραση.

Ελάχιστος κίνδυνος: η νομική πρόταση επιτρέπει την ελεύθερη χρήση εφαρμογών όπως βιντεοπαιχνιδιών βασισμένων στην τεχνητή νοημοσύνη ή φίλτρων ανεπιθύμητης αλληλογραφίας. Η συντριπτική πλειονότητα των συστημάτων ΤΝ εμπίπτουν σε αυτή την κατηγορία. Το σχέδιο κανονισμού δεν παρεμβαίνει σε αυτή την κατηγορία, καθώς αυτά τα συστήματα ΤΝ συνεπάγονται μόνο ελάχιστο ή μηδενικό κίνδυνο για τα δικαιώματα και την ασφάλεια των πολιτών.

Όσον αφορά τη διακυβέρνηση, η Επιτροπή προτείνει οι εθνικές αρμόδιες αρχές εποπτείας της αγοράς να εποπτεύουν τους νέους κανόνες, ενώ η δημιουργία ενός Ευρωπαϊκού Συμβουλίου Τεχνητής Νοημοσύνης θα διευκολύνει την εφαρμογή τους και θα προωθήσει την ανάπτυξη προτύπων για την ΤΝ. Επιπλέον, προτείνονται εθελοντικοί κώδικες δεοντολογίας για την ΤΝ μη υψηλού κινδύνου, καθώς και ρυθμιστικά δοκιμαστήρια για τη διευκόλυνση της υπεύθυνης καινοτομίας.

Share.

Comments are closed.