Σχεδόν κάθε μεγάλη επιχείρηση που έχει ενσωματώσει την τεχνητή νοημοσύνη στις λειτουργίες της έχει υποστεί σημαντικές οικονομικές απώλειες, με τον μέσο όρο να αγγίζει τα 4,4 εκατομμύρια δολάρια. Αυτό είναι το κεντρικό και ανησυχητικό εύρημα της νέας παγκόσμιας έρευνας της EY, «Global Responsible AI Pulse», η οποία ωστόσο αναδεικνύει την «Υπεύθυνη Τεχνητή Νοημοσύνη» ως τη στρατηγική γέφυρα που μπορεί να μετατρέψει τις επενδύσεις σε απτά οφέλη, όπως η αύξηση των εσόδων, η εξοικονόμηση κόστους και η βελτίωση της ικανοποίησης των εργαζομένων.
Η έρευνα, που διεξήχθη τον Ιούλιο και τον Αύγουστο του 2025 σε δείγμα 975 ανώτατων διοικητικών στελεχών από εταιρείες με ετήσια έσοδα άνω του ενός δισεκατομμυρίου δολαρίων, αποκαλύπτει ένα παράδοξο. Ενώ η πλειοψηφία των επιχειρήσεων καταγράφει ήδη σημαντικά κέρδη στην αποδοτικότητα, την παραγωγικότητα, την καινοτομία και την ικανότητα κατανόησης των πελατών, οι περισσότερες εξακολουθούν να δυσκολεύονται να κεφαλαιοποιήσουν αυτά τα οφέλη σε επίπεδο τελικού οικονομικού αποτελέσματος. Σύμφωνα με την Cathy Cobey, Global Responsible AI Leader for Assurance της EY, η πρόκληση αυτή οφείλεται στην πολυπλοκότητα της ενσωμάτωσης της AI σε υφιστάμενες διαδικασίες, κάτι που απαιτεί επενδύσεις σε ανασχεδιασμό, αναβάθμιση δεξιοτήτων του προσωπικού και διαχείριση της ροής δεδομένων, καθώς και στην ανάγκη για διαρκώς εξελισσόμενα πλαίσια διακυβέρνησης.
Το κόστος της ανεξέλεγκτης υιοθέτησης της τεχνολογίας είναι απτό. Το 99% των εταιρειών του δείγματος ανέφερε ότι υπέστη οικονομικές ζημίες από κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη, με το 64% να δηλώνει απώλειες άνω του ενός εκατομμυρίου δολαρίων. Οι κυριότερες πηγές αυτών των ζημιών ήταν η μη συμμόρφωση με το ρυθμιστικό πλαίσιο, οι αρνητικές επιπτώσεις σε στόχους βιωσιμότητας και η εμφάνιση συστηματικής μεροληψίας στα παραγόμενα αποτελέσματα. Συνολικά, οι απώλειες για τις εταιρείες της έρευνας εκτιμάται ότι αγγίζουν τα 4,3 δισεκατομμύρια δολάρια.
Η μελέτη της EY υπογραμμίζει ότι η λύση βρίσκεται στην υιοθέτηση μιας ολοκληρωμένης στρατηγικής Υπεύθυνης Τεχνητής Νοημοσύνης, την οποία περιγράφει ως ένα «ταξίδι» τριών σταδίων: την επικοινωνία σαφών αρχών, την εκτέλεσή τους μέσω ελέγχων και εκπαίδευσης, και τη διακυβέρνηση μέσω εποπτικών επιτροπών και ανεξάρτητων ελέγχων. Οι οργανισμοί που προχωρούν σε αυτό το ταξίδι, όπως αυτοί στον κλάδο της τεχνολογίας και των τηλεπικοινωνιών που προηγούνται στην εφαρμογή αυτών των μέτρων, είναι και αυτοί που βλέπουν τα μεγαλύτερα οφέλη. Η έρευνα εξηγεί πως μια δημόσια δέσμευση στην υπεύθυνη χρήση της ΑΙ μπορεί να καθησυχάσει τους εργαζόμενους που ανησυχούν για τις θέσεις τους, να ενισχύσει τη φήμη της εταιρείας και την πιστότητα των πελατών, και τελικά να αποτρέψει δαπανηρές τεχνικές και ηθικές παραβιάσεις, επιδρώντας θετικά στα οικονομικά αποτελέσματα.
Ένα ιδιαίτερα ανησυχητικό στοιχείο που προκύπτει είναι το σημαντικό γνωστικό κενό σε επίπεδο ηγεσίας. Μόλις το 12% των ανώτατων στελεχών κατάφερε να αντιστοιχίσει σωστά τους κατάλληλους μηχανισμούς ελέγχου σε συγκεκριμένα σενάρια κινδύνου. Οι Διευθυντές Πληροφορικής και Τεχνολογίας είχαν τις καλύτερες επιδόσεις, αλλά ακόμη και σε αυτή την ομάδα μόνο το ένα τέταρτο απάντησε σωστά, ενώ οι επικεφαλής μάρκετινγκ και οι διευθύνοντες σύμβουλοι είχαν τα χαμηλότερα ποσοστά. Η έρευνα αποδεικνύει μια άμεση σχέση μεταξύ της έλλειψης γνώσης και του μεγέθους της οικονομικής ζημίας, καθώς οι εταιρείες με τις μεγαλύτερες απώλειες ήταν εκείνες με τους λιγότερους σωστά εφαρμοσμένους ελέγχους.
Παράλληλα, ο ορίζοντας της τεχνολογίας φέρνει νέες, σύνθετες προκλήσεις. Η άνοδος της «Agentic AI», δηλαδή των αυτόνομων συστημάτων που δρουν με ελάχιστη ανθρώπινη παρέμβαση, εισάγει νέους κινδύνους. Όπως σημειώνει ο Sinclair Schuller, Americas Responsible AI Leader της EY, «η αυτόνομη φύση της Agentic AI εισάγει νέους κινδύνους που μπορούν να κλιμακωθούν γρήγορα». Αν και οι περισσότερες εταιρείες εφαρμόζουν ήδη μέτρα όπως η συνεχής παρακολούθηση (85%), υστερούν σε τομείς όπως η προετοιμασία των τμημάτων ανθρώπινου δυναμικού για υβριδικά περιβάλλοντα εργασίας. Ταυτόχρονα, το φαινόμενο των «citizen developers», των εργαζομένων που αναπτύσσουν τις δικές τους λύσεις AI, δημιουργεί ένα σημαντικό κενό διακυβέρνησης. Ακόμη και σε εταιρείες που επίσημα απαγορεύουν την πρακτική αυτή, το 12% παραδέχεται ότι δεν έχει καμία ορατότητα, επιτρέποντας την ανεξέλεγκτη ανάπτυξη «σκιώδους» τεχνητής νοημοσύνης και ουσιαστικά «πετώντας στα τυφλά».
Συμπερασματικά, η έρευνα της EY καθιστά σαφές ότι η Υπεύθυνη Τεχνητή Νοημοσύνη δεν αποτελεί απλώς μια άσκηση συμμόρφωσης, αλλά έναν κρίσιμο στρατηγικό μοχλό απόδοσης, με τη συντριπτική πλειοψηφία των επιχειρήσεων να σχεδιάζει την εφαρμογή των σχετικών μέτρων. Η επιτυχής μετάβαση από το στάδιο της επένδυσης στην τεχνολογία στο στάδιο της δημιουργίας πραγματικής αξίας απαιτεί από τις ηγεσίες να καλύψουν τα γνωστικά τους κενά και να εγκαθιδρύσουν ισχυρά πλαίσια διακυβέρνησης που θα μπορούν να εξελίσσονται παράλληλα με την ίδια την τεχνολογία.
