Η τεράστια παγκόσμια ζήτηση για τεχνολογία τεχνητής νοημοσύνης οδηγεί τα κέντρα δεδομένων σε αύξηση των δαπανών για διακομιστές, ενέργεια και υποδομές ψύξης. Ως αποτέλεσμα, οι κεφαλαιουχικές δαπάνες (CapEx) των κέντρων δεδομένων θα φτάσουν το 1,1 τρισεκατομμύριο δολάρια έως το 2029, από 430 δισεκατομμύρια δολάρια το 2024, σύμφωνα με την Dell’Oro Group. Ένα μεγάλο μέρος αυτής της ανάπτυξης οφείλεται στην τεχνητή νοημοσύνη.
Οι επιχειρήσεις δαπανούν πλέον περίπου το 35% των προϋπολογισμών CapEx των κέντρων δεδομένων τους σε accelerated servers, βελτιστοποιημένους για AI, από 15% το 2023, σύμφωνα με τον αναλυτή της Dell’Oro, Baron Fung. Το ποσοστό αυτό θα αυξηθεί στο 41% έως το 2029. Για τους hyperscalers, η επένδυση στην τεχνητή νοημοσύνη είναι ακόμη μεγαλύτερη, καθώς ήδη δαπανούν το 40% των προϋπολογισμών τους σε accelerated servers. Αυτοί οι διακομιστές είναι σημαντικά ακριβότεροι από τους παραδοσιακούς, οι οποίοι συνήθως κοστίζουν περίπου 7.000 έως 8.000 δολάρια. Οι AI servers μπορεί να κοστίζουν από 100.000 έως 200.000 δολάρια, ειδικά όταν είναι εξοπλισμένοι με τους τελευταίους επεξεργαστές της Nvidia, αναφέρει ο Fung.
Ως αποτέλεσμα, μόλις τέσσερις εταιρείες –Amazon, Google, Meta και Microsoft– θα αντιπροσωπεύουν σχεδόν το ήμισυ των παγκόσμιων κεφαλαιουχικών δαπανών των κέντρων δεδομένων φέτος, σύμφωνα με τον ίδιο. Αρχικά, αναμένω ότι τα περισσότερα AI workloads θα βρίσκονται στο public cloud, αντί για on-premises, δεδομένου του υψηλού κόστους και της πιθανώς χαμηλής αξιοποίησης της AI υποδομής σε ιδιωτικά κέντρα δεδομένων. Καθώς οι επιχειρήσεις αποκτούν καλύτερη εικόνα της αξιοποίησης των AI workloads, μπορεί να τα επαναφέρουν σε on-premises περιβάλλοντα.
Οι προβλέψεις του λαμβάνουν υπόψη τις πρόσφατες εξελίξεις στο AI και την αποδοτικότητα των κέντρων δεδομένων. Για παράδειγμα, το ανοιχτού κώδικα AI μοντέλο της κινεζικής εταιρείας DeepSeek φαίνεται να έχει δείξει ότι ένα large language model (LLM) μπορεί να παράγει πολύ υψηλής ποιότητας αποτελέσματα με πολύ χαμηλό κόστος, χάρη σε έξυπνες αρχιτεκτονικές αλλαγές στον τρόπο λειτουργίας των μοντέλων. Αυτές οι βελτιώσεις είναι πιθανό να αντιγραφούν γρήγορα από άλλες AI εταιρείες. Πολλές από αυτές προσπαθούν να αναπτύξουν πιο αποδοτικά μοντέλα, λέει ο Fung. Υπάρχει μεγάλη προσπάθεια μείωσης του κόστους και βελτίωσης της αποδοτικότητας.
Επιπλέον, οι hyperscalers σχεδιάζουν και κατασκευάζουν τους δικούς τους επεξεργαστές, βελτιστοποιημένους για τα AI workloads τους. Μόνο η αγορά των AI accelerators προβλέπεται να φτάσει τα 392 δισεκατομμύρια δολάρια έως το 2029, σύμφωνα με την Dell’Oro. Μέχρι τότε, οι προσαρμοσμένοι επιταχυντές θα ξεπεράσουν σε ζήτηση τους εμπορικά διαθέσιμους επιταχυντές, όπως οι GPUs. Η ανάπτυξη αποκλειστικών AI servers επηρεάζει επίσης τα δίκτυα, την παροχή ενέργειας και την ψύξη. Ως αποτέλεσμα, οι δαπάνες για τη φυσική υποδομή των κέντρων δεδομένων (Data Center Physical Infrastructure – DCPI) θα αυξηθούν επίσης, αν και με πιο μέτριο ρυθμό, αυξανόμενες κατά 14% ετησίως, φτάνοντας τα 61 δισεκατομμύρια δολάρια το 2029.
Οι DCPI εγκαταστάσεις είναι προαπαιτούμενο για την υποστήριξη των AI workloads, αναφέρει η Tam Dell’Oro, ιδρύτρια της Dell’Oro Group, στην έκθεση. Η εταιρεία αναθεώρησε προς τα πάνω τις προβλέψεις της σε αυτόν τον τομέα, καθώς τα πραγματικά αποτελέσματα του 2024 ξεπέρασαν τις προσδοκίες της, ενώ η ζήτηση εξαπλώνεται από τους παρόχους cloud πρώτης βαθμίδας (tier one) στους παρόχους δεύτερης βαθμίδας (tier two). Επιπλέον, κυβερνήσεις και τηλεπικοινωνιακοί πάροχοι πρώτης βαθμίδας εμπλέκονται στην επέκταση των κέντρων δεδομένων, καθιστώντας την τάση μακροπρόθεσμη.
Η τεχνητή νοημοσύνη θα έχει σημαντική επίδραση στη δικτύωση. Η αγορά προσαρμογέων δικτύου Ethernet για την υποστήριξη back-end networks σε AI compute clusters προβλέπεται να αυξηθεί με ετήσιο σύνθετο ρυθμό ανάπτυξης 40% έως το 2029. Το AI απαιτεί επίσης τεράστιες ποσότητες ενέργειας. Σύμφωνα με την Dell’Oro, η μέση πυκνότητα ισχύος ανά rack σήμερα είναι περίπου 15 κιλοβάτ, αλλά οι AI workloads απαιτούν 60 έως 120 κιλοβάτ ανά rack.
Άλλες έρευνες υποστηρίζουν αυτές τις προβλέψεις. Για παράδειγμα, σύμφωνα με στοιχεία της IDC, η ενεργειακή κατανάλωση των κέντρων δεδομένων που σχετίζεται με AI προβλέπεται να αυξηθεί κατά 45% ετησίως, φτάνοντας τις 146 τεραβατώρες έως το 2027. Η McKinsey αναφέρει ότι ένα κέντρο δεδομένων 30 μεγαβάτ θεωρούνταν μεγάλο πριν από δέκα χρόνια. Σήμερα, μια εγκατάσταση 200 μεγαβάτ θεωρείται φυσιολογική, σημειώνεται σε έκθεση του Δεκεμβρίου.
Λόγω του AI, οι μέσες πυκνότητες ισχύος έχουν υπερδιπλασιαστεί τα τελευταία δύο χρόνια, από 8 κιλοβάτ ανά rack σε 17, και αναμένεται να φτάσουν έως και 30 έως το 2027, σύμφωνα με την McKinsey. Η εκπαίδευση ενός AI model όπως το ChatGPT μπορεί να καταναλώσει περισσότερα από 80 κιλοβάτ ανά rack, ενώ οι τελευταίοι επεξεργαστές της NVIDIA και οι διακομιστές της απαιτούν πυκνότητες έως και 120 κιλοβάτ ανά rack.
Εν τω μεταξύ, τα τρέχοντα συστήματα air cooling έχουν ανώτατο όριο αποτελεσματικότητας περίπου στα 50 κιλοβάτ ανά rack. Ως αποτέλεσμα, οι διαχειριστές κέντρων δεδομένων αρχίζουν να εφαρμόζουν λύσεις liquid cooling. Σύμφωνα με έκθεση της IDC που δημοσιεύθηκε τον Σεπτέμβριο, το 50% των οργανισμών με high-density racks χρησιμοποιούν πλέον liquid cooling ως κύρια μέθοδο ψύξης. Για μεγάλα κέντρα δεδομένων – εκείνα με πάνω από 20MW – το 38% έχει ήδη υιοθετήσει την direct liquid cooling.