Skip to main content

W 1956 roku Kongres Stanów Zjednoczonych wprowadził federalną ustawę o pomocy drogowej, która była dotychczas największym projektem robót publicznych w historii Ameryki. Zobowiązał się do pokrycia 90 proc. kosztów budowy 66 tys. km autostrad. Pomimo wzniosłych intencji i zrewolucjonizowania poruszania się po USA, autostrady miały wiele negatywnych konsekwencji. Począwszy od  burzenia tkanki miejskiej (w tym całych dzielnic), rozrostu slumsów i nierówności, po zanieczyszczenia środowiska, wynikające z nadmiernej roli samochodów.

Moshe Tanach współzałożyciel i CEO startupu NeuReality uważa, że negatywne skutki, jakie przyniosła ta w założeniu słuszna ustawa są dobrą lekcją dla tego co dziś dzieje z AI. Pytanie jest dziś takie: czy gdybyśmy mieli szansę zrobić to jeszcze raz, to czy wybralibyśmy rozwiązanie bazujące głównie na autostradach i samochodach, czy może jednak dużo mocniej postawilibysmy na sieć pociągów dużych prędkości, jak w Japonii czy w dużych krajach UE.

Dziś głównym wyzwaniem z jakimi zmaga się branża technologiczna jest to, czy wytworzymy wystarczająco dużo energii, aby obsłużyć rosnącą liczbę centrów danych opierających się na sztucznej inteligencji? Parafrazując słowa prezydenta Eisenhowera, można się zastanawiać: „czy łącząc dynamiczne systemy komunikacji i transportu wokół AI, położymy podwaliny pod zjednoczoną przyszłość, czy też podzielimy się na enklawy pogłębiające społeczne zróżnicowanie i przepaść między różnych beneficjentów nowej technologii?

AI potrzebuje ogromnych ilości energii, żeby zaspokojenia żarłocznego zapotrzebowania algorytmów na energię. Według Światowego Forum Ekonomicznego moc obliczeniowa potrzebna do utrzymania rozwoju sztucznej inteligencji podwaja się mniej więcej co 100 dni. Wyzwanie tym większe, że dążąc do neutralności klimatycznej, do minimum powinniśmy ograniczać wzrost zapotrzebowania na energię, bo to jeszcze bardziej utrudni proces dekarbonizacji źródeł energii. 

Rozwiązać możemy to na dwa sposoby. Albo dostarczymy większej ilości energii do zasilania sztucznej inteligencji (czyli budując więcej autostrad) albo podejdziemy do tego rozsądniej koncentrując się na obniżeniu koszty energii AI (czyli inwestując w koleje dużych prędkości). Jedna ścieżka prowadzi do przyszłości wysysające energię i niszczącej klimat, druga zaś jest zrównoważona i zyskowna.

Dobra wiadomość jest taka, że ​​na kilku frontach już widać ruch, który pokazuje, że drastyczne obniżenie kosztów energii u źródła — samego centrum danych AI — jest możliwe. To podejście nie tylko sprawia, że ​​AI jest bardziej przystępne cenowo; ma ono na celu fundamentalne zmniejszenie zużycia energii na operację AI. Poprzez poprawę wydajności na poziomie sprzętu i oprogramowania możemy przetwarzać więcej zadań AI przy mniejszym zużyciu energii, zamiast po prostu umożliwiać większe wykorzystanie przy niższym koszcie. 

Badacze tacy jak Sara Hooker opowiadają się za scentralizowanym systemem oceny, który ocenia efektywność energetyczną modeli AI, podobnie jak samochody są oceniane pod kątem standardów energetycznych. Jednocześnie MIT Lincoln Laboratory Supercomputing Center opracowuje techniki , takie jak ustalanie limitów mocy, jaką mogą pobierać określone komponenty, oraz narzędzia, które zatrzymują szkolenie AI wcześniej niż zwykle, wszystko po to, aby znaleźć sposoby na zmniejszenie mocy, efektywne szkolenie modeli i uczynienie zużycia energii przejrzystym. Możemy również spojrzeć na Europę, gdzie ponad 100 operatorów centrów danych zobowiązało się do uczynienia swoich lokalizacji neutralnymi dla klimatu do 2030 r.

Jednym z ciekawszych podejść jest znalezienie sposobu na całkowite wyeliminowanie procesorów CPU (centralnych jednostek przetwarzania) w serwerach wnioskowania AI. Skasowanie tego głównego wąskiego gardła w uruchamianiu wyszkolonych modeli AI znacznie poprawiłoby wydajność i efektywność centrów danych AI.

W przeciwnym razie byłoby to tak, jakby budować wszystkie te szybsze samochody sportowe i SUV-y z obsługą sztucznej inteligencji, ale korzystać z tych samych starych dróg bez czujników, sygnałów lub danych satelitarnych, aby wskazać tym pojazdom najlepszą, najefektywniejszą trasę w danym dniu lub godzinie — lub informować o zbliżającym się pojeździe na niewłaściwym pasie.

To niezwykłe, że ta sama infrastruktura procesorów, która napędzała nasze komputery osobiste i erę Internetu, obecnie utrudnia postęp w erze sztucznej inteligencji. Można to próbować robić pomijając główny procesor i zwiększyć wydajność chipów AI. Albo budować chipy specjalnie zaprojektowane do przetwarzania sztucznej inteligencji,

Jeśli chodzi o przyszłość AI, to możemy albo dużo zainwestować w przestarzałe sposoby dostarczania energii, które dodatkowo obciążają nasze obecne sieci energetyczne, albo znaleźć sposób na obniżenie kosztów u źródła – samego centrum danych AI – dzięki wbudowanej inżynierii systemów wykonuje większość tej ciężkiej pracy.

Jeszcze nie dodano komentarza!

Twój adres nie będzie widoczny publicznie.