Met Rick Koopman, Technical Lead HPC en AI bij Lenovo, lopen we de mogelijkheden door. Hij heeft uitgebreide praktijkervaring met het inrichten van datacenters. AI speelt daarbij een steeds grotere rol.
Rick Koopman
1. Predictive failure analysis and maintenance
In heel veel machines zitten tegenwoordig sensoren waarmee, in nauwe samenwerking met firmware-algoritmes, bijvoorbeeld ongewenste trillingen of andere problemen kunnen worden waargenomen. Zo weet je wat je moet gaan vervangen voordat de machine daadwerkelijk vastloopt. In datacenters zul je volgens Koopman in de toekomst hetzelfde zien gebeuren. "Door de statische informatie die je al hebt over bijvoorbeeld je servers te complementeren met realtime IoT/sensor-data, kun je optimaal en pro-actief actie ondernemen en storingen voorkomen."
In High Performance Computing (HPC) servers zijn algoritmes in de firmware voor predictive failure analysis al heel gewoon. Patronen die niet voldoen aan de specificaties van de server worden automatisch door deze algoritmes herkend, waarna al dan niet geautomatiseerd actie wordt ondernomen. "Varierende stroomafname in een geheugenmodule kan bijvoorbeeld betekenen dat de module defect of verkeerd geplaatst is. Net als bij een netwerkmodule met een te lage bandbreedte of een drive die minder presteert, is het belangrijk dat dit soort dingen snel gesignaleerd wordt," stelt Koopman.
Alleen dan kun je in een vroeg stadium en op de juiste plek onderzoeken wat er aan de hand is. "Nu gebeurt het nog vaak dat men begint met het bestuderen van de applicatie als er iets misgaat, om er pas later achter te komen dat het probleem in de hardware zit. AI-algoritmes gebruik je hierbij om het datacenter op een slimmere manier operationeel te houden en optimaal gebruik te maken van de aanwezige systeem resources. Zodat de performance aan de verwachting blijft voldoen."
2. Optimaal resources inzetten en energiebesparing
Waar tien jaar geleden het idee leefde dat het energieverbruik en de hiervoor benodigde koelingscapaciteit flink zou afnemen dankzij optimalisaties van de hardware, blijkt het omgekeerde te gebeuren. "Omdat er nieuwe toepassingen in het datacenter komen, onder andere ten behoeve van Artificial Inteligence en Machine Learning, neemt de behoefte aan rekenkracht juist toe en worden processoren met steeds hogere wattages uitgebracht," vertelt Rick Koopman.
Zo verbruikt de eerstvolgende generatie Intel-processoren tot 300 Watt, waar dat eerst 100 Watt was of nu 200 Watt is. Bij grafische processoren loopt het verbruik in de nabije toekomst volgens Koopman zelfs op tot 500 Watt per GPU. "Met de hoge dichtheid van 72 servers per standaard rack, dreigt nu een immens probleem te ontstaan in datacenters. En het laatste wat je wilt is je racks maar voor een kwart vullen omdat je de benodigde koeling en power niet kunt leveren."
In HPC-omgevingen worden batch workloads al langer uitgevoerd via Energy Aware Scheduling, vertelt Koopman. "De eerste keer dat een workload draait wordt daarbij geïnventariseerd welke resources het nodig heeft. Als dat vooral geheugen en I/O is, heeft het geen zin de processoren van duizenden cluster-nodes in de Turbo-stand te laten staan. Door de frequentie van de processoren in dit geval dynamisch te reduceren voor de reken-nodes, bespaar je enorm veel energie terwijl de workload even snel klaar is."
In datacenters met realtime workloads wil je dit in realtime en dynamisch doen, en dus met AI. Dat is Energy Aware Runtime, waarbij een slim algoritme het zogenaamde MPI-verkeer van applicaties tussen de in de cluster operationele processoren analyseert. Hierdoor kan dynamisch een profiel worden toegekend en kunnen allerlei parameters steeds dynamisch worden aangepast. Zo kunnen processoren of extra geheugen worden teruggeschakeld. "Hiermee wordt het resourceverbruik in het datacenter op een slimme manier realtime geoptimaliseerd. Daar wordt in toenemende mate AI voor gebruikt, dat steeds nauwer met de firmware communiceert en zo kun je de slimme mogelijkheden die in servers zitten veel beter benutten."
3. Rekenkracht naar de edge brengen
Koopman denkt dat het gebruik van IoT-data in AI-algoritmes de komende jaren een enorme vlucht zal gaan nemen. Hij haalt het voorbeeld aan van een windmolenleverancier. Sowieso heeft die leverancier al een enorme hoeveelheid data verzameld ter ondersteuning van de besluitvorming rond het ontwerp en de plaatsing van windmolens, vertelt hij. Denk alleen al aan klimaatdata en geografische data. Daarnaast bevat elke windmolen vele duizenden sensoren.
Aanvullend versturen windmolens wereldwijd hun IoT-data naar het centrale datacenter. "Zelf ontwikkelde AI-algoritmes correleren al deze extra gegevens met de bestaande data, zoals over het klimaat en de bodemgesteldheid. Op basis van al deze gegevens kun je vervolgens inschatten hoe het ontwerp van de windmolens eruit moet komen te zien. Hoe groot moet de windmolen worden, waar kun je hem het beste plaatsen en hoe ontwerp je de turbine zodat hij het hoogste rendement levert."
Al die sensoren bij elkaar genereren enorme hoeveelheden data. Alles meteen naar het centrale datacenter versturen om daar via onder andere AI te worden verwerkt, vraagt nogal wat van de verbindingen en van de verwerkingscapaciteit van het datacenter zelf. Gelukkig is het helemaal niet nodig om altijd maar alle IoT-data naar het centrale datacentrum te versturen.
"Een deel van de verwerking kun je veel beter op de locatie zelf doen, zoals op de lokale servers van het windmolenpark of in de windmolen uit mijn voorbeeld. Een deel van het leergedeelte van AI verplaats je hiermee naar de edge van het netwerk," benadrukt Koopman. "Door die analyses op de locatie zelf uit te voeren, maak je veel efficiënter gebruik van zowel je centrale resources als je remote resources en voorkom je tegelijkertijd problemen met de bandbreedte." Het datacenter wordt er dus een stuk efficiënter door.
"Vandaar dat de early adaptors van IoT en AI na eerst een consolidatieslag te hebben gedaan, een deel van de intelligentie verplaatsen van het centrale datacenter naar de edge van het netwerk. Het gaat hierbij vooral om algoritmes voor correlaties en pre-processing van IoT data."
AI maakt het datacenter gebruikersvriendelijk
AI wordt dus op allerlei manieren gebruikt in het datacenter. Zeker is dat het datacenter met behulp van AI veel makkelijker te beheren is. Je behoudt er duidelijk zicht mee op hardware en resources, maar het heeft ook impact op de verwerking van de gegevens als het datacenter uitdijt naar de edge.
Reageer
Preview