Artificial Intelligence en de Analoge Revolutie

Voor velen voelt het nog niet als lang geleden dat we de overstap maakten van analoge naar digitale televisie. Sinds 1990 zijn digitale technologieën aan een sterke opmars begonnen en inmiddels kunnen we niet meer zonder. Processoren, camera’s en andere onderdelen die uitmaken van onze digitale apparaten zijn enorm gegroeid in efficiëntie, snelheid en kracht. Maar met de intrede van kunstmatige intelligentie (artificial intelligence) in ons dagelijks leven worden de limieten van deze vooruitgang snel zichtbaar. Hoe kan het dan toch dat deze sleuteltechnologie wordt gezien als dé transformerende technologie van deze eeuw?

De hardware maakt het mogelijk (of toch niet?)

Om de limieten en tekortkomingen van de huidige technieken te kunnen ontdekken moeten we eerst terug naar de basis van computertechnologie. De processoren en geheugens die alle berekeningen en algoritmes mogelijk maken zijn gebaseerd op eentjes en nulletjes. Deze binaire stroompjes maken het mogelijk alles tot op onvoorstelbare nauwkeurigheid tot achter de komma te berekenen. Ontwikkelingen in deze technieken sprongen van 1 bit, naar 4, 8, 32 en tegenwoordig 64 bits systemen. Door deze ontwikkelingen kan een computer veel meer getallen tegelijk gebruiken en opslaan in zijn programma’s.

Het opschalen van deze systemen om méér, sneller en efficiënter te kunnen werken heeft ertoe geleid dat we miljoenen datapunten kunnen analyseren en machine learning modellen kunnen trainen tot zelfs wel 530 miljard parameters in het ‘Megatron-Turing Natural Language Generation model’. Maar hoe toekomstbesteding is het om dit soort absurde getallen te trainen op supercomputers die dag en nacht draaien en een verbruik hebben van 2.646 kW? Voor de beeldvorming: een gemiddeld huishouden verbruikt minder in een heel jaar met 2479 kWh!

Ons brein is eigenlijk een efficiëntere computer

Het antwoord daarop is simpel: we moeten verduurzamen. De huidige processoren (CPU’s en GPU’s) die verantwoordelijk zijn voor het rekenwerk in artificial intelligence systemen zijn niet geschikt voor de toenemende datadruk. Het kost simpel weg te veel energie om deze modellen draaiende te houden en verder te blijven ontwikkelen met het huidige innovatietempo.

Gelukkig is er een oplossing: berekeningen bij benadering, ook wel ‘fuzziness’ genoemd. Afgekeken uit de voorloper op het gebied van intelligentie: de mens. Om een dier op een foto, of woord in een tekst te kunnen herkennen hebben we niet alle informatie nodig. Het brein van de mens is niet gebaseerd op rekenwerk tot op honderden getallen achter de komma nauwkeurig. We hebben misschien maar 20% van een foto, of alleen een omtrek van een dier nodig om het te kunnen herkennen. Of neem bijvoorbeeld een typefout of een woord met missende letters. De meeste mensen zullen nog steeds de ‘beteknns’ ervan kunnen begrijpen. De les? De nauwkeurigheid van het eindresultaat is niet afhankelijk van de nauwkeurigheid van de bijkomende tussenstappen. Door dit principe toe te passen in processoren kan exponentieel bespaard worden op schaal en energieverbruik. Een 64-bits systeem dat gebruikt wordt voor AI kan terug naar 8-, 4- of misschien wel 2-bits, met alle besparingen van dien.

AI by Design

Naast dat de maximale nauwkeurigheid van berekeningen in een neuraal netwerk niet bepalend zijn voor de optimale werking van een AI-algoritme, zijn er nog meer hardware-ontwikkelingen mogelijk om efficiënter met onze middelen om te gaan. AI by Design noem ik het, beter bekend als ‘Analog AI’. Analoge artificial intelligence wordt mogelijk gemaakt door veranderingen in semiconductor architecturen. Hierdoor worden chips niet langer ontworpen volgens de von Neumann architectuur. In plaats daarvan zal het ontwerp van neurale netwerken vertaald worden naar programmeerbare nodes op de chip zelf, door middel van ’Phase-Change Memory (PCM)’. Geschatte energie besparingen met deze techniek ten opzichte van traditionele CPU’s zijn een factor 10.000 tot 2.000.000 per berekening. Reken deze besparing door over miljarden individuele berekeningen die nodig zijn om een neuraal netwerk te trainen en de besparingen zijn immens.

Enorme kansen voor subsidies

Dat artificial intelligence een krachtige techniek is staat buiten kijf, maar om het daadwerkelijk toekomstbestendig te maken is nog een lange weg te gaan. Met name op gebied van duurzaamheid en performance is veel verbetering nodig. Kennisinstellingen, de halfgeleider industrie en ontwikkelaars van AI-modellen moeten veel werk verzetten (al dan niet samen) om oplossingen vanuit het lab naar de praktijk te brengen.

Oftewel, analoge AI gaat de komende jaren voor enorme kansen zorgen in de gehele sector, van onderzoek tot ontwerp, testen en productie. Over de hele breedte gaan investeringen plaatsvinden om deze techniek werkelijkheid te laten worden. Een ideaal topic dus voor subsidieverstrekkers in binnen- en buitenland. Denk aan Horizon Europe of EFRO maar ook de MIT R&D is zeer geschikt voor samenwerkingen in dit vakgebied.

Meer informatie over AI-subsidies

Bent u nieuwsgierig geworden naar meer informatie? Of wilt u bijdragen aan deze uitdagingen? Spar met mij over deze ontwikkelingen, het vormen van een consortium of de subsidiemogelijkheden voor uw AI-project. Dit kan tijdens een vrijblijvende kennismaking! Neem contact met mij op via het emailadres k.olderikkert@hezelburcht.com of bel direct naar 088 495 20 00.

Plan een vrijblijvend adviesgesprek in

contact

Kom in contact met specialist Koen Olde Rikkert via k.olderikkert@hezelburcht.com of bel direct naar 088 495 20 00. Of laat uw gegevens achter via onderstaand formulier: