AI-sector: De groei in Hybride intelligentie
Kunstmatige intelligentie ontwikkelt zich in razend tempo tot de grootste technologische revolutie sinds het internet. Zoals bij elke grote uitvinding in de geschiedenis ontstaat er ook nu een bubbel.
Van spoorwegen tot elektriciteit, van radio tot internet – telkens wanneer een baanbrekende technologie opkomt, volgt er een periode van euforie en overinvestering.
Wil je alle artikelen kunnen lezen en elke podcast beluisteren? Neem dan een abonnement en krijg toegang tot alle artikelen en de database met duizenden berichten.
De AI-hausse vormt daarop geen uitzondering. De waarderingen zijn opgeblazen, de verwachtingen buitensporig, en het lijkt vrijwel onvermijdelijk dat deze bubbel binnen nu en twee jaar barst. Maar er is meer.
- De AI-bubbel kan barsten binnen nu en twee jaar
- Het barsten van de bubbel markeert niet het einde
- Het luidt juist het begin in van een nieuwe beleggingsfase
- De volgende fase draait om efficiëntie en real-world toepassingen
- Hybride en on-device AI worden de nieuwe standaard
- De focus verschuift van schaal naar intelligent energiegebruik
Hybride intelligentie: datacenters en je eigen device
Toch betekent dat niet dat de revolutie zelf tot stilstand komt. Achter de dreigende crash ontvouwt zich juist de volgende fase van technologische evolutie: de verschuiving naar on-device en hybride intelligentie. Het samenspel van datacenters en je eigen device.
De grenzen van schaal
De huidige fase van kunstmatige intelligentie draait volledig om schaal. De overtuiging in de sector is dat grotere modellen automatisch slimmer worden. Bedrijven als OpenAI, Google en Anthropic investeren miljarden in infrastructuur, GPU’s en energie om steeds grotere taalmodellen te trainen. De race draait om het aantal parameters, de omvang van datasets en de hoeveelheid rekenkracht.
Toch worden de grenzen steeds zichtbaarder. Elke nieuwe generatie modellen levert minder verbetering op, terwijl de kosten en het energieverbruik exponentieel stijgen.
Het trainen van een enkel model kan honderden miljoenen kosten en evenveel stroom verbruiken als een kleine stad. De schaarste aan geavanceerde chips, koelcapaciteit en grondstoffen maakt de aanpak steeds moeilijker vol te houden.
Schaalbaarheid is lange tijd de motor van vooruitgang geweest, maar het begint nu een beperking te worden. De industrie beseft dat pure kracht alleen niet meer voldoende is. De focus verschuift van groter naar slimmer – van rekenkracht naar efficiëntie.
De hardware-revolutie
Tegelijkertijd voltrekt zich een hardware-revolutie die de verhoudingen op zijn kop zet. De nieuwste generaties processors combineren CPU’s, GPU’s en NPU’s in één geïntegreerde architectuur.
De NPU’s (Neural Processing Units) vormen de kern van deze verandering. Ze voeren neurale berekeningen uit met een fractie van het energieverbruik van traditionele GPU’s. Waar GPU’s ontworpen zijn voor brute kracht, zijn NPU’s geoptimaliseerd voor patroonherkenning, taalverwerking en besluitvorming – precies de functies waarop moderne AI draait.
Dankzij deze innovatie kan kunstmatige intelligentie nu rechtstreeks op apparaten draaien. On-device AI maakt het mogelijk dat een smartphone spraak herkent, een laptop teksten genereert of een auto objecten analyseert zonder verbinding met de cloud. Dit maakt systemen sneller, veiliger en energiezuiniger.
Fabrikanten zoals Apple, Qualcomm, AMD en Intel bouwen voort op deze trend. Hun nieuwste chips zijn ontworpen om AI-taken lokaal uit te voeren en markeren de overgang naar een tijdperk waarin elk apparaat zelfstandig kan denken.
De verschuiving naar on-device en hybride intelligentie
De cloud blijft onmisbaar, maar haar rol verandert fundamenteel. Waar ze ooit het exclusieve centrum van AI was, fungeert ze nu als partner in een breder ecosysteem.
Niet alle berekeningen kunnen lokaal plaatsvinden – sommige taken vereisen nog steeds enorme rekenkracht. Daarom groeit er een model waarin cloud en apparaat samenwerken: hybride intelligentie.
In dit hybride model bepaalt software met behulp van adaptive compute waar een taak het meest efficiënt kan worden uitgevoerd. Kleine en directe berekeningen vinden plaats op het apparaat; zware of complexe taken worden doorgestuurd naar de cloud. Zodra de berekening is afgerond, keert de controle terug naar het apparaat.
Adaptive compute verandert de manier waarop rekenkracht wordt ingezet. Het systeem verdeelt taken dynamisch, afhankelijk van snelheid, energieverbruik en capaciteit. Zo ontstaat een vloeiende samenwerking tussen lokale kracht en wereldwijde infrastructuur – de kern van het nieuwe AI-tijdperk.
De nieuwe maatstaf: prestaties per watt
De manier waarop de industrie succes meet, verandert ingrijpend. Waar tot voor kort de maatstaf tokens per dollar gold – de hoeveelheid output per dollar aan rekenkracht – wordt nu tokens per dollar per watt de leidende formule.
Efficiëntie wordt de bepalende factor. Een model dat razendsnel werkt maar een laptopbatterij in minuten leegtrekt, heeft geen waarde. Een datacenter dat miljarden watt verbruikt, is economisch en ecologisch onhoudbaar. Bedrijven die de beste balans vinden tussen prestaties, kosten en energie, zullen de winnaars van de volgende fase zijn.
Deze verschuiving naar efficiëntie is niet alleen technisch, maar ook strategisch. Ze dwingt bedrijven om na te denken over de hele keten – van chipontwerp tot energievoorziening – en markeert het begin van een nieuw tijdperk van duurzame intelligentie.
Drie convergerende revoluties
Drie parallelle ontwikkelingen versterken elkaar en versnellen de overgang naar hybride AI.
De hardware-revolutie brengt rekenkracht dichter bij de gebruiker. Nieuwe chiparchitecturen combineren CPU’s, GPU’s en NPU’s in één geïntegreerde eenheid die flexibel rekenkracht verdeelt.
De netwerk-revolutie verkleint de afstand tussen cloud en apparaat. Dankzij optische interconnects – ultrasnelle glasvezelverbindingen met minimale vertraging – kunnen data vrijwel in realtime worden verplaatst. De grens tussen lokaal en centraal vervaagt daardoor snel.
De software-revolutie zorgt ervoor dat AI-systemen leren nadenken over hun eigen efficiëntie. Dit fenomeen heet meta-AI: systemen die begrijpen hoe ze hun eigen rekenkracht het best kunnen organiseren. Ze analyseren voortdurend snelheid, energieverbruik en bandbreedte en kiezen automatisch de optimale balans.
Samen creëren deze drie revoluties een dynamisch netwerk waarin rekenkracht beweegt en zich aanpast aan de omstandigheden.
De edge als nieuwe spil
De rand van het netwerk – de zogeheten edge – groeit uit tot het kloppend hart van de AI-infrastructuur. Hier ontstaan de data, en hier vindt steeds meer verwerking plaats.
In plaats van alle informatie naar de cloud te sturen, voeren apparaten berekeningen uit aan de bron. Dit verlaagt de latency, vermindert energieverbruik en verhoogt de privacy.
Een zelfrijdende auto, een slimme fabriek of een medisch apparaat kan hierdoor autonoom beslissingen nemen zonder afhankelijk te zijn van constante internetverbinding.
De cloud blijft het collectieve geheugen waarin kennis wordt opgeslagen, gedeeld en verder ontwikkeld. De edge fungeert als het zenuwstelsel dat direct reageert. Samen vormen ze een zelflerend ecosysteem dat voortdurend optimaliseert.
De crash en de nieuwe fase
De huidige waarderingen in de AI-sector zijn onhoudbaar. Te veel bedrijven liften mee op de hype zonder dat hun technologie of winstmodel standhoudt. De markt bouwt spanning op, en een correctie lijkt nog slechts een kwestie van tijd.
Die crash die ooit komt zal hard aankomen, maar ze vormt geen einde – eerder een noodzakelijke herstart. Bedrijven zonder echte innovatie verdwijnen, terwijl ondernemingen met solide technologie, infrastructuur en verdienmodel sterker uit de storm komen.
Na de internetbubbel van 2000 bleven Amazon, Google en Apple over – bedrijven die sindsdien de wereld domineren. In de volgende golf van AI zal hetzelfde gebeuren: een kleine groep zal overleven en de fundamenten leggen voor de komende decennia.
De nieuwe economische logica
De verschuiving naar hybride AI verandert ook de economie achter technologie. Kostenstructuren verschuiven van kapitaalintensieve datacenters naar flexibele, energiezuinige netwerken. Bedrijven investeren niet langer alleen in meer hardware, maar in optimalisatie en balans.
Deze transformatie maakt de markt opener. Waar eerder alleen de allergrootsten konden concurreren, ontstaat nu ruimte voor kleinere, gespecialiseerde spelers die specifieke onderdelen van de keten verbeteren: chipontwerpers, software-optimaliseerders, energiebedrijven en netwerkbouwers.
De economische waarde van AI verschuift van kwantiteit naar kwaliteit. Niet wie de meeste data bezit, maar wie ze het slimst inzet, bepaalt de toekomst.
De kans voor beleggers
Voor beleggers is dit een kantelmoment. De huidige hausse is riskant en eindigt waarschijnlijk met een forse correctie tussen nu en 2 jaar, maar onder die correctie ligt een solide basis.
De tweede golf zal worden gedragen door bedrijven die echte waarde leveren: infrastructuur, chips, energie-efficiëntie en software die hybride AI mogelijk maakt.
Wie de discipline heeft om voorbij de hype te kijken en zich richt op ondernemingen die de brug bouwen tussen cloud en apparaat, positioneert zich voor de structurele groei van het komende decennium.
De geschiedenis herhaalt zich altijd op dezelfde manier: euforie, crash, consolidatie. En precies in die consolidatiefase ontstaan de grootste winsten.
De blijvende evolutie
De evolutie naar hybride AI is niet te stoppen. Ze komt niet voort uit hype, maar uit noodzaak. De wereld heeft behoefte aan snellere, veiligere en duurzamere rekenkracht. Elk apparaat, elke fabriek en elk netwerk krijgt een stukje intelligentie.
Wil je alle artikelen kunnen lezen en elke podcast beluisteren? Neem dan een abonnement en krijg toegang tot alle artikelen en de database met duizenden berichten.
Wanneer de huidige bubbel barst, zal de markt zich zuiveren, maar de technologie zal zich verder ontwikkelen. AI verspreidt zich over alle sectoren – van industrie tot gezondheidszorg, van energie tot financiën.
Conclusie
De hype zal verdwijnen, maar de fundamentele waarde groeit. De toekomst van kunstmatige intelligentie draait niet langer om meer, maar om beter: slimmer, efficiënter en menselijker. En precies daar, in de verschuiving naar on-device en hybride intelligentie, begint de volgende grote fase van de technologische evolutie.
Wil je alle artikelen kunnen lezen en elke podcast beluisteren? Neem dan een abonnement en krijg toegang tot alle artikelen en de database met duizenden berichten.
🔵 English version
Artificial Intelligence: From Bubble to New Phase
Artificial intelligence is evolving at an extraordinary pace, rapidly establishing itself as the most transformative technological revolution since the advent of the internet.
As with every groundbreaking invention throughout history, a speculative bubble is forming. From railways to electricity, from radio to the internet — every disruptive innovation has unleashed a period of euphoria and overinvestment.
The ongoing AI boom is no exception. Valuations have become inflated, expectations have grown excessive, and it appears almost inevitable that this bubble will burst within the next two years.
- The AI bubble could burst within the next two years
- The bursting of the bubble will not mark the end
- It will instead mark the beginning of a new investment phase
- The next stage revolves around efficiency and real-world adoption
- Hybrid and on-device AI will become the new standard
- The focus will shift from scale to intelligent energy usage
Yet, this does not imply that the revolution will come to a halt. Beneath the surface of the impending correction, a new technological era is emerging — one defined by the transition toward on-device and hybrid intelligence.
The limits of scale
The current phase of artificial intelligence is entirely dominated by the pursuit of scale. The prevailing belief within the industry is that larger models automatically become smarter. Companies such as OpenAI, Google, and Anthropic are investing billions of dollars into infrastructure, GPUs, and energy to train increasingly massive language models. The competitive race revolves around parameter count, dataset size, and total computational capacity.
However, the boundaries of this scaling approach are becoming increasingly evident. Each successive generation of models delivers diminishing improvements, while the associated costs and energy consumption rise exponentially. Training a single next-generation model can cost hundreds of millions of dollars and consume as much electricity as a small city. Meanwhile, the scarcity of advanced chips, cooling capacity, and critical materials is creating additional bottlenecks that make this trajectory increasingly unsustainable.
For years, scalability has been the primary engine of progress, but it is now becoming a constraint. The industry is recognizing that brute computational force alone is no longer enough to drive meaningful innovation. The focus is beginning to shift from bigger to smarter — from raw computing power to efficient intelligence.
The hardware revolution
At the same time, a profound hardware revolution is underway that is reshaping the structural foundations of the AI industry. The latest generations of processors are combining CPUs, GPUs, and NPUs into unified, tightly integrated architectures designed to handle intelligent workloads more efficiently than ever before.
NPUs — Neural Processing Units — form the core of this transformation. They perform neural computations using only a fraction of the power consumed by traditional GPUs. While GPUs were originally designed for general-purpose parallel processing and brute-force rendering, NPUs are purpose-built for neural pattern recognition, natural language processing, and decision-making — precisely the domains where modern AI systems operate most intensively.
This technological shift enables artificial intelligence to run directly on devices rather than depending exclusively on the cloud. On-device AI allows a smartphone to recognize speech, a laptop to generate text, or an autonomous vehicle to analyze and interpret its environment — all without requiring a permanent connection to a remote data center. The outcome is faster response times, greater privacy protection, and significantly lower energy consumption.
Manufacturers such as Apple, Qualcomm, AMD, and Intel are expanding aggressively into this domain. Their latest chips are specifically designed to execute AI tasks locally, marking the start of an era in which every device becomes capable of independent cognition — a foundational change that will define the next generation of computing.
The shift toward on-device and hybrid intelligence
The cloud remains indispensable, but its function within the AI ecosystem is evolving. Once the exclusive center of gravity for AI computation, it now operates as a partner in a distributed and more dynamic architecture. Not all computational tasks can be handled locally; some require immense centralized resources. Hence, a new model is emerging — hybrid intelligence — in which cloud and device cooperate seamlessly to optimize efficiency and performance.
In this hybrid model, adaptive compute frameworks determine where each task should be executed. Simple or latency-sensitive operations are processed directly on the device, while large-scale or complex computations are offloaded to the cloud. Once the processing is complete, the results are transmitted back, and control returns to the local system.
Adaptive compute is revolutionizing how computational power is deployed and balanced. By dynamically allocating tasks according to energy, latency, and capacity parameters, it establishes a fluid interplay between local power and global infrastructure — the defining architecture of the next AI era.
The new metric: performance per watt
The criteria by which success in AI is measured are undergoing a fundamental transformation. Until recently, the dominant benchmark was tokens per dollar — the amount of output generated per dollar of compute. Going forward, the decisive metric will be tokens per dollar per watt — performance adjusted for energy efficiency.
Efficiency is becoming the industry’s defining constraint and competitive differentiator. A model that operates at extreme speed but drains a laptop battery in minutes has no practical value. Similarly, a data center consuming billions of watts is neither economically viable nor environmentally sustainable. The winners of the next AI cycle will be those companies capable of delivering the optimal balance between computational performance, cost, and power efficiency.
This transition toward efficiency is not merely technical — it is strategic. It forces enterprises to rethink their entire operational chain, from semiconductor design to power infrastructure, marking the beginning of a new era of sustainable intelligence and responsible computing.
Three converging revolutions
Three major revolutions are now converging, reinforcing one another and collectively driving the acceleration toward hybrid AI.
The hardware revolution brings computing power closer to the end user. Next-generation chip architectures seamlessly integrate CPUs, GPUs, and NPUs into unified systems that distribute processing power dynamically according to workload demands.
The network revolution minimizes the distance between cloud and device. Thanks to optical interconnects — ultra-fast fiber-optic technologies with minimal latency — data can now be transmitted and processed almost instantaneously. The traditional boundary between local and centralized computation is fading rapidly.
The software revolution introduces AI systems that can reason about their own efficiency. This new concept, known as meta-AI, refers to systems capable of optimizing their own resource allocation. These systems continuously monitor their speed, energy consumption, and bandwidth usage, automatically adjusting operations to maintain the most efficient balance possible.
Together, these three revolutions are forming a dynamic computational network — an adaptive intelligence fabric in which computing power moves fluidly across the infrastructure, optimizing itself in real time.
The edge as the new core
The edge — the outer perimeter of the network — is becoming the new strategic center of AI infrastructure. It is at the edge that data is generated, and increasingly, it is also where computation takes place.
Rather than sending every piece of data to the cloud, devices are now performing computations directly at the source. This approach reduces latency, minimizes energy consumption, and enhances privacy. Whether in autonomous vehicles, industrial robotics, or medical devices, the ability to process data locally enables instant decision-making without constant connectivity.
The cloud, meanwhile, continues to function as the collective memory of the ecosystem — a global repository where data is stored, refined, and redistributed. The edge acts as the nervous system, responding immediately to stimuli. Together, they form a self-learning, self-optimizing digital organism that evolves continuously as it operates.
The coming correction
The current valuations across the AI sector are unsustainable. Too many companies are capitalizing on hype without delivering genuine technological innovation or sustainable business models. The market is building pressure, and a correction is increasingly unavoidable.
When this correction occurs, it will not mark the end of AI — rather, it will serve as a necessary reset. Companies lacking true innovation or operational resilience will disappear, while those with strong technological foundations, solid infrastructure, and viable profitability models will emerge stronger.
After the dot-com collapse of 2000, companies such as Amazon, Google, and Apple not only survived but went on to dominate the next technological era. The same pattern is likely to repeat: a select group of genuine innovators will endure, setting the foundations for decades of growth.
The new economic logic
The migration toward hybrid AI is transforming the economic structure of the technology industry itself. Capital-intensive data centers are giving way to more modular, energy-efficient networks. Corporate investment priorities are shifting from raw capacity expansion toward optimization, adaptability, and cost control.
This reconfiguration opens up the competitive landscape. Where once only the largest corporations could participate meaningfully in AI infrastructure, there is now room for smaller, specialized players that excel in targeted areas of the value chain: chip design, software optimization, energy distribution, and network engineering.
The economic value of AI is thus transitioning from quantity to quality. Success will no longer depend on who owns the most data, but on who can leverage data most intelligently — transforming raw information into actionable, efficient intelligence.
The opportunity for investors
For investors, this moment represents a structural inflection point. The current AI rally is fragile and will likely culminate in a correction, but beneath that correction lies a strong foundation for long-term growth. The second wave will be led by companies that deliver genuine value — those that enable infrastructure, semiconductors, energy efficiency, and the software frameworks that make hybrid AI scalable and sustainable.
Investors with the discipline to look beyond speculative hype and focus on businesses that bridge the cloud and the device will position themselves for sustained outperformance over the next decade.
Market cycles always follow the same rhythm: euphoria, crash, and consolidation. And it is precisely during the consolidation phase that the most substantial gains are realized.
The enduring evolution
The evolution toward hybrid AI is irreversible. It is driven not by hype, but by necessity. The world’s demand for faster, safer, and more sustainable computing continues to grow. Every device, every industrial system, and every digital network is becoming infused with intelligence.
When the current bubble bursts, the market will purge its excesses, but technological progress will not slow. AI will continue to expand across every major sector — from industry to healthcare, from energy to finance.
The hype will fade, yet the fundamental value will strengthen. The future of artificial intelligence will not be defined by size or scale, but by intelligence — by systems that are smarter, more efficient, and increasingly human in their adaptability.
And it is precisely within this transformation toward on-device and hybrid intelligence that the next great phase of technological evolution begins.
Disclaimer Aan de door ons opgestelde informatie kan op geen enkele wijze rechten worden ontleend. Alle door ons verstrekte informatie en analyses zijn geheel vrijblijvend. Alle consequenties van het op welke wijze dan ook toepassen van de informatie blijven volledig voor uw eigen rekening.
Wij aanvaarden geen aansprakelijkheid voor de mogelijke gevolgen of schade die zouden kunnen voortvloeien uit het gebruik van de door ons gepubliceerde informatie. U bent zelf eindverantwoordelijk voor de beslissingen die u neemt met betrekking tot uw beleggingen.