Navigation

đŸ’„ DeepSeek Engram verandert alles: Geheugen aan vooravond crash? - HERHALING

đŸ’„ DeepSeek Engram verandert alles: Geheugen aan vooravond crash? - HERHALING
SCE Trader

Dit artikel is op woensdag al geplaatst en wordt nu herhaald.

Binnenkort kan het feest bij aandelen zoals Micron wel eens voorbij zijn. De nieuwe Engram-architectuur van DeepSeek is geen lek en geen academische voetnoot, maar een gepubliceerde en verifieerbare ontwrichting van de AI-kostenstack. Zie ook Github pagina.

Dit artikel is een deep read en de visie op Micron: laten we beginnen

De kern is dat hiermee de zogenoemde “HBM Wall” zijn geldigheid verliest. Waar de halfgeleidersector de afgelopen twee jaar een lineaire relatie heeft ingeprijsd tussen modelintelligentie en HBM-consumptie, laat Engram zien dat deze relatie architectonisch kan worden doorbroken.

  • Geen lek, maar een publiek gevalideerde architectuur
  • Lineaire HBM-schaalbaarheid wordt aantoonbaar doorbroken
  • Timing valt samen met het begin van een memory-supercyclus
  • De AI-kostenstructuur verandert fundamenteel, niet marginaal

Engram bestaat uit een 27B conditional-memory module die een 100B-parameter knowledge table buiten de GPU kan houden met slechts circa 1,9% tot 2,8% throughput-verlies.

Deze doorbraak arriveert exact op het moment dat conventionele DRAM-contractprijzen volgens TrendForce in het eerste kwartaal van 2026 met 55% tot 60% kwartaal op kwartaal stijgen.

Daarmee wordt niet alleen technologie herijkt, maar ook de volledige bill of materials van AI-systemen structureel herprijsd. Het monopolie van de GPU-cluster verzwakt; het tijdperk van de gelaagde geheugenhiërarchie is begonnen.

Investment view

Wij zien hier een asymmetrisch risico voor de geheugenmarkt ontstaan. Als architecturen zoals Engram tractie krijgen bij westerse AI-spelers, dan wordt de huidige HBM-vraag structureel overschat. De sector bouwt capaciteit alsof HBM permanent de bottleneck blijft, terwijl Engram laat zien dat kennis losgekoppeld kan worden van rekenkracht.

Dat opent een scenario waarin binnen één tot twee jaar een omslag kan plaatsvinden van structurele schaarste naar overcapaciteit. Wij zitten long in Micron en profiteren van het huidige momentum, de prijsstijgingen en het AI-narratief.

  • Long Micron, maar tactisch en niet blind
  • Geen bijbouw op deze niveaus
  • Korte termijn kan momentum doorzetten
  • Middellange termijn neemt cyclisch risico toe
  • Kans op scherpe daling bij omslag in verwachtingen

Op de korte termijn is verdere winst mogelijk en zelfs aannemelijk. Tegelijk kopen wij hier niet bij en zijn zelfs al voorbeid om short te gaan om een gegeven moment.

Juist omdat de combinatie van nieuwe fabrieken, agressieve capex en een veranderende architectuur de kans vergroot dat deze sector op termijn hard kan draaien. Een scherpe daling kan zich dan snel en abrupt inzetten zodra de markt vooruit begint te kijken.

Nuance: wat DeepSeek Engram écht betekent voor Micron

De impact van de DeepSeek Engram-architectuur op Micron is niet eenduidig negatief, maar verandert wel fundamenteel de aard van de beleggingscase.

Waar Micron tot voor kort vooral werd gezien als een structurele winnaar van een langdurige AI-gedreven geheugensupercyclus, verschuift het risicoprofiel nu richting cyclische volatiliteit, waarderingsgevoeligheid en timingrisico.

  • De markt waardeert Micron alsof de AI-gedreven geheugensupercyclus blijvend is, wat de waardering kwetsbaar maakt
  • Engram doorbreekt de aanname dat HBM-verbruik per AI-model lineair blijft stijgen
  • Architecturale efficiĂ«ntie verschuift het zwaartepunt van structurele groei naar cyclische timing
  • De waardering reageert daardoor sterker op verwachtingswijzigingen dan op actuele cijfers
  • Zodra het supercyclus-narratief breekt, is een abrupte herwaardering mogelijk die kan uitmonden in een crash van het aandeel

De markt waardeert Micron momenteel alsof de AI-gedreven geheugensupercyclus structureel en blijvend is. In die waardering zijn aanhoudend hoge marges, blijvende schaarste en een lineair oplopende vraag naar high-bandwidth memory verdisconteerd.

Juist dat uitgangspunt komt door Engram onder druk te staan. De architectuur ondergraaft de aanname dat AI-modellen naarmate zij groter worden automatisch steeds meer HBM nodig hebben.

Door kennislagen slim te verplaatsen naar DDR5 kan de HBM-intensiteit per model worden afgevlakt. Daarmee verschuift het risico van zichtbare groei naar cyclische timing, en wordt de waardering gevoeliger voor verwachtingsveranderingen dan voor korte-termijnresultaten.

Deze verschuiving betekent dat het neerwaartse risico duidelijk toeneemt zodra de perceptie kantelt van een “permanente supercyclus” naar een “laat-cyclische piek”.

In dat scenario is het reëel dat het aandeel niet geleidelijk corrigeert, maar op enig moment abrupt kan crashen wanneer het vertrouwen in structurele schaarste omslaat naar angst voor overcapaciteit.

Micron verschuift daarmee van een narratief van lineaire, structurele AI-groei naar een profiel dat wordt gedomineerd door cyclische volatiliteit, waarderingsrisico en timinggevoeligheid.

De kern van de klassieke bull-case voor Micron was de zogenoemde “HBM Wall”: de veronderstelling dat AI-modellen onvermijdelijk steeds meer high-bandwidth memory nodig hebben naarmate zij opschalen.

De Engram-architectuur ondermijnt deze aanname door te laten zien dat modellen met meer dan 100 miljard parameters kunnen draaien met slechts een beperkte toename van HBM, doordat grote delen van de kennislaag worden verplaatst naar DDR5.

Als westerse hyperscalers zoals Meta, Google en Microsoft Engram-achtige architecturen adopteren, dan zijn de huidige uitbreidingsplannen voor HBM-capaciteit waarschijnlijk gebaseerd op een overschatte vraagcurve. Dat vergroot materieel de kans op overcapaciteit richting 2027.

Dit effect is extra problematisch omdat HBM aanzienlijk hogere marges kent dan standaard DDR5. Een structurele verschuiving in de AI bill of materials van HBM naar DDR5 is daarmee negatief voor de gemiddelde verkoopprijzen en het margeprofiel van Micron over de volledige geheugenstack. Zelfs als de afzetvolumes blijven groeien, verslechtert in dat scenario de kwaliteit van de omzet.

Tegelijkertijd lijkt Micron zich in een laat stadium van een zware investerings- en capaciteitsuitbreidingscyclus te bevinden. Grootschalige investeringen in nieuwe fabrieken en geavanceerde geheugenproductie zijn gedaan op basis van de verwachting van een blijvende AI-supercyclus.

Als de vraaggroei afvlakt door architecturale efficiëntie, zoals Engram laat zien, terwijl het aanbod verder toeneemt, dreigt Micron in de neergaande fase van een klassieke geheugencyclus terecht te komen.

Historisch gezien vallen juist deze fases samen met scherpe koersdalingen, niet omdat de omzet direct instort, maar omdat prijszettingsmacht snel verdampt zodra capaciteit piekt en de vraaggroei vertraagt.

Cruciaal daarbij is dat de markt Micron momenteel waardeert alsof deze supercyclus permanent is. Zodra beleggers collectief beginnen te beseffen dat het hier om een cyclische in plaats van een structurele beweging gaat, verloopt de herwaardering zelden geleidelijk.

In de geheugensector hebben dit soort regimewisselingen historisch vaker geleid tot abrupte multiple-compressie en snelle, diepe koersdalingen. Dat maakt het risico asymmetrisch: zolang het narratief intact blijft, kan het aandeel doorstijgen, maar zodra het breekt, is een scherpe crash reëel.

Deze middellange-termijnrisico’s nemen de korte-termijnmeevallers niet weg. De vraag naar DDR5, de zogenoemde “warm knowledge layer”, versnelt juist sterk. De door TrendForce voorspelde prijsstijging van 55 tot 60 procent kwartaal op kwartaal in het eerste kwartaal van 2026 biedt stevige steun op korte termijn.

Daarnaast profiteert Micron van de bevestiging van de zogeheten SNDK-premisse, waarbij “cold agentic history” verschuift naar enterprise-SSD’s. Dat vergroot de strategische relevantie van Microns NAND-activiteiten, die voorheen als secundair werden gezien.

Bovendien is de capaciteit voor 2026 in de sector feitelijk uitverkocht, waardoor de omzet voor de komende twaalf tot achttien maanden grotendeels vastligt. Engram zal daarom eerder de waarderingsmultiples beĂŻnvloeden dan de directe kasstromen.

De kern is dat Engram het businessmodel van Micron niet breekt, maar het risicoprofiel wezenlijk verandert. Het aandeel verschuift van een vermeende structurele AI-compounder naar een hoog-beta geheugencyclus-aandeel.

Het momentum kan op korte termijn aanhouden, maar het neerwaartse risico op middellange termijn neemt duidelijk toe, nu architecturale verschuivingen samenkomen met piekinvesteringen en een waardering die leunt op de aanname van een blijvende supercyclus.

Architectuur: Conditional Memory via Scalable Lookup

De architecturale doorbraak is beschreven in het paper “Conditional Memory via Scalable Lookup” en is expliciet geen vaag AI-veiligheidsconcept, maar harde hardware-co-design. Engram maakt gebruik van deterministische suffix N-gram lookups.

In tegenstelling tot standaard Transformers, die werken met dure en probabilistische attention-mechanismen, gebruikt Engram een hard-coded hashing-mechanisme dat uitsluitend afhankelijk is van de input token sequence.

Daardoor weet het model vooraf exact welk adres in een enorme externe geheugentabel de relevante informatie bevat.

  • Deterministische lookup vervangt fuzzy attention
  • Geheugenadres is vooraf bekend
  • Prefetch over PCIe maskeert latency
  • GPU blijft rekenen terwijl data wordt geladen
  • Worst-case performanceverlies blijft onder 3%

Die data kan vervolgens vooraf worden opgehaald uit host memory zoals DDR5 via de PCIe-bus, terwijl de GPU nog bezig is met de berekening van eerdere blocks. Compute en data-transfer overlappen elkaar, waardoor latency effectief wordt gemaskeerd.

DeepSeek toont in worst-case benchmarks, waarbij een volledige 100B-parameter knowledge table in host DRAM staat, een throughput-daling van slechts 9.031 naar 8.858 tokens per seconde. Dat is minder dan 3% verlies voor een enorme capaciteitsuitbreiding buiten de GPU.

Gelaagde geheugenhiërarchie en de SNDK-premisse

Door redeneren los te koppelen van kennis ontstaat een tweede as van sparsity. Als hot reasoning op HBM blijft, warm knowledge naar DDR5 verhuist en cold agentic history richting enterprise SSD’s gaat, ontstaat een natuurlijke hiĂ«rarchie. Dit valideert de SNDK-premisse: langdurige context en episodisch geheugen schalen goedkoper op NAND dan op RAM.

  • Hot: HBM voor latency-kritisch redeneren
  • Warm: DDR5 voor kennis en tabellen
  • Cold: SSD voor agentic history
  • NAND wordt functioneel geheugen
  • Opslag groeit uit tot strategische AI-laag

De opkomst van persistente AI-agents, digitale medewerkers die dagen of weken context nodig hebben, maakt een goedkope opslaglaag noodzakelijk.

Nieuwe agent-architecturen beginnen daarom episodisch geheugen naar NAND flash te verplaatsen, onder meer via Zone Storage om garbage collection-latency te beperken. In dit kader verkopen partijen als Western Digital en Samsung niet langer alleen opslag, maar functionele AI-geheugenlagen.

De economische arbitrage achter Engram

De rekenkundige impact is helder. Een uitbreiding van 100B parameters vereist ongeveer 200GB geheugen bij FP16-precisie. Opslag op HBM3e kost circa 3.600 dollar, op DDR5 ongeveer 900 dollar en op high-end NVMe SSD’s circa 40 dollar.

Deze bijna vier keer lagere kosten van DDR5 ten opzichte van HBM en de circa 90-voudige delta richting SSD’s maken van een ogenschijnlijk eenvoudige geheugenkeuze een macro-trade met hoge leverage.

  • Bill of materials wordt fundamenteel herijkt
  • HBM wordt premium in plaats van volumegedreven
  • DDR en NAND absorberen een groter deel van de groei
  • Capex verschuift binnen de geheugenketen
  • Prijszettingsmacht wordt cyclischer

Dit verklaart waarom DRAM-prijzen bij Samsung in het vierde kwartaal jaar op jaar met 313% stegen. Hyperscalers kopen nu al massaal “langzaam” geheugen om zich voor te bereiden op gelaagde architecturen, waarin HBM exclusief wordt gereserveerd voor de duurste logits en de hoogste performance-paden.

Kritiek, tegenargumenten en marktreactie

Sceptici wijzen erop dat Engram technisch een lookup-paper is en geen CXL-paper, en dat training van split-brain modellen nog steeds zware all-to-all GPU-communicatie vereist voor gradient-synchronisatie. De complexiteit verschuift daarmee van geheugenhoeveelheid naar interconnect-planning, waar slechte routing kan leiden tot latency-stalls.

  • Training blijft interconnect-intensief
  • Complexiteit verdwijnt niet, maar verschuift
  • Routing wordt kritischer dan capaciteit
  • Markt anticipeert al met hardware-aankopen
  • Adoptie lijkt eerder dan later

Tegenover dit argument staat de marktrealiteit. SK Hynix heeft aangegeven dat de volledige productie van DRAM, HBM en NAND voor 2026 reeds is uitverkocht. Dit hardwarepakket wordt niet gekocht voor klassieke servervraag, maar om een nieuwe generatie geheugen-gebonden AI-modellen te voeden die architectonisch sterk lijken op Engram.

De falsificatiedatum

Het beslissende moment voor deze thesis ligt rond medio februari 2026, samen met Lunar New Year. Meerdere signalen wijzen op een DeepSeek-V4 release in die periode. Als die release bevestigt dat host-memory conditional lookups in productie worden gebruikt, of als de API het kenmerkende latency-masking gedrag van een tiered memory system laat zien, dan is de HBM-only scaling law definitief voorbij.

In dat scenario verschuift de meest waardevolle real estate in het datacenter van de GPU-die zelf naar de interconnect, met PCIe 6.0 als strategische ruggengraat die GPU, host memory en storage verbindt. We bewegen dan naar cyborg-modellen waarin redeneren duur is, kennis goedkoop en architectuur allesbepalend.

  • Februari 2026 is het beslismoment
  • Bevestiging betekent een structurele regimewissel
  • HBM verliest zijn monopoliepositie
  • Interconnects winnen strategische waarde
  • Geheugenaandelen worden cyclischer

Conclusie

De Engram-architectuur van DeepSeek laat zien dat de huidige euforie rond HBM en AI-geheugen niet risicoloos is. HBM blijft cruciaal voor high-performance redeneren, maar verliest zijn status als allesbepalende bottleneck.

Dat maakt de sector kwetsbaar voor een klassieke cyclische omslag zodra capaciteit, capex en architectuur niet langer in balans zijn.

Wij blijven voorlopig profiteren van het momentum in Micron, maar zijn alert en selectief. Dit is geen fase om posities uit te breiden, maar een periode waarin timing, discipline en het herkennen van een naderende draai belangrijker worden dan het najagen van de laatste procenten koerswinst: totdat de crash daar is.


đŸ”” English version

DeepSeek Engram: a structural destabilization of the AI cost stack

Soon, the party in stocks such as Micron may well be over. The new Engram architecture from DeepSeek (see also this)is not a leak and not an academic footnote, but a published and verifiable destabilization of the AI cost stack. At its core, it invalidates the so-called “HBM Wall” .

Where the semiconductor complex has spent the past two years pricing in a linear relationship between model intelligence and high-bandwidth memory consumption, Engram demonstrates that this relationship can be broken architecturally.

Engram consists of a 27B conditional-memory module capable of keeping a 100B-parameter knowledge table entirely off-GPU with only a roughly 1.9% to 2.8% throughput penalty. This breakthrough arrives precisely as conventional DRAM contract pricing is forecast by TrendForce to rise 55% to 60% quarter over quarter in Q1 2026. As a result, this is not merely a technical adjustment, but a structural repricing of the entire AI bill of materials. The monopoly of the GPU cluster is weakening, and the era of the tiered memory hierarchy has begun.

  • This is a validated, published architecture, not a rumor
  • Linear HBM scaling assumptions are explicitly challenged
  • The timing coincides with the start of a memory supercycle
  • The AI cost structure is changing fundamentally, not marginally

Investment view

We see an asymmetric risk emerging for the memory sector. If architectures such as Engram gain traction among Western AI players, current assumptions about HBM demand are structurally overstated. Capacity is being built as if HBM will remain a permanent bottleneck, while Engram shows that knowledge can be decoupled from compute. This opens a scenario in which, within one to two years, the market could shift from structural scarcity to oversupply.

We are long Micron and are benefiting from current momentum, pricing power, and the AI narrative. In the short term, further upside is possible and even likely. At the same time, we are not adding to the position. The combination of new fabs, aggressive capex, and a shifting architecture materially increases the probability of a sharp downturn once the market begins to look forward.

  • Long Micron, but tactically, not blindly
  • No position building at current levels
  • Short-term momentum can persist
  • Medium-term cyclicality risk is rising
  • A sharp drawdown becomes plausible once expectations turn

Nuance: what the DeepSeek Engram architecture really means for Micron

The impact of the DeepSeek Engram architecture on Micron is not unambiguously negative. Rather, it fundamentally alters the nature of the investment case.

  • The market currently prices Micron as if the AI-driven memory supercycle is structural and persistent
  • Engram challenges the assumption of linearly rising HBM intensity per AI model
  • Architectural efficiency shifts risk from growth visibility to cycle timing
  • Valuation becomes more sensitive to changes in expectations than to near-term earnings
  • Downside risk increases if perception shifts from “permanent supercycle” to “late-cycle peak”

Micron is transitioning from a narrative of linear, structural AI-driven growth into a profile dominated by cyclical volatility, valuation risk, and timing sensitivity.

At the core of the traditional Micron bull case lies the so-called “HBM Wall,” the assumption that AI models require linearly increasing amounts of high-bandwidth memory as they scale. Engram directly undermines this premise by demonstrating that 100B+ parameter models can operate with minimal incremental HBM usage, instead offloading large portions of knowledge to DDR5. If Western hyperscalers such as Meta, Google, and Microsoft adopt Engram-like architectures, current HBM capacity expansion plans are likely built on an overstated demand curve. This materially raises the probability of overcapacity emerging around 2027.

This shift is particularly problematic because HBM carries meaningfully higher margins than standard DDR5. A structural rebalancing of the AI bill of materials away from HBM and toward DDR5 is therefore negative for Micron’s blended average selling prices and margin profile across the memory stack. While volumes may continue to grow, the quality of revenue deteriorates.

At the same time, Micron now appears to be late in a heavy investment and capacity expansion cycle. Large-scale spending on new fabs and advanced memory production has been justified by expectations of a persistent AI supercycle. If demand growth moderates due to architectural efficiency gains such as Engram while supply continues to ramp, Micron risks entering the down phase of a classic memory cycle. Historically, this phase has coincided with sharp equity drawdowns, not because revenues immediately collapse, but because pricing power erodes rapidly once capacity peaks and demand growth slows.

Crucially, Micron is currently valued by the market as if the AI-driven memory supercycle is permanent. Equity multiples increasingly discount a regime of structurally elevated margins, sustained pricing power, and uninterrupted AI-driven demand growth. This valuation framework is fragile. If the market begins to recognize that the supercycle is cyclical rather than permanent, the adjustment is unlikely to be gradual. Memory stocks historically do not peak when earnings roll over, but when investors collectively realize that a “new paradigm” is reverting to a normal cycle. When that realization sets in, multiples compress abruptly, sentiment shifts rapidly, and the stock can correct sharply even if near-term cash flows remain intact.

These medium-term risks do not negate near-term positives. Demand for DDR5, the “warm knowledge layer,” is accelerating sharply, and TrendForce’s forecast of a 55% to 60% quarter-over-quarter DRAM price increase in Q1 2026 provides strong short-term support. In addition, Micron benefits from validation of the so-called SNDK premise, as cold agentic history migrates toward enterprise SSDs, increasing the strategic relevance of Micron’s NAND business. Finally, with industry capacity for 2026 effectively sold out, revenues for the next 12 to 18 months are largely locked in, meaning Engram is more likely to affect valuation multiples ahead of time than immediate reported results.

The bottom line is that Engram does not break Micron’s business model, but it materially changes its risk profile. The stock shifts from being perceived as a structural AI compounder to a high-beta memory cycle play. Short-term momentum can persist, but medium-term downside risk rises significantly as architectural shifts collide with peak investment intensity and a valuation anchored to the assumption of a permanent supercycle.

Architecture: Conditional Memory via Scalable Lookup

The architectural breakthrough is detailed in the paper “Conditional Memory via Scalable Lookup” and is explicitly not a vague AI-safety concept, but ruthless hardware co-design. Engram relies on deterministic suffix N-gram lookups. Unlike standard Transformers, which depend on expensive and probabilistic attention mechanisms to retrieve facts, Engram uses a hard-coded hashing mechanism based solely on the input token sequence.

Because the model knows in advance exactly which address in a massive external memory table holds the relevant information, it can prefetch that data from host memory such as DDR5 over the PCIe bus while the GPU is still computing earlier blocks. Compute and data transfer overlap, effectively masking latency.

DeepSeek’s own worst-case benchmarks, with a full 100B-parameter knowledge table residing entirely in host DRAM, show throughput declining from 9,031 to 8,858 tokens per second. That represents a performance tax of less than 3% for a massive expansion of off-GPU capacity.

  • Deterministic lookup replaces fuzzy attention
  • Memory addresses are known in advance
  • PCIe prefetch masks latency
  • GPU compute continues while data is fetched
  • Worst-case performance impact remains under 3%

Tiered memory hierarchy and the SNDK premise

By decoupling reasoning from knowledge, a second axis of sparsity emerges. If “hot” reasoning remains on HBM, “warm” knowledge migrates to DDR5, and “cold” agentic history inevitably shifts to enterprise SSDs, a natural memory hierarchy forms. This validates the SNDK premise: long-term context and episodic memory scale far more efficiently on NAND than on RAM.

The rise of persistent AI agents, digital employees that require days or weeks of context, makes a low-cost storage tier unavoidable. New agent architectures are therefore beginning to offload episodic memory to NAND flash, often using Zone Storage to minimize garbage-collection latency. In this context, companies such as Western Digital and Samsung are no longer merely selling cold storage, but functional memory layers for AI systems.

  • Hot: HBM for latency-critical reasoning
  • Warm: DDR5 for knowledge and tables
  • Cold: SSDs for agentic history
  • NAND becomes functional AI memory
  • Storage evolves into a strategic AI layer

The economic arbitrage behind Engram

The arithmetic behind this shift is stark. A standard 100B-parameter expansion requires roughly 200GB of capacity at FP16 precision. Storing this on HBM3e costs approximately $3,600. Storing the same data on DDR5 reduces the cost to about $900, while pushing it to high-end NVMe SSDs collapses the cost to roughly $40. This nearly four-fold cost reduction from HBM to DDR5 and the roughly 90-fold delta to SSDs turn what appears to be a mundane memory choice into a high-leverage macro trade.

This dynamic helps explain why Samsung’s DRAM prices surged 313% year over year in Q4. Hyperscalers are already buying “slow” memory in anticipation of tiered architectures where HBM is reserved exclusively for the most expensive logits and highest-performance paths.

  • The bill of materials is being fundamentally re-priced
  • HBM becomes premium rather than volume-driven
  • DDR and NAND absorb a larger share of growth
  • Capex shifts within the memory value chain
  • Pricing power becomes increasingly cyclical

Criticism, counterarguments, and market response

Skeptics argue that Engram is technically a lookup paper rather than a CXL paper, and that training split-brain models still requires massive all-to-all GPU communication for gradient synchronization. In this view, complexity has shifted from memory capacity to interconnect scheduling, where sloppy routing could manifest as fatal latency stalls.

Against this critique stands the reality of the market. SK Hynix announced in October 2025 that its entire 2026 output of DRAM, HBM, and NAND was already sold out. This hardware is not being purchased for traditional servers, but to feed a new generation of memory-bound AI models that closely resemble Engram-style architectures.

  • Training remains interconnect-intensive
  • Complexity shifts rather than disappears
  • Routing becomes more critical than raw capacity
  • The market is already front-running adoption
  • Hardware demand signals point to earlier uptake

The falsification date

The decisive moment for this thesis sits on the calendar around mid-February 2026, coinciding with the Lunar New Year. Multiple signals point to a DeepSeek-V4 release during that window. If that release confirms host-memory conditional lookups in production, or if the API exhibits the characteristic latency masking of a tiered memory system, the HBM-only scaling law is effectively dead.

In that scenario, the most valuable real estate in the datacenter shifts from the GPU die itself to the interconnect, with PCIe 6.0 emerging as the strategic backbone connecting GPU, host memory, and storage. We move toward a world of cyborg models, where reasoning is expensive, knowledge is cheap, and architecture becomes the dominant determinant of value.

  • February 2026 is the key inflection point
  • Confirmation implies a structural regime shift
  • HBM loses its monopoly position
  • Interconnects gain strategic importance
  • Memory equities become more cyclically exposed

Conclusion

The Engram architecture from DeepSeek demonstrates that the current euphoria around HBM and AI memory is not without risk. HBM remains critical for high-performance reasoning, but it is no longer the all-defining bottleneck. This exposes the sector to a classic cyclical reversal once capacity, capex, and architecture fall out of alignment. We continue to benefit from momentum in Micron for now, but we remain disciplined and selective. This is not a phase to expand positions, but a period where timing, risk management, and recognizing an approaching turn matter more than capturing the final incremental gains.

Disclaimer Aan de door ons opgestelde informatie kan op geen enkele wijze rechten worden ontleend. Alle door ons verstrekte informatie en analyses zijn geheel vrijblijvend. Alle consequenties van het op welke wijze dan ook toepassen van de informatie blijven volledig voor uw eigen rekening.

Wij aanvaarden geen aansprakelijkheid voor de mogelijke gevolgen of schade die zouden kunnen voortvloeien uit het gebruik van de door ons gepubliceerde informatie. U bent zelf eindverantwoordelijk voor de beslissingen die u neemt met betrekking tot uw beleggingen.

Zie kansen op het juiste moment

Maak meer kans op winst, dankzij actuele informatie, onafhankelijk commentaar en door het volgen van doelen.