28 maart 2026 · 14:33
Apple Siri, Wikipedia AI-verbod & Microsoft Stargate datacenter
The State of Tech van zaterdag 28 maart 2026: Apple maakt Siri open voor concurrenten zoals Gemini en Claude, Wikipedia verbiedt AI-gegenereerde artikelteksten na stemming, en Meta publiceert TRIBE v2, een AI-model dat hersenreacties kan simuleren. Microsoft en OpenAI investeren twintig miljard dollar in het gigantische Stargate-datacenter, Californië stelt nieuwe transparantievereisten voor AI-agents, en een Belgische webshop draait bijna volledig op AI-gestuurde processen.
Beluister deze aflevering:
Transcript
Linda: Welkom bij The State of Tech, het is zaterdag 28 maart 2026, ik ben Linda Duursma.
Siert: En ik ben Siert de Groot. Vandaag: Apple gooit Siri open voor concurrenten zoals Gemini en Claude, Wikipedia verbiedt AI-geschreven teksten, Meta bouwt een AI-model dat je hersenen kan simuleren, Microsoft en OpenAI investeren twintig miljard in een gigantisch datacenter, Californië komt met nieuwe regels voor AI-agents, en een Belgische webshop draait bijna helemaal op AI. We beginnen met Apple.
Apple maakt van Siri een doorverwijzer naar rivaliserende AI-diensten — een strategische ommekeer.
Linda: Dit is best een groot verhaal, Siert. Bloomberg meldde deze week dat Apple in iOS 27 een nieuw Extensions-systeem bouwt waarmee gebruikers straks zelf kunnen kiezen welk AI-model achter Siri draait. Dus niet alleen ChatGPT, maar ook Google Gemini en Anthropic Claude.
Siert: En dat is een fundamentele verschuiving. Tot nu toe was het verhaal altijd: Siri is Apple's eigen assistent, punt. Ja, er was die ChatGPT-integratie, maar dit gaat veel verder. Apple zegt eigenlijk: wij zijn niet de beste in AI-modellen, maar we zijn wél de beste in het platform. Ze maken van Siri een soort doorgeefluik.
Linda: De verwachting is dat Tim Cook dit aankondigt op WWDC, 8 juni. En je kunt je afvragen: is dit een nederlaag of juist slim?
Siert: Ik denk dat het allebei is. Apple heeft jarenlang geprobeerd Siri concurrerend te houden, en dat is gewoon niet gelukt. De modellen van OpenAI, Google en Anthropic zijn simpelweg beter in complexe taken. Maar Apple heeft wel anderhalf miljard actieve apparaten. Als jij de poortwachter bent van al die iPhones en iPads, dan heb je een enorme onderhandelingspositie.
Linda: En de Europese Digital Markets Act, de DMA, speelt hier ook een rol, toch?
Siert: Zeker. Europa dwingt Apple al langer om meer openheid te bieden. Denk aan alternatieve app stores, alternatieve betaalmethoden. Dit past in datzelfde plaatje. Brussel wil niet dat één partij de toegang tot AI op mobiel monopoliseert. Dus Apple loopt hier deels vooruit op regelgeving die sowieso zou komen.
Linda: Wat ik vooral interessant vind: dit verandert de dynamiek compleet. Straks concurreren Google, OpenAI en Anthropic niet alleen om de beste chatbot, maar ook om de beste Siri-ervaring. Dat is een heel nieuw slagveld.
Siert: En voor gebruikers is het potentieel fantastisch. Stel je voor: je bent fan van Claude voor schrijfwerk, maar je gebruikt Gemini voor zoeken. Straks kun je dat instellen. Maar de grote vraag blijft: hoeveel van je data deelt Apple met die derde partijen? Dat wordt het privacyverhaal van dit jaar.
Linda: Dan nu iets heel anders. Wikipedia heeft ingegrepen.
De Engelstalige Wikipedia verbiedt AI-gegenereerde tekst in artikelen — een principiële keuze.
Siert: Op 20 maart heeft de Engelstalige Wikipedia na een officiële stemming, een zogenaamde Request for Comments, besloten dat AI-gegenereerde tekst niet meer mag in artikelen. De uitslag was overduidelijk: 44 stemmen voor het verbod, slechts 2 tegen.
Linda: En dat is niet zomaar een huisregel. Wikipedia is de grootste encyclopedie ter wereld, en misschien wel de belangrijkste bron van trainingsdata voor AI-modellen zelf. Dus als AI-tekst Wikipedia binnensluipt, en die tekst bevat fouten of zogenaamde hallucinaties, dan worden die fouten weer opgepikt door de volgende generatie AI-modellen. Je krijgt een soort feedbackloop van onbetrouwbaarheid.
Siert: Precies dat probleem staat centraal. Het heet soms wel model collapse. AI traint op AI-output, en elke generatie wordt een beetje slechter, een beetje minder betrouwbaar. Wikipedia wil die keten doorbreken door te zeggen: bij ons alleen menselijke tekst.
Linda: Er zijn twee smalle uitzonderingen. AI mag gebruikt worden voor spellingcorrectie en als eerste aanzet voor een vertaling. Maar de uiteindelijke tekst moet door een mens geschreven en gecontroleerd zijn.
Siert: En wat opvalt: de Nederlandstalige Wikipedia heeft nog geen besluit genomen. Dat is relevant voor ons, want de Nederlandse versie is kleiner, heeft minder vrijwilligers. Juist daar zou de verleiding groot kunnen zijn om AI in te zetten om artikelen sneller te produceren.
Linda: Je zou kunnen zeggen: dit is Wikipedia dat een grens trekt. In een wereld waar AI overal tekst produceert, zegt de grootste kennisbron ter wereld: nee, bij ons niet.
Siert: Het is ook een signaal naar andere platforms. Als Wikipedia dit doet, dan legitimeer je dat andere organisaties vergelijkbare regels opstellen. Denk aan wetenschappelijke tijdschriften, overheidsdocumenten, onderwijsinstellingen. De vraag verschuift van "kan AI dit schrijven" naar "willen we dat AI dit schrijft."
Linda: Even een kleine onderbreking. Luister je vaker naar The State of Tech? Druk dan op de likeknop en abonneer je — zo mis je nooit een aflevering. Oké, verder.
Meta's TRIBE v2 kan hersenreacties simuleren zonder proefpersonen — een doorbraak in neuroscience.
Linda: Meta heeft iets gepubliceerd dat op het eerste gezicht klinkt als sciencefiction, maar het is heel concreet. Ze noemen het TRIBE v2, een AI-model dat getraind is op meer dan duizend uur aan fMRI-hersenscandata van 720 proefpersonen.
Siert: En het bijzondere is dat dit model drie soorten input tegelijk verwerkt: video, audio en taal. Het is dus trimodaal. Je kunt het een filmpje laten zien, er geluid bij afspelen en er tekst aan toevoegen, en het model voorspelt hoe een menselijk brein daarop zou reageren. Zonder dat er iemand in een scanner hoeft te liggen.
Linda: Dat noemen ze in silico experimenten. Dus in plaats van dat je honderden proefpersonen moet werven, ethische goedkeuring moet regelen, weken in een lab moet doorbrengen, kun je het model vragen: hoe zou een gemiddeld brein reageren op deze stimulus?
Siert: En de prestaties zijn indrukwekkend. Meta claimt dat TRIBE v2 meerdere keren beter scoort dan klassieke encodermodellen. Dat zijn de modellen die tot nu toe de standaard waren in computationele neuroscience. Het is open source, dus onderzoekers wereldwijd kunnen ermee aan de slag.
Linda: Nu moet ik hier wel bij zeggen: dit model voorspelt statistische patronen in hersenactiviteit. Het leest geen gedachten. Het begrijpt niet wat bewustzijn is. Maar als onderzoekstool is het potentieel enorm.
Siert: Denk aan farmaceutisch onderzoek. Als je een nieuw medicijn ontwikkelt dat het brein beïnvloedt, kun je nu in een vroeg stadium simuleren wat het effect zou zijn op hersenactiviteit. Dat kan jaren aan onderzoektijd schelen. Of denk aan het beter begrijpen van neurologische aandoeningen als Alzheimer of epilepsie. Je kunt hypothesen testen op een schaal die met echte proefpersonen simpelweg niet haalbaar is.
Linda: En voor Nederland is dit relevant omdat we sterke neuroscience-onderzoeksgroepen hebben, bijvoorbeeld aan de Radboud Universiteit en het Donders Institute. Die kunnen dit model direct inzetten.
Siert: Het roept ook ethische vragen op. Als je hersenreacties kunt simuleren, hoe voorkom je misbruik? Denk aan het optimaliseren van verslavende content. Maar als onderzoeksinstrument is dit echt een stap vooruit.
Microsoft en OpenAI bouwen een datacenter van twintig miljard dollar — de fysieke ruggengraat van de AI-race.
Linda: Laten we het hebben over schaal. Echte, fysieke schaal. Microsoft en OpenAI hebben plannen onthuld voor een datacenterproject genaamd Stargate. Prijskaartje: twintig miljard dollar.
Siert: Om dat even in perspectief te plaatsen: dat is meer dan het totale jaarbudget van menig klein land. Dit wordt een complex dat specifiek ontworpen is om de volgende generatie AI-modellen te trainen. We praten over supercomputers die vele malen krachtiger zijn dan alles wat nu bestaat.
Linda: En het gaat niet alleen om rekenkracht. Een van de grootste uitdagingen is energie. Deze datacenters verbruiken gigantische hoeveelheden stroom. Microsoft heeft al contracten gesloten voor nucleaire energie, er zijn deals met kernfusiestartups. Het energievraagstuk is misschien wel de echte bottleneck.
Siert: Wat je hier ziet is dat de AI-race niet meer alleen gaat over wie het slimste model bouwt. Het gaat over wie de infrastructuur heeft. Het is een beetje zoals de olieraffinaderijen van de eenentwintigste eeuw. Wie de rekenkracht bezit, bezit de toekomst van AI.
Linda: En voor Europa is de vraag: waar staan wij? Dit soort investeringen gebeuren in de Verenigde Staten. Wij hebben die schaal gewoon niet. En dat betekent dat Europese bedrijven en onderzoekers afhankelijk blijven van Amerikaanse infrastructuur.
Siert: Er zijn wel Europese initiatieven, maar die zijn qua schaal niet vergelijkbaar. De Europese Commissie heeft plannen voor AI-fabrieken, maar dan praat je over investeringen van een paar miljard, niet twintig miljard voor één project. Dat verschil in ambitie en schaal, dat is zorgwekkend als je wilt dat Europa onafhankelijk blijft in AI.
Californië dwingt AI-agents tot transparantie over hun beslissingen en financiële belangen.
Linda: Californië heeft een nieuwe wet aangenomen die direct raakt aan hoe wij straks met AI omgaan. De Agent Transparency Act verplicht AI-systemen die namens jou handelen om openheid te geven over hun logica.
Siert: Concreet: als een AI-agent voor jou een reis boekt, een verzekering afsluit of een product koopt, dan moet dat systeem straks vertellen wie de onderliggende logica heeft gebouwd. En — en dit is cruciaal — of er financiële prikkels zijn. Dus als die AI je hotel A aanbeveelt boven hotel B, moet je kunnen zien of de ontwikkelaar daar een commissie voor ontvangt.
Linda: Dat klinkt logisch, maar het is nu dus niet verplicht. Op dit moment opereren veel AI-agents als complete zwarte dozen. Je vraagt iets, je krijgt een antwoord, en je hebt geen idee waarom dat specifieke antwoord eruit kwam.
Siert: En naarmate AI-agents meer taken overnemen — denk aan financieel advies, medische triage, juridische ondersteuning — wordt dat een echt probleem. Je wilt weten of de AI die jou adviseert om medicijn X te nemen dat doet omdat het de beste optie is, of omdat de fabrikant extra betaalt.
Linda: De wet komt uit Californië, maar de impact is wereldwijd. Veel techbedrijven zitten daar, en wat Californië reguleert, wordt vaak de de facto standaard.
Siert: Voor Nederland is dit interessant omdat de Europese AI Act vergelijkbare transparantie-eisen stelt, maar minder specifiek is over financiële prikkels bij AI-agents. Californië gaat hier eigenlijk verder dan Europa. Dat is ongebruikelijk en kan de Europese wetgever onder druk zetten om ook specifieker te worden.
Linda: Het is in elk geval een signaal dat regulering van AI-agents nu echt op gang komt. En dat is nodig, want die agents worden razendsnel slimmer en autonomer.
Een Belgische webshop draait bijna volledig op AI-agents — van productontwerp tot marketing.
Linda: En dan sluiten we af dicht bij huis. Een Belgische webshop experimenteert met een bedrijfsvoering die bijna volledig door AI-agents wordt aangestuurd.
Siert: Dit gaat verder dan een chatbot die klantvragen beantwoordt. We praten over een multi-agent systeem waarbij verschillende AI-agents samenwerken aan de hele keten. Eén agent bedenkt productideeën op basis van trending data, een andere maakt het ontwerp, weer een andere bepaalt de prijs, en een vierde regelt de marketing.
Linda: En die agents geven elkaar ook feedback. Dus als de marketing-agent merkt dat een product niet verkoopt, koppelt die dat terug aan de ontwerp-agent. Het is eigenlijk een kleine virtuele organisatie.
Siert: De menselijke rol is beperkt tot wat ze foutcorrectie noemen. Iemand kijkt mee en grijpt in als het misgaat. Maar de dagelijkse operatie draait autonoom. En het schijnt dat ze hiermee veel sneller kunnen inspelen op trends. Als iets viral gaat op social media, kan het systeem binnen uren een relevant product online hebben.
Linda: Indrukwekkend, maar ik heb hier ook mijn twijfels. Wat als die agents een verkeerde trend oppikken? Of een product maken dat juridisch problematisch is? Wie is er dan verantwoordelijk?
Siert: Dat is precies het punt. De snelheid is het voordeel, maar ook het risico. En er zijn ook bredere vragen. Als je bijna geen personeel meer nodig hebt voor een webshop, wat betekent dat voor werkgelegenheid in e-commerce? België en Nederland hebben samen een enorme e-commerce-sector. Als dit model schaalt, dan raakt dat veel mensen.
Linda: Het is in elk geval een voorproefje van waar e-commerce naartoe gaat. En het laat zien dat AI-agents niet meer alleen een concept zijn uit presentaties van techbedrijven. Het wordt nu echt uitgerold in de praktijk, hier in de Benelux.
Siert: En dat maakt het tastbaar. Dit is geen experiment in Silicon Valley, dit is een webshop in België die nu draait op een handjevol AI-agents. Dat is de realiteit van 2026.
Linda: Vandaag hadden we het over: Apple die Siri opengooit voor rivalen, Wikipedia die AI-tekst verbiedt, Meta's hersenmodel TRIBE v2, het twintig-miljard-dollar datacenter van Microsoft en OpenAI, Californië's nieuwe wet voor AI-agents, en een Belgische webshop die draait op AI.
Siert: Meer weten of reageren? Ga naar thestateoftech.nl of mail ons op info@doorzetters.net.
Siert: State of Tech — de techwereld in 15 minuten.