← The State of Tech RSS Feed

23 maart 2026 · 13:17

Journalist geschorst voor AI-hallucinaties, Musk onder onderzoek & China's militaire AI — The State of Tech

The State of Tech van maandag 23 maart 2026: Een senior journalist bij Mediahuis werd geschorst nadat AI-tools valse citaten in zijn artikelen plaatsten. Frankrijk onderzoekt of Elon Musk deepfakes inzet voor X-waardering, China koopt massaal militaire AI-systemen in, OpenAI krijgt Pentagon-contract terwijl Anthropic wordt buitengesloten, de beveiligingstool Trivy bleek zelf gecompromitteerd en Abbott rondt de overname van Exact Sciences af.

AI Journalisme Desinformatie Cybersecurity Defensie OpenAI

Beluister deze aflevering:

Transcript

Linda: Welkom bij The State of Tech, maandag 23 maart 2026. Ik ben Linda Duursma.

Siert: En ik ben Siert de Groot. We beginnen vandaag met een journalist die geschorst werd omdat hij AI-gegenereerde citaten publiceerde zonder ze te checken. Dat verhaal raakt de kern van wat er misgaat als je AI blind vertrouwt.

Een ervaren journalist liet ChatGPT citaten verzinnen — en niemand merkte het, tot het te laat was.

Linda: Een senior journalist bij Mediahuis — dat is de uitgever van onder andere De Telegraaf en de Irish Independent — is geschorst. De man, Peter Vandermeersch, voormalig hoofd van Mediahuis Ierland, gaf toe dat hij tools als ChatGPT, Perplexity en Google NotebookLM gebruikte om rapporten samen te vatten. En toen ging het mis.

Siert: Die samenvattingen bevatten citaten die gewoon niet bestonden. Mensen kregen woorden in de mond gelegd die ze nooit gezegd hadden. En Vandermeersch controleerde dat niet. Tientallen valse beweringen zijn zo in publicaties terechtgekomen. Hij zei zelf dat hij in een, ik citeer, "hallucinatoire valkuil" was beland.

Linda: Dat is eigenlijk een mooi voorbeeld van hoe gevaarlijk het woord hallucinatie is in de context van AI. Want het klinkt bijna onschuldig, alsof de technologie even een slechte dag had. Maar het gevolg is dat lezers maandenlang nepinformatie hebben geconsumeerd.

Siert: En dat van een ervaren journalist. Iemand die beter zou moeten weten. Het probleem is dat deze tools ontzettend overtuigend kunnen schrijven. Als jij een samenvatting krijgt met een keurig geformatteerd citaat erin, en je hebt het originele rapport niet naast je liggen, dan denk je: dat klopt wel.

Linda: Dit is echt een wake-upcall voor de hele mediasector. Want het gaat niet alleen om deze ene journalist. Hoeveel redacties gebruiken AI inmiddels als hulpmiddel? Heel veel. En de vraag is: wie controleert de output?

Siert: Bij de meeste redacties bestaan daar nog geen duidelijke protocollen voor. En dat moet veranderen. AI kan fantastisch zijn als je het goed inzet — voor eerste concepten, voor ideeën, voor structuur. Maar zodra je er feiten en citaten uit overneemt zonder terug te gaan naar de bron, ben je geen journalist meer. Dan ben je een doorgeefluik voor gegenereerde tekst.

Linda: En voor Nederlandse redacties is dit extra relevant, want Mediahuis is hier natuurlijk een grote speler. De Telegraaf is de grootste krant van Nederland. Als dit bij een zusterpublicatie kan gebeuren, kan het hier ook. Redacties moeten nu echt nadenken over heldere richtlijnen. AI als hulpmiddel, prima. Maar menselijke verificatie als harde eis, altijd.

Siert: Dan nu naar een verhaal dat klinkt als een filmscript, maar het is echt.

Franse aanklagers verdenken Elon Musk ervan deepfakes te hebben gebruikt om de waarde van X kunstmatig op te krikken.

Linda: Franse aanklagers onderzoeken of Elon Musk deepfakes heeft ingezet om de waarde van X, zijn sociale mediaplatform, kunstmatig te vergroten. Het vermoeden is dat seksueel expliciete beelden, gegenereerd met Grok — dat is de AI-tool van Musks bedrijf xAI — bewust op het platform zijn gezet om controverse te creëren.

Siert: En die controverse is niet zomaar per ongeluk ontstaan. Het vermoeden van de aanklagers is dat dit onderdeel was van een bredere strategie. Musk heeft plannen voor een beursgang in juni dit jaar, waarbij X, xAI en SpaceX zouden samensmelten tot één entiteit. Meer aandacht voor X, meer gebruikers, meer engagement — dat drijft de waardering op.

Linda: Dat is behoorlijk cynisch als het klopt. Je laat je eigen AI-tool expliciet materiaal genereren, je laat dat rondgaan op je eigen platform, de ophef trekt gebruikers en media-aandacht, en ondertussen stijgt de geschatte waarde van je bedrijf.

Siert: De Franse autoriteiten hebben hun bevindingen gedeeld met Amerikaanse instanties. En dit staat niet op zichzelf — er lopen al langer onderzoeken naar X in Europa, met name over de verspreiding van deepfakes en pogingen om politieke processen te beïnvloeden. Denk aan de verkiezingen in Frankrijk en Duitsland.

Linda: Waar het op neerkomt: als dit bewezen wordt, hebben we het niet meer over een techbedrijf dat nalatig is met moderatie. Dan hebben we het over een CEO die actief desinformatie verspreidt voor persoonlijk financieel gewin. Dat is een heel ander verhaal.

Siert: En voor Europa is dit extra interessant vanwege de Digital Services Act, de dee-es-aa. Die wetgeving verplicht grote platforms om actief op te treden tegen illegale content, inclusief deepfakes. Als Musk dat niet alleen naliet maar actief aanmoedigde, dan heeft de Europese Commissie een bijzonder stevig dossier.

Linda: Even een kleine onderbreking. Luister je vaker naar The State of Tech? Druk dan op de likeknop en abonneer je — zo mis je nooit een aflevering. Oké, verder.

Het Chinese leger koopt massaal AI-systemen in om de militaire voorsprong van de VS te neutraliseren.

Linda: Dan iets wat echt verontrustend is. Het Chinese Volksbevrijdingsleger, het PLA, is op grote schaal bezig AI-systemen aan te schaffen om specifiek de militaire voordelen van de Verenigde Staten tegen te gaan.

Siert: Dit komt uit een rapport van het Center for Security and Emerging Technology. Zij hebben duizenden openbare aanbestedingen van het PLA geanalyseerd, uit de periode januari 2023 tot december 2024. En wat je ziet is een heel gerichte strategie. Het gaat om AI voor command and control, communicatiesystemen, cyberwapens, inlichtingenvergaring, surveillance en richtsystemen.

Linda: Dus het gaat niet om experimenten of onderzoeksprojecten. Dit zijn concrete aanschaffingen. Het PLA koopt deze technologie in.

Siert: Het Chinese leger beschouwt informatie als het beslissende element in moderne oorlogsvoering. Hun idee is: als je met AI sneller en beter grote hoeveelheden data kunt analyseren dan je tegenstander, dan win je. Niet door meer tanks of schepen, maar door snellere besluitvorming. En ze focussen vooral op operaties op zee en in de ruimte — precies de domeinen waar de VS traditioneel dominant is.

Linda: Dit is belangrijk omdat het laat zien dat de AI-wapenwedloop geen abstract concept meer is. Het gebeurt nu. En het tempo ligt hoog. Als China erin slaagt om via AI het informatieoverwicht te krijgen in een conflict, dan verandert dat de hele geopolitieke balans.

Siert: En Nederland zit hier middenin. We zijn NAVO-lid, we hebben ASML — het bedrijf dat de chipmachines maakt die uiteindelijk de rekenkracht leveren voor al die AI-systemen. De exportrestricties die Nederland samen met de VS en Japan heeft opgelegd aan China, die gaan precies hierover. Het beperken van de technologie die dit soort militaire AI mogelijk maakt.

Linda: Verder met het volgende onderwerp. OpenAI en het Pentagon hebben een deal gesloten, en Anthropic dreigt juist buitenspel te worden gezet.

OpenAI krijgt een contract met het Pentagon voor geheime AI-systemen, terwijl concurrent Anthropic van federale contracten wordt geweerd.

Siert: OpenAI heeft een overeenkomst gesloten met het Pentagon voor geclassificeerde AI-systemen. Dat zijn systemen die draaien in beveiligde cloudomgevingen en werken met staatsgeheimen. Tegelijkertijd — en dit is opmerkelijk — wordt Anthropic, een van de grootste concurrenten van OpenAI, door federale instanties in zes maanden tijd uitgefaseerd.

Linda: En het wordt nog vreemder. Uit nieuwe rechtbankdocumenten blijkt dat het Pentagon en Anthropic slechts een week voordat president Trump de relatie publiekelijk beëindigde, bijna op één lijn zaten over een contract. Ze waren er dus bijna uit.

Siert: Anthropic vecht dit nu aan via de rechter. Hun ingezworen verklaringen betwisten de nationale veiligheidsrisicobeoordeling van het Pentagon. Anthropic zegt in feite: onze veiligheidsstandaarden zijn juist hoger dan die van de concurrentie, niet lager.

Linda: En dat raakt een fundamenteel punt. Anthropic staat bekend als het bedrijf dat AI-veiligheid bovenaan zet. Als juist dat bedrijf wordt buitengesloten terwijl OpenAI — dat de laatste jaren steeds commerciëler is geworden — het contract krijgt, wat zegt dat dan over de prioriteiten van de Amerikaanse overheid?

Siert: Het zegt dat geopolitiek en snelheid op dit moment zwaarder wegen dan voorzichtigheid. En dat is een keuze met enorme consequenties.

Linda: Voor Nederland is dit relevant omdat onze defensie en inlichtingendiensten nauw samenwerken met de Amerikanen. Als het Pentagon kiest voor OpenAI als standaard, dan heeft dat gevolgen voor de systemen waar wij ook mee te maken krijgen binnen NAVO-verband.

Siert: Laten we het hebben over cybersecurity, want daar is een serieus incident.

De populaire kwetsbaarhedenscanner Trivy is gehackt en verspreidde wekenlang malware onder zijn eigen gebruikers.

Linda: Trivy, een veelgebruikte open-source kwetsbaarhedenscanner, is zelf het slachtoffer geworden van een hack. Aanvallers wisten malware te verstoppen in de software — een zogeheten infostealer, die inloggegevens en andere gevoelige data steelt.

Siert: De ironie is natuurlijk enorm. Een tool die bedoeld is om kwetsbaarheden in je software te vinden, was zelf gecompromitteerd. De aanvallers hebben inloggegevens voor de GitHub-repository van Aqua Security, het bedrijf achter Trivy, buitgemaakt. Daarmee konden ze kwaadaardige code injecteren in containerimages en officiële releases.

Linda: En het gaat verder dan alleen Trivy zelf. Veel organisaties roepen Trivy automatisch aan via GitHub Actions. Dus elke keer dat zo'n geautomatiseerde scan draaide, werd de malware ook uitgevoerd.

Siert: Aqua Security zegt dat dit een voortzetting is van een supply-chain-aanval die eind februari begon. Gebruikers lopen nu het risico dat inloggegevens voor hun cloudinfrastructuur, hun ontwikkelomgevingen en andere kritieke systemen zijn gestolen.

Linda: Dit is zo gevaarlijk omdat het vertrouwen raakt. Als je je beveiligingstool niet meer kunt vertrouwen, wat dan wel? Organisaties die Trivy gebruikten deden precies het juiste — ze scanden hun software op kwetsbaarheden. En juist daardoor werden ze kwetsbaar.

Siert: In Nederland wordt Trivy veel gebruikt, zeker bij bedrijven en overheden die met containers en Kubernetes werken. Het advies is om nu direct te controleren welke versie je draait, credentials te roteren voor alle systemen waar Trivy toegang toe had, en je logs na te lopen op verdachte activiteit.

Linda: En als laatste vandaag — een grote overname in de medische diagnostiek.

Abbott rondt vandaag de overname van Exact Sciences af en wordt daarmee een dominante speler in kankerscreening.

Siert: Abbott, de grote Amerikaanse medtech-gigant, rondt vandaag officieel de overname af van Exact Sciences. Dat is het bedrijf dat vooral bekend is van Cologuard, een thuistest voor darmkankerscreening.

Linda: Alle wettelijke goedkeuringen zijn binnen, en daarmee is het een feit. Abbott krijgt hiermee een enorme positie in de markt voor kankerscreening en vroege diagnostiek.

Siert: En dat is een markt die explosief groeit. Vroege detectie van kanker — nog voordat je klachten hebt — is een van de meest veelbelovende gebieden in de gezondheidszorg. Als je kanker vindt in stadium één in plaats van stadium drie, zijn de overlevingskansen dramatisch beter. En de behandeling is veel minder zwaar en goedkoper.

Linda: Abbott combineert nu zijn eigen diagnostische infrastructuur — denk aan laboratoriumsystemen die wereldwijd draaien — met de screeningtechnologie van Exact Sciences. Dat betekent dat ze die kankerscreenings kunnen uitrollen op een schaal die Exact Sciences alleen nooit had kunnen bereiken.

Siert: Belangrijk hier is de verschuiving die dit vertegenwoordigt. We gaan van een gezondheidszorg die draait om behandeling naar een systeem dat steeds meer draait om preventie en vroege detectie. En AI speelt daar trouwens ook een grote rol in — veel van die screeningstechnologieën gebruiken machine learning om patronen in biomarkers te herkennen.

Linda: Voor Nederland is dit relevant omdat Abbott hier al een grote leverancier is van diagnostische apparatuur. In onze ziekenhuizen en bij het bevolkingsonderzoek draaien Abbott-systemen. Als die nu worden uitgebreid met kankerscreeningstechnologie van Exact Sciences, kan dat directe gevolgen hebben voor hoe wij in Nederland bevolkingsonderzoek naar kanker organiseren.

Siert: En dat zou een enorm positieve ontwikkeling zijn. Meer kankers opsporen in een vroeger stadium — daar wordt uiteindelijk iedereen beter van.

Linda: Vandaag hadden we het over: een journalist geschorst vanwege AI-hallucinaties, het Franse deepfake-onderzoek naar Elon Musk, China's militaire AI-ambities, OpenAI's Pentagon-deal versus Anthropic, de supply-chain-aanval op Trivy en Abbott's overname van Exact Sciences.

Siert: Meer weten of reageren? Ga naar thestateoftech.nl of mail ons op info@doorzetters.net.

Siert: State of Tech — de techwereld in 15 minuten.