← The State of Tech RSS Feed

17 maart 2026 · 13:21

xAI-chaos, NVIDIA DLSS 5 & AI in ziekenhuizen — The State of Tech

The State of Tech van dinsdag 17 maart 2026: XAI wordt van de grond af opgebouwd nadat bijna alle medeoprichters vertrekken. NVIDIA's DLSS 5 veroorzaakt woede bij gamers door AI-gegenereerde gezichtsveranderingen. We onderzoeken de morele paradox: waarom vertrouwen we AI wel voor doden, maar niet voor genezen? De AI Monitor Ziekenhuizen 2026 toont implementatiekloven. Europa bouwt AI-talent, maar investeerders en waardecreatie gaan naar de VS. Tot slot: NewsGuard opspoort automatisch AI-gegenereerde nepnieuwssites.

AI xAI NVIDIA gaming ziekenhuizen Europa

Beluister deze aflevering:

Transcript

Linda: Hallo, welkom bij The State of Tech van dinsdag 17 maart 2026. Ik ben Linda Duursma.

Siert: En ik ben Siert de Groot. We beginnen vandaag met een opvallend bericht over xAI, het AI-bedrijf van Elon Musk, dat volgens Musk zelf helemaal opnieuw opgebouwd moet worden.

xAI van Elon Musk verliest bijna alle medeoprichters en wordt "vanaf de grond opnieuw opgebouwd"

Linda: Elon Musk heeft op zijn eigen platform gepost dat xAI — zijn AI-bedrijf, je weet wel, de makers van Grok — dat dat bedrijf niet goed gebouwd is. Letterlijk: "not built right." En dat het van de grond af opnieuw moet worden opgebouwd.

Siert: Dat is best een opmerkelijke uitspraak van iemand die het bedrijf zelf heeft opgericht. En het gaat verder dan woorden. Van de oorspronkelijke elf medeoprichters zijn er nog maar twee over. De laatsten die vertrokken zijn Zihang Dai en Guodong Zhang. Zhang leidde Grok Code en rapporteerde direct aan Musk. Maar Musk gaf hem de schuld van de achterstanden op het gebied van coderen.

Linda: En dat is nogal wat, want coderen is op dit moment hét strijdtoneel in de AI-wereld. Iedereen wil de beste coding-assistent hebben. Musk heeft ook gewoon toegegeven dat Grok op dat vlak achterloopt.

Siert: Daarom is xAI vorige week agressief gaan werven. Ze hebben Andrew Milich en Jason Ginsberg binnengehaald, allebei senior leiders van Cursor — dat is een van de populairste AI-codeertools op dit moment. Dat zegt veel over waar de prioriteiten liggen.

Linda: Maar de timing is wel precair, toch? Er wordt gesproken over een aanstaande beursgang van xAI. En dan ga je je bedrijf helemaal opnieuw opbouwen? Dat is geen verhaal dat investeerders graag horen.

Siert: Nee, en het past in een patroon van turbulentie het afgelopen jaar. Tientallen medewerkers zijn vertrokken bij die reorganisatie. De vraag is of die nieuwe aannames genoeg zijn om de koers te keren. Musk heeft grote ambities, maar de realiteit is dat hij nu met een bijna leeg oprichtersteam zit en een product dat hij zelf als onvoldoende bestempelt.


NVIDIA's DLSS 5 vervangt game-graphics door AI en gamers zijn woedend

Linda: Dan nu een verhaal dat de gamingwereld op zijn kop zet. NVIDIA heeft op de GTC-conferentie DLSS 5 aangekondigd. En dit is niet zomaar een upgrade.

Siert: Nee, dit is fundamenteel anders dan eerdere versies. DLSS stond altijd voor het opschalen van lagere resoluties naar hogere — slim, maar relatief onschuldig. DLSS 5 gaat een enorme stap verder. Het gebruikt generatieve AI om complete belichting en materialen in games te vervangen door fotorealistische renders.

Linda: Dus de AI tekent letterlijk stukken van het beeld opnieuw?

Siert: Precies. En daar zit het probleem. Gamers en ontwikkelaars hebben ontdekt dat het systeem gezichten van gamekarakters verandert. Vollere lippen, scherpere jukbeenderen, gladdere huid. Alsof er een AI-schoonheidsfilter overheen gaat. Op sociale media wordt het "AI slop" en een "glamourfilter" genoemd.

Linda: Dat is best zorgwekkend. Je speelt een game waar de ontwikkelaars jarenlang aan hebben gewerkt, met een bepaalde kunststijl, en dan komt er een laag overheen die dat allemaal verandert?

Siert: En dat raakt aan een fundamentele vraag. Van wie is het beeld dat je ziet? De game-ontwikkelaar heeft een artistieke visie. Maar DLSS 5 overschrijft die visie met wat het AI-model "mooi" vindt. NVIDIA zegt dat ontwikkelaars controle houden, maar in de praktijk is het standaard ingeschakeld op de nieuwe RTX 50-kaarten die dit najaar uitkomen.

Linda: Ik snap de woede van gamers wel. Dit voelt als een grens die je niet moet oversteken. Graphics opschalen is iets anders dan graphics vervangen.

Siert: En er zit nog een breder punt aan vast. Als AI bepaalt wat "mooi" is in entertainment, wat doet dat dan met diversiteit in karakterontwerp? Met artistieke expressie? Dit is niet alleen een techverhaal, dit is een cultuurverhaal. En de reactie van de gaming-community is vernietigend. "Respectloos naar ontwikkelaars" is nog een van de vriendelijkere reacties.

Linda: Het laat ook zien dat AI niet altijd een verbetering is, zelfs als het technisch indrukwekkend is.


Linda: Even een kleine onderbreking. Luister je vaker naar The State of Tech? Druk dan op de likeknop en abonneer je — zo mis je nooit een aflevering. Het helpt ons enorm. Oké, verder.


We vertrouwen AI om mensen te doden, maar niet om ze te genezen — een morele blinde vlek

Linda: Dit verhaal vind ik een van de meest prikkelende van vandaag. Er is een analyse verschenen die een nogal ongemakkelijke vraag stelt. Waarom vertrouwen we AI wel om dodelijke beslissingen te nemen op het slagveld, maar niet om levens te redden in het ziekenhuis?

Siert: Het voorbeeld dat wordt aangehaald is het AI-systeem Lavender, ingezet in Gaza, dat tienduizenden mensen als potentieel doelwit markeerde. Dat systeem draait op grote schaal, met enorme consequenties. Ondertussen staan er in ziekenhuizen AI-systemen die bewezen eerder sepsis kunnen detecteren — en sepsis is een van de grootste doodsoorzaken op intensive cares — maar artsen schuiven die adviezen regelmatig terzijde.

Linda: En dat is de paradox. Bij het leger accepteren we dat een algoritme bepaalt wie een target is, met alle risico's van dien. Maar bij een arts die een second opinion krijgt van AI om een leven te redden, daar zijn we terughoudend.

Siert: Er spelen meerdere dingen mee. In de militaire context is er minder publiek toezicht, minder transparantie. Beslissingen worden genomen achter gesloten deuren. In de zorg heb je te maken met professionele identiteit — artsen zijn getraind om zelf beslissingen te nemen. Er is een cultuur van autonomie. En er is aansprakelijkheid. Als een AI een verkeerde diagnose stelt, wie is er dan verantwoordelijk?

Linda: Terwijl bij militaire AI die aansprakelijkheidsvraag blijkbaar minder zwaar weegt.

Siert: Of in ieder geval minder zichtbaar is. En dat is precies de morele blinde vlek die het artikel benoemt. We hebben als maatschappij wel een debat over AI in de zorg, maar nauwelijks over autonome wapensystemen. Terwijl de consequenties daar letterlijk leven en dood zijn.

Linda: Het dwingt je om na te denken over onze prioriteiten. En eerlijk gezegd, dit sluit ook aan bij het volgende onderwerp.


AI Monitor Ziekenhuizen 2026 toont kloof tussen belofte en praktijk

Siert: Want de AI Monitor Ziekenhuizen 2026 is uit, en die bevestigt precies dat beeld. Er is enorm veel potentieel, er lopen allerlei projecten, maar de grootschalige adoptie? Die blijft achter.

Linda: Wat zijn dan de concrete knelpunten?

Siert: Interoperabiliteit is een groot probleem. Ziekenhuissystemen praten niet goed met elkaar. Je hebt een elektronisch patiëntendossier van de ene leverancier, een radiologie-systeem van de andere, en dan moet daar een AI-laag overheen die met allebei kan werken. Dat is technisch gewoon lastig.

Linda: En dan heb je nog de regelgeving. Medische AI valt onder strenge certificeringseisen, terecht overigens, maar dat maakt het implementatietraject lang en duur.

Siert: Precies. En er ontbreken duidelijke kaders. Wie is verantwoordelijk als een AI-systeem een afwijking mist op een scan? Het ziekenhuis? De fabrikant van de software? De radioloog die het advies naast zich neerlegt? Zolang dat niet helder is, blijven ziekenhuizen voorzichtig.

Linda: Maar er zijn wel degelijk successen. Er zijn ziekenhuizen die AI inzetten voor het prioriteren van scans, voor het voorspellen van heropnames. Het werkt, maar het is nog eilandjeswerk. Geen geïntegreerde aanpak.

Siert: En dat is precies wat de monitor concludeert. De technologie is er, de wil is er, maar de randvoorwaarden — infrastructuur, regelgeving, werkprocessen — die moeten nog op orde komen. Pas dan wordt AI echt een integraal onderdeel van de dagelijkse ziekenhuispraktijk.


Europa bouwt AI-bedrijven, maar Amerika en China worden er rijker van

Linda: Laten we het hebben over een rapport dat vandaag veel wordt besproken: "State of AI in Europe: The Invisible Giant." En de titel zegt eigenlijk al genoeg.

Siert: Europa heeft evenveel AI-professionals als de Verenigde Staten. Recordfinanciering vorig jaar van bijna 22 miljard dollar. Er worden geweldige startups gebouwd. Maar — en dit is het pijnpunt — bijna driekwart van de investeerders in die snelgroeiende Europese AI-bedrijven komt uit de VS.

Linda: Dus wij kweken het talent, wij bouwen de bedrijven, en vervolgens komen Amerikaanse investeerders het opkopen?

Siert: In essentie wel. En het gaat nog verder. Vrijwel alle AI-modellen die Europese gebruikers dagelijks inzetten — denk aan ChatGPT, Claude, Gemini — die komen uit de VS of China. Europese gebruikers genereren data en feedback die die modellen beter maken, maar de waarde daarvan stroomt terug naar Silicon Valley of Beijing.

Linda: Het is een beetje als een boerderij die prachtige groenten kweekt maar ze allemaal onder de kostprijs verkoopt aan de supermarktketen.

Siert: Die vergelijking gaat aardig op. En het rapport stelt een ongemakkelijke vraag. Europa heeft de AI Act, strenge regelgeving, privacybescherming via de AVG — allemaal belangrijk. Maar heeft die regulerende reflex ook een keerzijde? Worden Europese bedrijven daardoor minder aantrekkelijk om hier te blijven en te groeien?

Linda: Dat is het eeuwige Europese dilemma. We willen waarden beschermen, maar we willen ook innovatie. En die twee botsen soms.

Siert: De oplossing die het rapport suggereert is niet minder regulering, maar slimmere regulering. En meer Europees kapitaal dat durft te investeren in de schaalfase, niet alleen in de startfase. Want daar gaat het mis. Europese investeerders stappen vroeg in, maar bij de grote groeirondes nemen Amerikaanse fondsen het over.

Linda: En daarmee de zeggenschap.


NewsGuard en Pangram Labs lanceren een AI-detector die nepnieuwsfabrieken automatisch opspoort

Linda: En tot slot een verhaal over de keerzijde van al die AI-vooruitgang. NewsGuard, dat is een organisatie die de betrouwbaarheid van nieuwsbronnen beoordeelt, heeft samen met de startup Pangram Labs een systeem gelanceerd dat automatisch AI-gegenereerde nieuwswebsites opspoort.

Siert: En het gaat om een enorme schaal. Ze hebben al drieduizend van dit soort AI-contentfarms geïdentificeerd. En elke maand komen er drie- tot vijfhonderd nieuwe bij. Dat zijn complete websites die volautomatisch nepnieuws produceren, vaak met honderden artikelen per dag.

Linda: Hoe werkt die detectie precies?

Siert: Het slimme is dat ze niet naar individuele artikelen kijken, maar naar hele domeinen. De AI-modellen van Pangram scannen de structuur van een website, de publicatiepatronen, de schrijfstijl over honderden pagina's heen. Dat geeft een veel betrouwbaarder beeld dan één artikel analyseren. Daarna volgt handmatige verificatie door NewsGuard-analisten.

Linda: Dus het is AI die andere AI opspoort?

Siert: In feite wel. En dat is een wapenwedloop die we steeds vaker gaan zien. Het plan is ook om de technologie in een browserextensie te stoppen, zodat je als gebruiker direct een waarschuwing krijgt als je op een AI-contentfarm belandt.

Linda: Dat lijkt me eerlijk gezegd broodnodig. Want het probleem is dat deze sites er steeds professioneler uitzien. Je kunt als gewone lezer bijna niet meer zien of je echt nieuws of AI-gegenereerd spul leest.

Siert: En daar zit het maatschappelijke risico. Deze contentfarms worden ingezet voor desinformatie, voor advertentiefraude, en steeds vaker om politieke narratieven te beïnvloeden. Met de Europese verkiezingen die eraan komen en de snelheid waarmee deze sites verschijnen, is de noodzaak van dit soort detectiesystemen groter dan ooit.

Linda: Het is een beetje dweilen met de kraan open, maar elk gereedschap helpt.

Siert: Absoluut. En het feit dat er nu een schaalbare, geautomatiseerde oplossing is, maakt het voor het eerst mogelijk om het tempo van de contentfarms bij te houden. Dat was tot nu toe simpelweg niet haalbaar met alleen menselijke factcheckers.


Linda: Vandaag hadden we het over: de chaos bij xAI van Elon Musk, de controverse rond NVIDIA's DLSS 5, de morele paradox van AI in oorlog versus zorg, de AI Monitor Ziekenhuizen 2026, Europa's AI-innovatieparadox, en de jacht op AI-nepnieuwsfabrieken.

Siert: Meer weten of reageren? Ga naar thestateoftech.nl of mail ons op info@doorzetters.net.

Siert: State of Tech — de techwereld in 15 minuten.