De opvallendste trends en uitspraken van South By Southwest
Net een weekje terug van een van de grootste tech- en innovatieconferenties ter wereld, South By Southwest (SXSW) heb ik de tijd gehad om alles even te laten bezinken. Opvallend: van zo’n 1700 sessies waren er dit jaar slechts twee gewijd aan de journalistiek (sign of the times?). Maar juist het interdisciplinaire karakter maakte dat er veel te ontdekken was. Ik zet in deze nieuwsbrief de opvallendste uitspraken en trends op een rijtje, met extra materiaal voor wie er zelf nog eens goed in wil duiken.
"Large Language Models are not here to stay"
Herinner je je nog hoe ChatGPT ons in 2022 versteld deed staan met zijn overtuigende, grammaticaal correcte antwoorden? Een tijd lang geloofden we massaal in zogenoemde Large Language Models, de modellen achter chatbots. Maar inmiddels betwijfelen experts hoe toekomstbestendig grote taalmodellen zijn: er zijn fundamentele problemen die de vooruitgang in de weg staan. “Binnen drie tot vijf jaar zijn LLM’s verleden tijd”, voorspelt Denise Holt, oprichter van AIX Global Media, zelfs.
De problemen in het kort:
/ De huidige LLM’s draaien op loeizware modellen die getraind zijn op gigantische hoeveelheden data. Dat betekent grote milieubelasting en hoge kosten. “De trainingskosten stijgen exponentieel, terwijl de verbeteringen achterblijven”, stelt Denise Holt.
/ LLM’s begrijpen niks. Ze herkennen patronen in tekst op basis van statistiek, maar hebben geen idee waarover ze het hebben, geen metacognitie en geen besef van bijvoorbeeld oorzaak en gevolg. Ze staan bovendien los van de ‘echte’ wereld. Dat betekent dat ze fouten niet zelfstandig kunnen corrigeren en dat de beruchte hallucinaties blijven.
/ Grote taalmodellen zijn bovendien statisch: na training kun je ze niet even bijwerken. Dat maakt dat ze snel verouderen. Daarom wordt elke paar maanden een nieuwe versie uitgebracht - nogal inefficiënt.
Meer dan één mogelijke oplossing passeren de revue tijdens SXSW: van Live Intelligence tot Active Inference. Een opvallende lijn daarin is dat sensoren volgens experts een grotere rol gaan spelen. Die zouden ervoor moeten zorgen dat informatie uit de echte wereld in real time wordt meegenomen. Waar LLM’s werken met vooraf getrainde datasets, leren dit soort systemen van hun omgeving: door een continue feedbackloop van waarnemen, analyseren en bijsturen. In plaats van een gigantische database, baseren ze zich op sensoren die informatie uit de echte wereld opnemen. Het heeft daardoor veel minder zware modellen nodig en zou daarmee ook een stuk minder milieubelastend zijn.
Wat dat zou kunnen betekenen voor media? “Denk aan content die zich in real time aanpast aan jouw gezichtsuitdrukking. Maximale personalisatie”, klinkt het in de podcast Three Takeaways. Meteen daarop de vraag: “Moeten we dat willen – nog meer filterbubbel?”
De hele sessie over Active Inference luister je hier terug; de voorspellingen van Amy Webb, inclusief Live Intelligence bekijk je hieronder.
“Small is the next big thing”
Een kortetermijnoplossing voor de hoge kosten, gigantische computing power en milieubelasting van LLM’s is er ook: small language models. Het devies van ‘bigger is better’ werd al weerlegd met de lancering van Deepseek, het Chinese taalmodel dat aanzienlijk minder geld- en energieverslindend lijkt dan eerdere Amerikaanse modellen. Volgens Niall Firth van MIT Technology Review is het veel logischer om kleinere taalmodellen te trainen om uit te blinken in heel specifieke taken, in plaats van één gigamodel dat middelmatig presteert op een groot aantal taken.
Firth voorspelt dan ook dat kleine taalmodellen hun opmars voortzetten. Niet alleen goedkoper, minder energieslurpend, efficiënter en mogelijk ook een oplossing voor copyrightproblemen: kleinere modellen kunnen makkelijker gebouwd worden op kleine datasets, waardoor het massaal (illegaal) scrapen van online trainingsmateriaal (zoals journalistieke stukken) mogelijk minder verleidelijk is voor AI-bedrijven. Let wel: het probleem van hallucinaties blijft.
Andere voorspellingen van MIT: generatieve AI in je zoekmachine (ik schreef er al vaker over) en robottaxi’s (ik probeerde er een in Austin – bevreemdend!). AI-agents haalden de lijst net niet, hoewel we het veel hebben over systemen die zonder jouw toestemming taken kunnen uitvoeren. Denk aan het boeken van vliegtickets of het bestellen van de boodschappen. Volgens Firth zijn de systemen nog niet betrouwbaar genoeg om écht door te breken. Een bijkomend obstakel is dat systemen aan elkaar gekoppeld moeten zijn (je agenda, bank, e-mail, etc.) om goed te kunnen werken.
Luister de hele sessie of lees het rapport.
“I don’t want to hear anyone say they don’t care about privacy”
Na de herkiezing van Trump werd nog maar eens pijnlijk duidelijk hoe nauw politiek en de macht van big tech verweven zijn. Op SXSW was aandacht voor twee bekende ethisch verantwoorde, privacy-vriendelijke alternatieven. Zo vertelde Jay Graber, CEO van Bluesky hoe het bedrijf een ethisch verantwoord sociaal medium tracht te zijn: met decentrale servers om afhankelijkheid van één bedrijf te voorkomen, gebruikers die hun eigen data beheren en zélf bepalen wat ze te zien krijgen in plaats van ondoorgrondelijke algoritmes. (Geen gek idee als je weet dat het College van de Rechten van de Mens Facebook onlangs nog op de vingers tikte vanwege discriminerende (en niet-transparante) algoritmes). De grote vraag: is BlueSky bestand tegen de verleiding van het grote geld?
"Mensen kunnen altijd vertrekken. Alles is open source", stelt Jay Graber. "Als we iets veranderen wat mensen niet bevalt, kunnen ze hun eigen versie van BlueSky draaien en gewoon in contact blijven met hun netwerk. Dit maakt dat gebruikers de macht hebben en voorkomt dat één partij alle controle heeft."
Tijdens de keynote van Meredith Whittaker, CEO van Signal, stond zoals we van haar gewend zijn, privacybescherming centraal. Want, zo benadrukt ze: een handjevol bedrijven heeft toegang tot ongelofelijk gedetailleerde en intieme informatie over ons en kan daarmee doen wat ze willen – of wat de overheid van ze vraagt. “Ik wil niemand meer horen zeggen dat ze niet om privacy geven.”
Wat als de overheid haar onder druk zou zetten om data te delen? Whittaker: “De enige manier om data te beschermen, is door ze niet te verzamelen. Je kunt me thuis opzoeken, doen wat je wilt, maar ik heb die data niet."
“You don’t have to be able to write code in order to work with AI”
Wat opviel aan de paneldiscussie met de AI-leads van Aftonbladet, The New York Times en Associated Press? Geen van hen heeft een technische achtergrond. Sterker nog, ze kunnen niet programmeren – en dat is hun kracht. “Dat ik geen code kan schrijven is eigenlijk behulpzaam gebleken”, aldus Rubina Fillion, AI Director bij The New York Times. “Ik fungeer als tussenpersoon tussen journalisten en programmeurs. Belangrijk is dat ik de taal van beiden spreek. Verder is vooral nieuwsgierigheid nodig. Je moet gewoon je hand opsteken en zeggen: ‘Ik ga domme vragen stellen’”.
In een volgende sessie onderstreept ook techdesigner Veronika Kindred (Big Medium) de waarde van niet-techneuten met de woorden: “Alfawetenschappen maken een comeback in het tijdperk van AI. We hebben jullie harder dan ooit nodig. Dit is het moment om je ermee te bemoeien, je waarden in de strijd te gooien.”
Zelf doet zij dat door zich te verdiepen in de designkant van AI: Hoe kunnen we AI-ervaringen zo vormgeven dat we kritisch denken aanmoedigen? Interessant om terug te luisteren.
Je kunt sowieso veel sessies terugluisteren
- Hier vind je de gehele AI-track, maar ook de rest van het programma bevat veel goeds (berg je: het zijn meer dan 1700 sessies in totaal).
- Of luister de podcastserie Three Takeaways van Merlijn Passier en Jolien van de Griendt, waarin ze onder andere vertellen over de verschillende AI-experimenten die ze tegenkwamen.
- Gerson Veenstra schreef met behulp van audio-opnamen, transcriptietools en ChatGPT maar liefst dertig blogs over de sessies. Hier doet hij uit de doeken hoe hij te werk ging, inclusief zijn behoorlijk uitgebreide prompt.
Lezen, luisteren, kijken..
..als je vijf minuten hebt:
BNR lanceert een AI-gegeneerde kruiswoordenpuzzel die dagelijks verschijnt en gaat over het laatste nieuws.
Deze maand publiceert de Italiaanse krant Il Foglio vier dagen per week een extra editie die van A tot Z door AI gemaakt is. “Behalve een stunt en een experiment, wil de krant ook het gesprek over AI in de journalistiek en in het dagelijks leven aanzwengelen”, schrijft NRC. Goed voor de verkoopcijfers is het in elk geval.
Je vraag aan een chatbot over een voor Rusland gevoelig onderwerp levert misschien een vaag antwoord op: het resultaat van doelbewuste Russische manipulatie. NewsGuard onthult namelijk een nieuwe strategie om desinformatie te verspreiden. In plaats van zich direct op menselijke lezers te richten, overspoelt het Russische desinformatienetwerk Pravda het internet bewust met pro-Kremlin propaganda (soms op sites die vrijwel niemand bezoekt). Het doel: generatieve AI-modellen vervuilen, zodat die de valse informatie gaan herhalen.
Henk van Ess testte verschillende deepfakedetectoren voor video, audio, foto’s en tekst. “De strijd tussen deepfakeverspreiders en de makers van deepfakedetectoren zet zich voort, maar voor nu heeft de waarheid een paar goede bondgenoten.”
Ook Columbia Journalism Review beschrijft wat je als journalist in 2025 moet weten over deepfakedetectie.
Nadat de release van de Chinese chatbot DeepSeek de wereld opschudde, verscheen deze week een nieuwe primeur in China, schrijft The Economist: Manus AI, een agentic system dat acties kan uitvoeren zonder goedkeuring van een mens af te wachten. Bedrijven wereldwijd experimenteren met agentic AI, maar opvallend is dat Manus AI al volledig openbaar is voor consumenten.Experimenten vinden niet plaats in labs, maar in het echte leven. En dus moeten we nadenken over de manier waarop we met veiligheid omgaan, aldus The Economist.
Mediabedrijven die licenties aangaan met de bedrijven achter chatbots, moeten hun tarieven misschien verhogen, suggereert Ezra Eeman (NPO Directeur Strategie en Innovatie). Hij laat zien dat chatbots mediabedrijven momenteel nog weinig traffic op lijken te leveren.
..als je iets langer hebt
Een interessante podcastaflevering van Lighthouse Report met Gabriel Geiger en Karin Hao. Hoe doe je verslag van AI en hoe vind je überhaupt leads?
Reuters Institute organiseert op 26 maart een evenement met sprekers van onder meer de BBC, New York Times en Financial Times, dat je gratis online kunt bijwonen.
Tooltips tot slot
Je kent het vast: al browsend stuit je op artikelen die je wil lezen, maar je hebt nu net even geen tijd. Met Pocket kun je stukken markeren én categoriseren voor later.
Minder praten en meer doen? Hugging Face lanceert een Slackkanaal waarin een wereldwijde gemeenschap van journalisten opensourcemodellen deelt, AI-ervaringen uitwisselt en elkaar op weg helpt.
Dat was hem weer! Tips zijn altijd welkom (ngoutier@villamedia.nl). Fijn weekend en tot over twee weken!