Welkom terug! Dit keer in het AI & Media Journaal: hoop voor docenten en nepnieuwsdetectoren, slim onderzoek van Pointer naar fakenieuws in 150.000 podcastafleveringen en een tool om journalistieke fondsen te vinden.
Maar eerst even dit..
Generatieve AI betreden zoekmachines en dat kan veel invloed hebben op de media. OpenAI maakte ChatGPT Search vorige week namelijk beschikbaar voor groter publiek. Daarin typ je prompts zoals je gewend bent in ChatGPT, met als verschil dat de chatbot direct op het web kan zoeken. De output: een samenvatting van de gevonden online informatie, inclusief links naar de originele bron. Tegelijkertijd breidt Google Overview uit naar honderd nieuwe landen (nog niet in Nederland - een gevolg van de AI-Act). Ook deze tool geeft AI-gegenereerde antwoorden op vragen, maar dan direct in Google Search. Perplexity AI beantwoordt al langer vragen op basis van online bronnen.
De grote vraag: wie klikt er nog door naar een (nieuws)bron als een tool alle informatie al voor je samenvat? News/Media Association vreest de gevolgen voor verdienmodellen van mediabedrijven, die zij catastrofaal noemt. Niet gek, als je bedenkt dat meer dan 30% van de bezoekers op nieuwssites op dit moment binnenkomen via zoekmachines. Een kleine vergelijking van Ezra Eeman (NPO-Directeur Strategie & Innovatie) laat alvast zien dat de resultaten van de ChatGPT Search inderdaad minder lijken uit te nodigen tot doorklikken dan Google Search.
Ook accuraatheid blijft een probleem. De maandelijkse Misinformation Monitor of Leading AI Chatbots laat zien dat de tien grootste chatbots in oktober in 24.67% van de gevallen misinformatie verspreidden. In nog eens 21.67% van de gevallen leverden vragen een ‘non-respons’ op.
Maar er zijn ook voorbeelden van generatieve AI in zoekmachines zijn die succesvol uitpakken, blijkt uit een experiment van Perplexity AI. Deze tool was de enige die tijdens de Amerikaanse presidentsverkiezingen vragen beantwoordde over dit onderwerp, terwijl andere AI-bedrijven hun handen daar niet aan wilden branden. Perplexity maakte geen grote uitglijders, dankzij zorgvuldige en vrij strakke vangrails: alle informatie over kandidaten en polls kwam rechtstreeks van non-profitorganisatie Democracy Works. Live resultaten werden aangeleverd door Associated Press en alle andere informatie kwam enkel van een lijst van trusted sources. Die vangrails deden hun werk.
Florent Daudens (Press Lead bij HuggingFace) hoopt dat media niet blijven hangen in bezorgdheid, maar aan de slag gaan. “Met vangrails voor accuraatheid zouden media hun eigen AI search experiences kunnen ontwikkelen. In plaats daarvan positioneren de meeste media zich momenteel als AI-klant of content provider. De echte vraag is: gaan nieuwsorganisaties actief vormgeven hoe AI zoekgedrag transformeert of blijven we slechts inputdata voor andermans AI-producten?”
Er is hoop
Er gloort hoop aan de horizon voor onder meer docenten. Het kan namelijk knap lastig zijn om te bepalen of een tekst AI-gegenereerd is of niet, maar Google DeepMind bedacht daar iets op: een onzichtbaar watermerk dat verwerkt wordt in AI-gegenereerde teksten, zodat te achterhalen is welke niet door mensen geschreven zijn.
Zo’n watermerk heeft meerdere functies: het kan helpen bij nepnieuwsdetectie, aan docenten laten zien wie zijn huiswerk niet zelf gemaakt heeft of voorkomen dat AI-modellen getraind worden op AI-geschreven teksten. Daar worden modellen namelijk niet per se beter van.
Het is niet het eerste watermerk voor AI-teksten , maar wel het eerste dat daadwerkelijk wordt toegepast in een tool. OpenAI ontwikkelde eerder al een watermerk, maar heeft die nog niet geïntegreerd in ChatGPT uit angst om klanten te verliezen.
Out of stock
Onderzoekers voorspellen dat ergens tussen 2026 en 2032 alle door mensen geschreven, openbare teksten gebruikt zullen zijn voor de training van modellen. Simpel gezegd zijn de menselijke trainingsdata dan ‘op’. De vooruitgang van AI-modellen stopt dan niet, maar wordt naar verwachting wel trager. Dat betekent ook dat we als menselijke content creators een sterkere onderhandelingspositie hebben tegenover AI-bedrijven dan we wellicht beseffen.
Zó snel ook weer niet
We horen vaak dat de snelheid waarmee we generatieve AI omarmd hebben ongekend is. Maar liefst 40% van de Amerikaanse volwassenen zou dergelijke tools de afgelopen maand gebruikt hebben volgens een recente studie. Princeton professor Arvind Narayanan plaatst daarbij een belangrijke kanttekening: die 40% omvat ook mensen die de afgelopen maand één keer bij ChatGPT hebben aangeklopt voor een mop. Als het gaat om gebruik van GenAI op het werk, dan blijkt dat dit in slechts 0,5% tot 3,5% van de gewerkte uren het geval is.
Man vs. machine
Lezers vinden door mensen geschreven nieuwsartikelen vooralsnog beter te begrijpen dan stukken die automatisch gegenereerd zijn, blijkt uit onderzoek van City St George’s University of London en LMU München. Het team vroeg 3.135 Britse nieuwslezers om twee stukken te lezen – één automatisch gegenereerd en één van mensenhand - en liet ze daarna een enquête invullen. Daaruit blijkt dat de deelnemers ook minder tevreden zijn over de woordkeus en beschrijvingen in de automatisch geschreven artikelen, net als over de hoeveelheid cijfers. Alleen als het gaat om opbouw zijn de participanten even tevreden over door mens- en door AI-geschreven stukken. Ook fictieverhalen van mensenhand genieten nog steeds de voorkeur, laat dit onderzoek zien, “but generative AI is advancing quickly.”
AI-presentatrice op pauze
Omroep Brabant haalde dit voorjaar mijn nieuwsbrief omdat een AI-versie van presentatrice Nina van den Broek daar een deel van het nieuws voorlas. Dat experiment is inmiddels gepauzeerd, vertelt hoofdredacteur Renzo Veenstra aan Jaap van Zessen. Het proces bleek toch nog tijdrovend. “Het kostte ons nog steeds een hele fte om de filmpjes te maken. We zijn dat nu aan het automatiseren”, aldus Veenstra. Ook zijn er zijn twijfels over de inzet van een AI-avatar van een echt bestaand mens. “We denken na of we verder gaan met Nina of met een algemene avatar, aangezien het publiek vraagtekens heeft bij het gebruiken van een echt mens.”
Lezen, luisteren, kijken..
..als je tien minuten hebt:
New York Times kreeg 400 uur aan videomateriaal in handen waarin right wing groepen bespreken hoe ze de presidentiële verkiezingen konden saboteren. Met behulp van LLM’s doorzochten journalisten de transcripten van maar liefst vijf miljoen woorden en schreven Inside the movement behind Trump’s election lies. Meer over de AI-aanpak van NYT lees je hier.
Het project OFF van Radio Krakow, waarin AI-gegenereerde stemmen overleden personen interviewen, was een kort leven beschoren. Al na een week werd het experiment, dat drie maanden had moeten duren, stilgelegd. Marcin Pulit, redacteur bij Radio Krakow, zegt verrast te zijn over de emotionele reacties van zowel journalisten als luisteraars door heel Polen.
Een regeltje tekst moet voorkomen dat boeken trainingsmateriaal worden voor generatieve AI-tools, hopen uitgevers. Werkt dat?
Wie alle Nederlandstalige podcasts op Spotify uit 2023 wil luisteren, heeft daar negen jaar voor nodig. Journalisten van Pointer (KRO-NCRV) vroegen zich af wat er in ál die uren luistermateriaal eigenlijk wordt verspreid en onderzoekt de meest opvallende medische misinformatie, omvolkings- en complottheorieën. Hier lees je hoe ze daarbij AI inzetten.
Steeds meer (media)organisaties hebben een Chief AI Officer. Maar wat doet zo iemand precies? Uli Köppen (Bayerischer Rundfunk) vertelt.
Maaike Harbers (lector AI & Society aan de Hogeschool Rotterdam) legt aan Nemo Kennislink uit waarom we meer vrouwelijke AI-experts nodig hebben.
AI schittert door afwezigheid in de kamerbrief van Eppo Bruins (Minister van Onderwijs, Cultuur en Media) over het versterken van de journalistiek, schrijft Bart Brouwers (hoogleraar Journalistiek aan de Rijksuniversiteit Groningen) in een opiniestuk. “Door hier geen aandacht aan te geven legt hij de rode loper uit voor ‘Big Tech’ en alle andere partijen die vanuit niet-journalistieke ambities met deze technologie aan de haal gaan.”
..als je iets langer hebt
Bonn Institute brengt Constructive AI Compass uit met toegankelijke technische uitleg, juridische informatie, richtlijnen en praktische tips.
Tooltips tot slot
Het Fonds voor Bijzondere Journalistieke Projecten presenteert Fondsfinder, een chatbot waarmee journalisten en redacties kunnen uitzoeken welke subsidiemogelijkheden er zijn voor hun projecten. Met de tool spit je dertig regionale en landelijke fondsen door.
Net gelanceerd: PromptBakery. Je beantwoordt een paar snelle vragen en ontvangt een passende, effectieve prompt die je verder brengt dan ‘summarize this’. Gratis, beschikbaar in alle talen ‘inclusief Klingon’. Meer over het project lees je hier.
Met duizenden tools die je als creatieve maker kunt inzetten, is het soms lastig kiezen. Art Director Jeroen Disch zet de tools voor je op een rijtje die maximale, creatieve vrijheid geven.
Zeeschuimer helpt je bij het onderzoeken van sociale media, onder meer door bij te houden welke posts je ziet als je scrollt op o.a. TikTok, LinkedIn, X of Instagram.