De grote schrik van media in de VS
Een veelbewogen week met optimisme én onrust over de nieuwste onthulling van OpenAI, Google die media in de VS de stuipen op het lijf jaagt en Pulitzerprijzen voor AI-projecten.
Om te beginnen..
OpenAI trekt nogal de aandacht
Het bedrijf achter ChatGPT ontmantelde deze week namelijk het voltallige team dat ervoor moet zorgen dat AI ethisch en verantwoord wordt ingezet. De reacties: verbazing, onbegrip en bezorgdheid. De storm was nog niet gaan liggen of de volgende rel diende zich aan. De stem die OpenAI lanceerde, lijkt volgens Scarlett Johansson namelijk wel érg op die van haar. En dat terwijl ze naar eigen zeggen expliciet heeft aangegeven niet mee te werken. OpenAI ontkent Johanssons stemgeluid te hebben gekopieerd, maar haalde de stem wel offline. Of dit voorgoed is, is onduidelijk.
De ophef volgde kort op de lancering van OpenAI’s nieuwste model: GPT-4o. ‘O’ staat voor ‘omni’ – en met een reden. Het is namelijk een stuk veelzijdiger dan de huidige modellen. GPT-4o werkt niet alleen met tekst, maar reageert ook op audio en video. Daarvoor heeft het model volgens OpenAI slechts 320 milliseconden nodig – vergelijkbaar met menselijke reactietijd. Het is in staat om gevoelens te herkennen, emoties na te bootsen en terug te praten. Een ingrijpende verandering in de interactie met de tool, die we kennen van haperend verschijnende woordjes. Het model wordt ergens komende weken gratis beschikbaar gesteld, aldus OpenAI.
Hoewel het gebruiksgemak, de snelheid en de veelzijdigheid van GPT-4o opzienbarend zijn, vermoeden sommige skeptici dat het een en ander overhyped is. Want een AI-systeem dat menselijk overkomt, maar nog steeds niet alle landen beginnend met de letter K kan opnoemen, roept vragen op. “ChatGPT is now better than ever at pretending it’s something that it’s not”, aldus John Herrman in New York Magazine. We gaan het meemaken.
Ook Google zat niet stil
Het bedrijf slingerde namelijk direct na lancering van GPT-4.o een demo van Astra de wereld in. Ook deze AI-agent reageert op audio en video. Het blijft een wedloop. Het bedrijf implementeerde in de VS bovendien de toepassing AI Overviews in Google Search. Wie daar een zoekterm intypt, krijgt van chatbot Gemini allereerst een automatisch gegenereerd antwoord. Dat gaat nog niet altijd lekker (een gebruiker kreeg bijvoorbeeld het advies om kaas aan zijn pizza vast te lijmen), maar het bedrijf noemt dit soort voorvallen zeldzaam en is van plan AI Overviews eind dit jaar breed uit te rollen. Dit tot grote schrik van de mediasector. News/Media Association vreest de gevolgen voor verdienmodellen, die zij catastrofaal noemt. Want wie klikt er nog door naar een (nieuws)bron als Google alle informatie al voor je samenvat?
Even over transparantie
Terwijl we tools als ChatGPT, Gemini en Co-pilot massaal inzetten, weten we vaak nog weinig over de werking erachter. Stanford ontwikkelde daarom een index die aangeeft hoe transparant de zogenaamde foundational models achter deze tools zijn: de Foundational Model Transparency Index. Aan de hand van honderd variabelen bekeken onderzoekers de transparantie bij tien bedrijven. De gemiddelde score: 58 van de 100 punten. Een magere voldoende. Starcoder gaat aan top met 85% van de punten. Het veelgebruikte GPT4 (de betaalde versie van ChatGPT) scoort slechts 49%. Opvallend is dat Anthropic, het bedrijf dat ons een ethische chatbot belooft, ook maar 51% transparantie behaalt. Google bungelt bijna onderaan met 47% voor Gemini, de chatbot van AI Overviews. Wel positief: Gemiddeld scoren de bedrijven 21 punten meer dan een half jaar geleden.
Pulitzer-prijzen voor journalistieke AI-projecten
Het was voor het eerst: vijf van de 45 finalisten van de Pulitzer-prijs onthulden dat ze AI gebruikten voor hun verhaal. Twee van hen vielen in de prijzen.
New York Times analyseerde bomkraters op plekken in Gaza die het Israëlische leger aanmerkte als ‘safe zone’ en ontdekt dat de troepen de 2000-pound bomb (één van de zwaarste die er zijn) daar op grote schaal inzette. Het zou een enorme klus zijn om dat handmatig te onderzoeken, dus trainde de krant een algoritme om kraters te herkennen op satelietfoto’s. (Wil je zelf ook aan de slag met satellietbeelden? Dan is deze gids een goed begin.)
City Bureau en Invisible Institute trainden een model om politierapporten in Chicago door te kammen. De conclusie: er is een structureel probleem in de aanpak van vermissingszaken. Hoe de journalisten te werk zijn gegaan, lees je hier. Pulitzer sluit overigens niet uit dat journalisten eerder ook al (low key) gebruikmaakten van AI. Het is namelijk voor het eerst dat de organisatie hier expliciet naar vroeg.
Lezen, luisteren, kijken..
..als je vijf minuten hebt:
Een interessant kijkje in de AI-keuken van Bayerischer Rundfunk, Sveriges Radio en The Guardian. “Nu bieden wij als nieuwsmedium nog verschillende formats aan: kort, lang, audio, video”, vertelt Uli Köppen van Bayerischer Rundfunk. “Maar er komen steeds meer tools waarmee de gebruiker zelf kan bepalen in welke vorm hij iets tot zich neemt. [..] We moeten we erover nadenken of we nog wel zoveel tijd moeten besteden aan het schrijven van een mooi, lopend, als de lezer het toch door AI laat herschrijven. Dan kun je die tijd misschien beter besteden aan het maken van een zo compleet mogelijke factsheet of tijdlijn. We zien in dat we ons moeten voorbereiden op een toekomst waarin we als journalisten een content pool creëren, waar de gebruiker zelf een verhaal van laat maken.”
Hoe fijn als je met de Europese verkiezingen in aantocht ergens terecht kunt met je politieke vragen. BNR en Stichting Open Politiek lanceren een AI-Stemhulp, die vragen beantwoordt op basis van de verkiezingsprogramma’s van Europese partijen. Gewoon op Whatsapp.
Over verkiezingen gesproken: weet je nog dat socialmediabedrijven maatregelen tegen deepfakes beloofden? BNR laat zien hoe nepbeelden van politici (kosten: 20 euro) moeiteloos miljoenen volgers bereiken.
Mensen hebben de neiging om kortetermijngevolgen te overschatten, en de lange termijn juist te onderschatten als het om AI gaat. Sophie Hvivted (Head of Media bij Copenhagen’s Institute for Future Studies) werpt in dit interview van World Association of Press Publishers een ‘future oriented’ blik op de AI-ontwikkelingen in de media.
..als je iets langer hebt
Toegegeven, voor deze tip is ‘iets’ langer een understatement. Maar als je er echt even in wil duiken: Jonathan Soma (Columbia University) praat je in zijn YouTube-serie uitgebreid bij over de AI-mogelijkheden voor onderzoeksjournalistiek.
Deze week zetten alle Europese lidstaten hun handtekening onder de Europese AI-verordening – wereldwijd de eerste AI-specifieke wetgeving. Afhankelijk van hun risiconiveau worden AI-systemen gecontroleerd of (in uitzonderlijke gevallen) zelfs verboden. Voor wie zich afvraagt hoe het precies zit: een uitgebreide, maar toegankelijke uitleg vind je hier.
Tooltips tot slot
NYT gebruikte het platform Picterra om een algoritme te trainen om bomkraters te herkennen op satelietbeelden. Je vindt hier grote datasets van aerial images en modellen die je kunt trainen op jouw onderwerp.
Op Investigate.ai vind je praktische, start-to-finish guides om aan de slag te gaan met AI-tools. “Not (too) boring, not (too) mathy”, beloven de makers. De site staat vol journalistieke voorbeelden inclusief kijkje aan de achterkant.
Met deze super simpele tool kun je in twee stappen informatie scrapen zonder te programmeren. Vul in wat je zoekt en op welke website, de tool doet de rest.
Nog niet beschikbaar in Nederland, maar toch alvast: Met NotebookLM zet je informatie heel gemakkelijk om in verschillende formats. Van een geschreven stuk naar bijvoorbeeld een quiz, een Q&A of zelfs een podcast waarin twee personages de inhoud bespreken. Even geduld nog.