Zet je schrap voor veel tooltips
Dit keer in het AI-mediajournaal: falende tests die mens en bot moeten onderscheiden, wat onderzoek ons leert over transparantie rondom AI, en - omdat de tools me om de oren vliegen - extra veel tips.
Transparantie over AI: hoe dan?
Met de opkomst van generatieve AI zijn veel redacties bezig met transparantie. Moet je het altijd aangeven als je AI gebruikt ook als dat alleen voor bijvoorbeeld het bedenken van een kop is? En wat is het effect op het vertrouwen van het publiek?
Uit recent onderzoek onder bijna vijfduizend deelnemers in de VS en het VK blijkt dat mensen nieuws met headlines die gelabeld zijn als "AI-gegenereerd" minder vaak delen, ook al is het nieuws feitelijk juist. Het wantrouwen komt volgens de onderzoekers vooral voort uit de aanname dat er geen menselijke tussenkomst is geweest. Dat het publiek controle door een mens essentieel vindt, bleek ook al uit onderzoek van de BBC.
Reuters Digital News Report 2024 laat verder zien dat het type informatie ertoe doet. AI-gegenereerde content wordt eerder geaccepteerd als het om harde cijfers gaat (bijvoorbeeld sportuitslagen of beurskoersen) dan bij complexere onderwerpen die meer interpretatie vereisen.
De bekendheid van gebruikers met AI blijkt ook bepalend voor hun acceptatie, schrijft de BBC. Initieel is er vaak wantrouwen en weerstand, maar naarmate mensen meer in aanraking komen met AI, ontstaat ruimte voor nuance. Ik verwacht dat de acceptatie van gebruikers daarom de komende jaren in beweging zal zijn. Een ontwikkeling om in de gaten te houden.
Wat ik zelf overigens een mooie vorm van transparantie vind, is dit verhaal van The Pudding (getipt door Laurens Vreekamp). Het medium maakte een visueel dataverhaal met hulp van chatbot Claude. In een split screen zie je links de interactie met de chatbot en rechts het verhaal.
CAPTCHA’S gekaapt
De mini-puzzeltjes (CAPTCHA’S) die je soms moet oplossen om te bewijzen dat je geen robot bent, werken niet meer, laat Zwitsers onderzoek zien. Mensen waren tot nu toe beter dan machines in het aanklikken van bijvoorbeeld afbeeldingen van stoplichten en zebrapaden en konden daarmee bewijzen dat ze geen bot waren. Inmiddels echter niet meer. Het AI-model in het onderzoek doorstond 100% van de CAPTCHA-tests.
Dat zorgt voor nieuwe uitdagingen om fraudeurs buiten de deur te houden, bijvoorbeeld voor adverteerders. Want het maakt nogal uit of je product gezien wordt door mensen of door bots. CAPTCHA’s zijn ook voor veel nieuwsplatforms de eerste verdedigingslinie tegen bots die sites overspoelen met nepverkeer of spam. Een woordvoerder van Google laat weten dat er al subtielere methoden zijn om menselijk verkeer van bots te onderscheiden. Maar met AI-modellen die menselijk gedrag steeds beter kunnen imiteren, is de strijd voorlopig niet beslecht.
Watermerk
Adobe kondigt een tool aan waarmee makers hun werk kunnen voorzien van een onzichtbaar digitaal watermerk. Daarmee kun je laten zien dat je de originele maker bent en voorkomen dat je werk (onbetaald) trainingsmateriaal voor AI-modellen wordt. Het watermerk, dat in 2025 verwacht wordt, moet bestand zijn tegen gangbare trucs om metadata te omzeilen, zoals het maken van een screenshot.
Europa gaat de strijd aan met big tech bedrijven
Het Hof van Justitie van de Europese Unie oordeelde dat Facebook en Instagram geen informatie mogen gebruiken over de geaardheid van mensen om hen gericht reclames aan te bieden. Dat druist in tegen de Europese regel dat bedrijven geen persoonlijke gegevens mogen opslaan zonder duidelijk doel.
Ook heeft de Europese Commissie YouTube, Snapchat en TikTok gevraagd om duidelijkheid over hun aanbevelingsalgoritmes. Zo wil de commissie controleren of de bedrijven voldoen aan de Digitale Diensten Wet, die vanaf februari in heel Europa van kracht is. Volgens die wet moeten onlineplatforms rekening houden met de verslavende werking van het internetgebruik, moeten minderjarigen worden beschermd en moet desinformatie worden tegengegaan. De drie bedrijven moeten hun antwoorden voor 15 november naar de Europese Commissie sturen, die zich daarna beraadt op vervolgstappen.
Lezen, luisteren, kijken..
..als je vijf minuten hebt:
De Nobelprijs Fysica ging dit jaar naar de Brits-Canadese computerwetenschapper en voormalig Google-topman Geoffrey Hinton en collega John Hopfield. EOS Wetenschap interviewde Hinton eerder dit jaar. “Ik begrijp niet dat we niet banger zijn voor AI”, aldus de Nobelprijswinnaar.
New York Times analyseert hoe de speeches van Donald Trump door de jaren heen veranderden door o.a. sentimentanalyse en semantic search los te laten op uren aan materiaal. Slim werk, dat onder meer laat zien dat Trump 32% meer negatieve dan positieve woorden gebruikt.
Een historische én actuele analyse van De Groene Amsterdammer over de manier waarop big tech de afgelopen decennia steeds meer de dienst ging uitmaken in onze nieuwsvoorzienig. “Net nu de meeste kranten hebben uitgevonden hoe ze online inkomsten kunnen genereren, dient zich een nieuw doemscenario aan: straks kunnen lezers via AI-gegenereerde teksten alle informatie tot zich nemen die ze willen, zonder een abonnement te nemen op een journalistiek medium.” Laat het ons wakker schudden, waarschuwt Jan-Willem Sanders, uitgever van Follow The Money. “We moeten als journalistiek gaan innoveren.”
Ter ere van het 750-jarig bestaan van Amsterdam, brengt kunstenaar Bob de Jong oude schilderijen van de stad tot leven. “We staan op het punt dat geschiedenis vloeibaar wordt”, schrijft de Volkskrant hierover.
Gebruik je chatbots om samenvattingen te genereren? Zeg niet: “Vat dit samen”. Met deze tips kom je verder.
In Brainwash vergelijkt Sennay Ghebreab (hoogleraar Socially Intelligent AI aan de VU) AI met een spiegel. “Die heeft door de eeuwen heen verschillende functies gehad. In de eerste plaats was dat reflectie: je visuele eigenschappen terugzien. Dan volgt introspectie: je ziet jezelf zitten en vraagt je af, wie is die persoon? De spiegel zet je dus aan om na te denken over jezelf. Daarna komt verbeelding van wie je wilt zijn. Tot slot nodigt de spiegel uit tot transformatie, om die verbeelding van jezelf werkelijkheid te maken. Met AI zitten we nu pas aan het begin van die ontwikkeling. De vraag is nu: is de spiegel die AI is, goed genoeg? Reflecteert die ons mensen, of moet die nog verder gepolijst worden? En waar de spiegel al wel goed werkt, kijken we dan goed in de spiegel, maken we de stap naar introspectie?”
..als je iets langer hebt:
Het boek In De Schaduw van AI neemt je mee op wereldreis langs de onderbelichte, soms schimmige kanten van AI. Van klikwerkers in Bulgarije en Kenia die dagenlang beelden kenmerken om modellen te trainen (‘geestdodend, onderbetaald en soms traumatiserend’) tot een moeder in Amsterdam wiens zoon ongegrond door een algoritme wordt aangemerkt als potentieel crimineel en niet meer van dat oormerk afkomt. Auteur Madhumita Murgia (Financial Times) bezoekt ook initiatieven rond de wereld die tegengas geven, van China tot Groot-Brittannië.
Ook interessant is dit interview van de BBC met AI-expert Neil Lawrence over het verschil tussen menselijke en kunstmatige intelligentie. We zouden moeten ophouden beiden ‘intelligent’ te noemen, vindt Lawrence, want het zijn fundamenteel verschillende dingen.
Zoals beloofd: extra veel tooltips tot slot
In crisissituaties is snelheid alles. De tool AI4cri levert in een minuut tijd een communicatiestrategie inclusief Q&A’s. De tool reageert automatisch op ieder crisisnieuwsbericht en wordt momenteel getest door onder meer twee gemeenten.
Met DataTalk kun je eenvoudig informatie vinden over campagnegelden voor de Amerikaanse presidentsverkiezingen. Stel je vraag aan de chatbot, die op zoek gaat naar antwoorden in complexe datasets. Een mooie samenwerking tussen media (Big Local News) en universiteiten (Stanford & Columbia). Let wel: de output is bedoeld om je op ideeën te brengen, niet om een op een over te nemen.
Met deze opensource chatbot kun je vragen stellen over PDF-documenten.
En hiermee creëer je eenvoudig AI-assistenten voor specifieke taken, bijvoorbeeld eindredactie. Zo hoef je maar één keer een (heel gedetailleerde) prompt te formuleren, waarmee de assistent bij alle eindredactiewerk werkt. Je kunt aangeven of je assistent het hele web of alleen specifieke URL’s als bron mag gebruiken.
Deze chatbot is handig voor Search Engine Optimization.
Kun je een chatbot gebruiken, maar werk je met vertrouwelijke informatie? Deze Large Language Modellen kun je op je eigen laptop draaien met maximale privacy.
De tool Second Opinion checkt in hoeverre AI-gegenereerde samenvattingen of herschreven teksten kloppen door de nieuwe tekst te vergelijken met het origineel. Zo’n extra controlestap kan verschil maken. (Meer daarover lees je hier.)
Een fijne fake news debunker van InVid & WeVerify, die een heleboel slimme stappen combineert: van reversed image search en het doorzoeken van bestaande databases met bekende deepfakes tot social media analyse. Ook handig: je kunt eenvoudig een GIF maken waarin je het ‘echte’ en ‘neppe’ beeld achter elkaar plakt, om de manipulatie in één oogopslag duidelijk te maken. Dit is het soort toolbox waar je iets aan hebt.
Ook een slimme combinatie van tools is True Media, die checkt of beelden AI-gegenereerd zijn en daarvoor resultaten van meerdere detectietools aggregeert.
Voor wie zelf aan de slag wil: op Huggingface staan tienduizenden modellen voor allerlei Machine Learning taken. Hier vind je een compleet overzicht per type. Super handig.
Boeiende nieuwsbrief. Handige tips. 🙏