AI-avatars duiken op: als journalist, tolk of politicus
Welkom terug! In deze editie: de hoofdredacteur van Omroep Brabant over de eerste AI-presentatrice van ons land, hoe excentriek prompten werkt en het domste dat je kan zeggen over AI.
Maar eerst: AI in verkiezingstijd
Want we leven in het grootste verkiezingsjaar in de geschiedenis. Meer dan de helft van de wereldbevolking mag dit jaar naar de stembus. Spannend, want AI heeft potentieel grote impact: van micro-targeting om kiezers precies te serveren wat ze willen horen, tot nepnieuws en fake phone calls van Joe Biden. De vraag is niet óf maar hoe AI een rol gaat spelen in campagnevoering.
Nieuwsuur wijdt de eerste aflevering van de online serie #Ophef (NOS/NTR) daarom aan AI in verkiezingstijd. Presentator Roel van Niekerk reist af naar Indonesië, waar het campagneteam van presidentskandidaat Prabowo een AI-gegenereerde, knuffelbare avatar van de man creëerde om zijn twijfelachtige imago op te poetsen. Het werkt. En dat is slechts één van de vele manieren waarop Prabowo’s team AI inzet. Wint voortaan de kandidaat met de slimste AI-toepassingen? #Ophef onderzoekt in aflevering 1 of de grote techbedrijven én onze democratieën wel klaar zijn voor de combinatie van AI en verkiezingen.
In aflevering 2 duikt Van Niekerk in de wereld van social media. Wie of wat bepaalt wat jij daar te zien krijgt over bijvoorbeeld de oorlog in Gaza? En bestaat het beruchte shadow banning echt? De eerste twee afleveringen zijn te bekijken op NPO Start.
Deze zomer verschijnen er nog twee afleveringen. Een tipje van de sluier door maker Fleur Damen: “Het internet wordt overspoeld met AI-gegeneerde content. Op Facebook ging onlangs Shrimp Jesus viral: een AI-plaatje van Jezus als garnaal. De algoritmes lijken dit soort AI-spam te belonen, terwijl berichten van nieuwsmedia en kleine bedrijven steeds minder zichtbaar zijn. We zijn benieuwd hoe generatieve AI bekende platformen zoals Google en Facebook verandert.”
Een AI-kloon als nieuwslezer
Omroep Brabant presentatrice Nina van den Broek heeft sinds deze week een AI-gegenereerd evenbeeld. Hetzelfde uiterlijk, dezelfde stem, gebaren en mimiek. De omroep zet de virtuele versie van Nina in voor nieuwsvideo’s bij verhalen die anders alleen in geschreven vorm zouden bestaan, om zo laaggeletterden en jongeren beter te kunnen bereiken. Omroep Brabant is daarmee de eerste journalistieke organisatie in Nederland met een AI-presentator. Ik sprak hoofdredacteur Renzo Veenstra. “Het is nadrukkelijk de bedoeling dat de ‘echte Nina’ ook blijft presenteren. Deze video’s zijn extra, die hadden we anders niet kunnen maken.”
Best spannend om echt en fake door elkaar te laten lopen als nieuwsomroep. Wat verwacht je dat een AI-presentator doet met het vertrouwen van het publiek?
“Misschien ben ik heel naïef, maar ik verwacht dat het niks doet. In elke video vermelden we in beeld dat de presentatrice AI-genereerd is en dat de overige beelden, tekst en informatie van echte journalisten afkomstig zijn. Dat doet niets af aan de journalistieke echtheid van het product. Er zijn veel media die hele AI-gegenereerde artikelen online hebben staan. Wij maken alles zelf. Bovendien laten sommige media hun artikelen al voorlezen door een AI-gegenereerde voice clone van een redacteur. Is dat dan zo anders?
We hebben er wel over nagedacht of we Nina zouden inzetten of een niet-bestaand gezicht zouden gebruiken. Maar onze Nina is echt, de kijkers kennen haar, ze praat Brabants. Daarmee is het persoonlijk. Ik denk dat het minder betrouwbaar was overgekomen als mensen haar niet kenden.”
Wat zijn de reacties tot dusver?
“Het grappige is: die gaan meer over hoe het eruit ziet dan over betrouwbaarheid. Mensen zeggen bijvoorbeeld dat de lippen niet helemaal synchroon lopen of dat haar stem te vrolijk is bij een bepaald bericht. Ook vroeg iemand of we Nina wel betalen. Maar over betrouwbaarheid gaan de reacties tot nu toe niet. Misschien is het vooral een journalisten ding om daar zo bezorgd over te zijn en vindt het publiek het helemaal niet zo spannend. Dat gaan we ontdekken.”
Welke afspraken hebben jullie gemaakt met Nina?
“Toen ze nog freelancer was, hebben we Nina een vast bedrag per maand beloofd voor het gebruik van haar avatar. Inmiddels is ze in dienst en krijgt ze dus sowieso een vaste beloning.
Het gaat in eerste instantie om een experiment van drie maanden. In die fase kan zowel de hoofdredactie als Nina er op ieder moment mee stoppen. We hebben een gentlemen’s agreement: als Nina er morgen toch een slecht gevoel over heeft, dan trekken we de stekker er acuut uit. Het is wel háár gezicht. Als ze ooit bij ons weggaat, gebruiken we haar avatar ook niet meer. Bestaande filmpjes blijven dan wel in ons bezit. Als een gewone presentator vertrekt, blijven de video’s ook bestaan.
Verder zijn er bij ons maar drie redacteuren die toegang hebben tot het systeem waarmee ze de kloon van Nina kunnen inzetten. Zij hebben een contract getekend met de plechtige belofte dat AI-Nina alleen redactioneel wordt ingezet. We gaan hier niet mee grappen of grollen. De virtuele Nina spreekt alleen teksten uit die door een redacteur gemaakt zijn, nooit door een ander.”
Wat testen jullie precies in de eerste drie maanden, en hoe?
“De test is tweeledig. We kijken naar onze eigen redactie. Lukt het ons? Biedt het ons iets extra’s? En we kijken naar het publiek. Hoe reageren mensen, slikken ze het, vinden ze het fijn om meer video’s te zien? We hebben een groot klantenpanel dat we hierover zullen bevragen. Ook nodigen we iedereen uit om met ons te communiceren. We reageren persoonlijk op ieder bericht. Stel dat we over twee weken honderden negatieve mailtjes hebben ontvangen. Dan moet je je achter de oren krabben en afvragen of dit wel goed is. Het is een spannende stap, maar er is maar één manier om erachter te komen.”
Lezen, luisteren, kijken..
..als je tien minuten hebt:
- Omroep Brabant heeft Nina, maar de Japanse nationale omroep NHK heeft KIKI: een avatar die geschreven of gesproken taal omzet naar gebarentaal. Dat is minder makkelijk dan het lijkt, want de woordvolgorde is vaak anders dan in gesproken taal en mimiek speelt een grote rol. Media.monks vertelt hoe ze het project lieten slagen.
- Wist je dat ChatGPT betere resultaten geeft als je de tool een beloning belooft? Chocola, een trotse moeder of wereldvrede – geen grap. Hoe ‘excentriek prompten’ werkt.
- Onderzoeker Tomás Dodds vergelijkt 37 AI-richtlijnen bij journalistieke media in 17 landen en concludeert dat die opvallend veel op elkaar lijken én doorgaans door hoofdredacties zijn bedacht. Slecht nieuws, vindt hij. “Van bovenaf opgelegde richtlijnen zijn niet effectief omdat journalistiek gebaseerd is op gut feeling. Wie effectieve richtlijnen wil, zou die in samenspraak moeten ontwikkelen.”
- Een interessant inkijkje in de manier waarop factcheckers in Georgië, Noorwegen en Ghana gebruikmaken van AI.
..als je wat langer hebt
“AI is een tool, geen doel”
De domste uitspraak over AI als je het Aaron Mirck vraagt? Zeggen dat je ‘iets’ wil doen met AI. “Een loodgieter gaat ook niet naar het werk met het voornemen om zijn knijptang te gebruiken.”
Mirck lanceert 30 mei zijn boek AI, voorbij de hype. Om het in één zin samen te vatten: “AI is een tool – en geen doel.” Zijn boodschap: laten we nieuwsgierig blijven, maar kritischer worden.
Tot slot: een tooltip
- Of eigenlijk een verzameling aan tips. Want Future Tools biedt een overzicht van een groot aantal tools, gesorteerd op doel: van beeldverbetering tot nieuwsaggregatie.
En toch wordt er te naïef gedacht over AI. Het is een “tool” waarvoor je niemand voor je karretje hoeft te spannen. De tool *is* het karretje.