Demonstratie, AI en omgevingsbeeld

Goede crisiscommunicatie begint met luisteren. Het is de eerste les in mijn boek ‘Klaar voor elke crisis – de 7 lessen voor goede crisiscommunicatie’, dat eind januari uitkomt. Dat luisteren doen we bij crisiscommunicatie met het omgevingsbeeld. Wat zien we in de buitenwereld:

  • feiten, geruchten, vragen, informatietekorten (informatievoorziening),
  • emoties, duiding, meningen en oordelen (betekenisgeving)
  • en – voorgenomen of oproepen tot – gedrag (schadebeperking)

We maken dit omgevingsbeeld door het lezen van tekstberichten in de media en sociale media. Vaak gebeurt dit met behulp van monitoring tools als OBI4wan of Coosto.

Maar we kunnen behalve luisteren – het lezen van tekst – ook steeds beter kijken. Afbeeldingen waren er altijd al, maar met behulp van AI is het mogelijk om veel afbeeldingen steeds sneller te analyseren. In dit tweede deel van een serie mailings over de visuele kant van AI bij crisis, ga ik in om het omgevingsbeeld.

Veel mensen hebben inmiddels een Chat GPT account. Om afbeeldingen te analyseren heb je de betaalde versie met GPT-4 nodig. Welke mogelijkheden dat biedt laat OpenAI mooi zien in deze demo.

Als omgevingsanalist kan je nu dus beelden uploaden en in tekst laten omzetten. En vervolgens specifieke vragen stellen:

“Kan je beschrijven wat er op deze foto gebeurt?"
"Kun je de emoties van de mensen op deze foto identificeren?"
"Zijn er bijzondere of belangrijke details die opvallen in deze foto?"

Als voorbeeld heb ik een foto ge-upload van een Pro Palestina demonstratie.

De analyse van Chat GPT: Op de foto zie ik een menigte mensen die deel lijken te nemen aan een protest of demonstratie. Sommige mensen houden borden vast, waarvan één duidelijk het bericht "STOP WAR CRIMES IN GAZA" toont. Er zijn ook vlaggen zichtbaar, waaronder wat lijkt op de Palestijnse vlag. De aanwezige personen tonen diverse gezichtsuitdrukkingen en lijken vastberaden of gepassioneerd over de zaak waarvoor ze demonstreren. Het lijkt erop dat deze demonstratie verband houdt met gebeurtenissen of zorgen in Gaza, op basis van de zichtbare borden en vlaggen.

Vervolgens heb ik gevraagd wat Chat GPT de burgemeester zou adviseren die in gesprek moet gaan met demonstranten. Dat levert wat open deuren op, maar is niet onaardig. Maar ik dwaal af, want we hebben het hier nog niet over advies, maar alleen over analyse. De meerwaarde zit er volgens mij in dat we beelden in woorden kunnen omzetten en dat we makkelijker analyse kunnen doen op grote hoeveelheden woorden dan op grote hoeveelheden afbeeldingen.

Uploaden in GPT is nu nog handwerk, maar ik kan me voorstellen dat monitoring tools ook steeds meer AI gaan integreren voor het analyseren van foto’s. In de (nabije) toekomst kan je alle foto’s van het nieuws laten analyseren en van duizenden tegelijk vragen wat de emoties zijn, of er ook hamas vlaggen te zien zijn en of er nog opvallende zaken zijn die goed zijn om te weten.

Kan AI ook hepen bij herkennen van fake news? Na de klimaatdemonstraties door scholieren, deelden mensen foto’s van het Malieveld dat bezaaid lag met plastic bekers en troep. De ‘klimaatstakers’ kregen kritiek dat ze niet aan het milieu dachten en hypocriet waren. Het waren echter oude foto’s van een festival op een heel andere locatie. Nepnieuws dus. De bewuste foto heb ik in Chat GPT ge-upload, maar deze kon mij niet vertellen waar of wanneer de foto gemaakt werd. Daarmee kan GPT vooralsnog dus niet helpen. Natuurlijk kan je als omgevingsanalist wel een ‘reverse image search’ doen met google. En om het bewerken van foto’s te herkennen zijn er tools als FotoForensics, MeVer en InVID.

Het gebruiken van visuele AI bij omgevingsbeelden staat nog maar in de kinderschoenen. In deze mailing heb ik mijn eerste gedachten gedeeld over dit onderwerp, maar ik wil jullie vooral uitnodigen om mee te denken. Heb jij ideeën hoe we visuele AI kunnen toepassen bij het maken van omgevingsbeelden? Post het dan in de comments onder dit LinkedIn bericht.

Tom Compaijen
Compaijen C&C – Klaar voor elke Crisis