Update: Een naam voor crisiscommunicatie en is AI veilig genoeg voor crisis?

Iedereen werkt ermee, maar hoe noem je het? In deze nieuwsbrief geven we eindelijk een naam aan de manier waarop crisiscommunicatie in Nederland al jaren wordt gedaan.

Daarnaast kijken we naar een vraag die steeds urgenter wordt: hoe veilig is AI op het moment dat het er écht toe doet? Want juist in een crisis wil je weten wat er met je informatie gebeurt. We laten zien hoe je daar als organisatie grip op houdt en hoe tools als FirstRing je helpen om sneller, gestructureerder én verantwoord te werken.

Heel crisiscommunicatie-Nederland werkt volgens een vaste methode, maar hoe noemen we die?

Van ministerie tot gemeente, van veiligheidsregio tot ziekenhuis, iedereen van communicatie kent Informatievoorziening, Betekenisgeving en Schadebeperking (IBS) en in elk crisiscommunicatieplan staat tegenwoordig SISOS.

Heel crisiscommunicatie-Nederland werkt volgens een vaste methode. Het probleem: we hebben er nooit een naam aan gegeven.

Daarom het tijd is om die werkwijze eindelijk een naam te geven: “Methode Crisiscommunicatie 3.0”. En wat “Methode Crisiscommunicatie 3.0” precies betekent, lees je in het artikel dat Tom heeft geschreven voor FrankWatchting.

Nieuw: open demo FirstRing

Ben je benieuwd naar hoe FirstRing je kan helpen om tijdens een crisis sneller en gestructureerder te werken? Tijdens onze maandelijkse open demo laat Anne je zien hoe FirstRing werkt en hoe je het kunt inzetten binnen jouw organisatie, of je nu in je eentje verantwoordelijk bent voor de crisiscommunicatie of met een heel team werkt.

Na de demo heb je een helder beeld van wat FirstRing doet, hoe het werkt en hoe je het kunt toepassen in de praktijk. Je ziet ook hoe het kan helpen om met minder mensen meer te doen en hoe je altijd een soort crisiscommunicatie-expert bij de hand hebt. Kortom: een laagdrempelige manier om er eens aan te snuffelen, juist als je nog niet toe bent aan een uitgebreide kennismaking.

De eerste demo vindt plaats op 7 april om 16.00 uur. Meld je hier aan en kijk mee!

Podcast: Is AI veilig genoeg voor crisis?

AI kan je crisisteam sneller en consistenter laten werken. Maar hoe zit het met veiligheid op het moment dat het er écht toe doet?

In de nieuwste aflevering van de Crisispodcast gaat Tom in gesprek met Maarten Sukel over precies die vraag. Wat gebeurt er eigenlijk met de informatie die je invoert in AI-tools? Wanneer loop je risico en wanneer juist niet?

Eén van de belangrijkste inzichten uit de aflevering: besluiteloosheid over AI is op zichzelf al een risico. Want als je als organisatie geen duidelijke keuzes maakt over bijvoorbeeld welke tools er wel en niet gebruikt mogen worden, gaan medewerkers tóch experimenteren. En in de praktijk gebeurt dat vaak met gratis accounts.

Het probleem daarvan is dat je als organisatie geen controle hebt over wat er met de ingevoerde informatie gebeurt. Bij veel gratis AI-tools kan de input die gebruikers delen worden gebruikt om het model verder te trainen of te verbeteren. Dat betekent dat gevoelige informatie, zoals persoonsgegevens, onbedoeld onderdeel kunnen worden worden van bredere datasets. En hoewel die data niet letterlijk één-op-één terugkomt in antwoorden, wordt het wel meegenomen in hoe het model leert patronen te herkennen en reageren. Dit kun je als organisatie dus voorkomen door vooraf te bepalen wat er wél mag en een veilig alternatief te bieden.

Daarnaast wordt er nog veel meer besproken, zoals bijvoorbeeld de rol van wetgeving zoals de EU AI Act, waarom je moet kiezen voor een enterprise-contracten en hoe veilig CoPilot nou eigenlijk echt is.

Luister de aflevering hier.