Chat GPT omarmt de uitgangspunten van goede crisiscommunicatie

“Mijn zoontje is 4 jaar oud en komt ‘s avonds om de paar minuten uit zijn bed. Hij loopt dan de trap af naar beneden en we moeten hem terug in bed leggen. Dit duurt van 19 tot 23 uur. Wat kunnen we het beste doen om dit op te lossen?” 

Deze vraag stelde ik van de week aan ChatGPT. De AI gaf meteen acht goede tips - die overigens ook in de boekjes staan. Maar wat me vooral opviel waren de eerste en de laatste zin:
Het kan frustrerend zijn wanneer een kind 's avonds herhaaldelijk uit bed komt.

(…..)
Het kan even duren (…), dus wees geduldig. Als het probleem aanhoudt en ernstige verstoring van het slaappatroon veroorzaakt, is het raadzaam om contact op te nemen met een kinderarts of slaapspecialist voor verdere begeleiding.
Welke crisiscommunicatie lessen zien wij hier?

  • Altijd eerst aansluiten bij de emotie
  • Duidelijk handelingsperspectief
  • Oog voor de meest getroffenen ( ;) )

Omdat ik altijd benieuwd ben naar wat ChatGPT met gekke opdrachten doet, gaf ik nog een prompt met de opdracht de woorden ‘Brexit’ en ‘appeltaart’ in het antwoord te verwerken.

Hij antwoordde dat dit een beetje gek was om te combineren, maar dat hij zijn best zou doen er een creatief verhaal van te maken.
Ik was erg blij met het antwoord, het was grappig en klopte ook nog steeds best wel goed. Dus ik bedankte ChatGPT keurig voor de goede antwoorden. Je kunt kunstmatige intelligentie immers maar beter te vriend houden voor als ze straks de wereld overnemen, leerde ik pas in een cursus. Daarop zei Chat GPT:

Graag gedaan! Ik ben blij dat ik je heb kunnen helpen. Als je nog meer vragen hebt, sta ik altijd klaar om te helpen. Veel succes met het oplossen van het slaapprobleem van je zoontje en ik hoop dat jullie binnenkort allemaal kunnen genieten van rustige nachten.

Dat is meer empathie dan ik van de gemiddelde call center- of webcare-medewerker krijg. De kwaliteit van GPT is afgelopen weken echt weer stukken beter geworden.

En dat zette me tot denken. Er zijn bedrijven die ChatGPT al als product kopen en het aansluiten op de eigen data. Zouden we al zo ver zijn dat we ChatGPT kunnen koppelen aan een crisismanagement informatie systeem (zoals LCMS) en het op basis van die informatie zelfstandig en geheel geautomatiseerd webcare kunnen laten doen?

Als we meegeven dat SISOS-onderwerpen niet gedeeld mogen worden en we zorgvuldig de juiste informatie in het systeem zetten, dan kan dat het leven van crisiscommunicatieteams stukken makkelijker maken.

Dus mijn vraag voor deze week: zou jouw organisatie al het crisismanagementsysteem aan ChatGPT durven koppelen? En wat zou je nodig hebben om deze stap te durven maken?