Etiske retningslinjer for kunstig intelligens (AI): Topledelserne i organisations-verdenen bør formulere spilleregler for, hvordan man vil udnytte de avancerede muligheder inden for kunstig intelligens – og hvilke gråzoner og fiflerier medarbejderne skal holde sig fra, skriver Peter Mose, partner i kommunikationsbureauet HEGELUND & MOSE og medforfatter til en ny bog om morgendagens politiske påvirkningsmetoder.

Børns Vilkårs 58-årige direktør, Rasmus Kjeldahl, tilhører det lejlighedsvis AI-mæssigt usikre +50-cheflag, der måske stadig er typisk i lobbyistverdenen. Tvivlen kan gnave på direktionsgangen og formandskontoret, når det gælder, om kunstig intelligens er en bekymrende trussel eller spændende mulighed, også for interessevaretagere herhjemme.

Etisk brug af kunstig intelligens (AI) er en chefopgave for lobbyister, der ønsker at holde sig væk fra gråzoner og fiflerier. Påvirk politik på alle platforme. Lobbyistens drejebog i den ny medievirkelighed skrevet af Peter Mose og Benjamin Rud ElberthMen NGO-direktøren adskiller sig fra de fleste modne chefkolleger blandt de hundredvis af organisationsspidser, der er sat i verden for at påvirke politikere, embedsmænd og meningsdannere: Han bruger konsekvent kunstig intelligens, når han forbereder udkast til notater og oplæg, der kan sætte dagsordenen. Det sparer tid; det giver en god bruttoliste over aktuelle emner; det inspirerer til at skræddersy budskaberne til de målgrupper, han vil have til at interessere sig for, hvordan vi undgår at svigte børn, mærkesagen for Børns Vilkår. Med andre ord: en pragmatisk tilgang til, hvordan man kan bruge AI til at få mere tid til kerneopgaven: i hans tilfælde at tage hånd om børn, der er i klemme.

Børne-NGOen er en af de organisationer, Benjamin Rud Elberth og jeg fremhæver i en ny bog, Påvirk Politik på alle Platforme, som eksempel på en politisk aktør, der prøver nye avancerede muligheder af, deriblandt kunstig intelligens.

Artiklens budskab (opsummeret af Chatbot GPT4 og webpilot)

Hovedpointe

Topledere og lobbyister skal tage ansvar for at formulere etiske retningslinjer for brugen af kunstig intelligens (AI). Det er ikke kun en teknologisk udfordring, men også en etisk og juridisk nødvendighed.

Hvorfor det er vigtigt

I en tid, hvor AI bliver mere avanceret og indgår i alt fra politisk påvirkningsarbejde til kundeservice, er det afgørende, at organisationer har klare spilleregler. Det handler om at navigere i et komplekst digitalt landskab, hvor grænserne mellem det etisk forsvarlige og det uacceptable let kan blive udvisket.

Hvem gør hvad

Rasmus Kjeldahl, direktør for Børns Vilkår, er et eksempel på en leder, der proaktivt bruger AI i sit arbejde. Han anvender teknologien til at forberede notater og oplæg, der kan påvirke den politiske dagsorden. Det sparer tid og giver en mere målrettet kommunikation.

Det store billede

Mens EU-regulering af AI er under udvikling, kan organisationer ikke sidde passivt tilbage. Der er et presserende behov for at etablere etiske rammer nu. Eksempler på uetisk brug af AI, såsom Deep Fakes i USA, understreger behovet for strenge etiske retningslinjer.

Vær opmærksom

Skepsis over for AI vil formentlig falde, også blandt ældre ledere og lobbyister. Men det er kritisk, at denne teknologi implementeres med et etisk kompas. Uden klare retningslinjer risikerer organisationer at underminere deres egen troværdighed og offentlig tillid.

Perspektivet

Det er tid til at tage AI alvorligt, ikke kun som en teknologisk kraft, men også som en etisk udfordring. Det er en chefopgave, der kræver både vision og ansvarlighed.

Sarkasmen vil formentlig forstumme

De fleste andre toplobbyister har formentlig blot smug-leget lidt med at stille AI-robotten hyggeopgaver, ikke mindst efter den hype, der opstod for snart et år siden, da der blev lanceret en gratis Chat-GPT. En række patinerede organisationsfolk har lettere hovedrystende fejet den udgave af robotten af banen ved – i øvrigt ganske rigtigt – at konstatere, at dens oplysninger er ganske mangelfulde, og at den derfor næppe kan bruges til særligt meget fornuftigt.

Den kritik vil formentlig forstumme; techgiganterne arbejder i døgndrift på at forfine produkterne; alene mens nærværende klumme skrives, meddeler britiske BBC, at OpenAI nu får fuld adgang til hele internettet, efter at gratisudgaven af chatbotten kun har været trænet til at opnå viden frem til september 2021. Danske Ritzau ridser perspektivet op: Dermed bliver den klar over, at der er krig i Ukraine, at Storbritannien har fået en konge, og at Vingegaard har vundet Tour de France hele to gange.

Få interne AI-retningslinjer på plads først

Rigtigt håndteret kan AI blive en effektiv motor i såvel politisk påvirkningsarbejde som medlemsservice. Ikke blot for en stor og mægtig erhvervsorganisation, men også hos en mindre NGO, der har mange opgaver, også dem, der ikke er snævert politiske. Vigtigt er det imidlertid, at ledelsen sætter sig i spidsen for skabe etiske retningslinjer, så medarbejderne ikke ryger ud i gråzoner og fiflerier, der kan slå skår i troværdigheden: Lad være med at kaste jer ud i usikre AI-guldgravereventyr som i 1840ernes USA, før I har jeres etiske fundament på plads. Vent ikke på den EU-techregulering, der – måske alt for langsomt – er undervejs. Vent heller ikke på, at lobbybranchen – det være sig virksomheder, organisationer eller de lejlighedsvist risikovillige kommunikationsbureauer – en skønne dag måske får aftalt fælles, etiske retningslinjer for brug af AI.

Sandt eller forkert?

Skrækscenariet er amerikanske tilstande. Over there er det foreløbige lavpunkt, at de republikanske præsidentkandidater sviner hinanden til med Deep Fakes, falske AI-videoer med lyd og billeder, der gør det svært for vælgerne at gennemskue, hvad der er sandt og forkert. Donald Trump er foreløbig ikke den værste inden for digital manipulation. Hans meningsmålings-trængte konkurrent Ron DeSantis fra Florida har indtil videre indtaget den forurenende førsteplads med en negativ AI-skabt kampagne over for netop Trump.

Så langt vil hjemlige organisationer næppe gå i kampen om dagsordenen, men de politiske ungdomspartier – de vil måske ikke holde sig pænt tilbage?

Robot sidder med ved Børnetelefonen

Etisk brug af kunstig intelligens (AI) er en chefopgave for lobbyister, der ønsker at holde sig væk fra gråzoner og fiflerierAI i NGO verdenen. Rådgiverassistent til Børnetelefonen. Illustration skabt af kunstig intelligens via DALL E 3

Rådgiverassistent til Børnetelefonen. Kunstig intelligens hjælper Børns Vilkår med at nå hurtigere ind til, hvor problemet trykker. Illustration skabt med AI (DALL E-3)

Børns Vilkår var blandt de første organisationer herhjemme, der så muligheden for at forbedre kvaliteten af rådgivningen af børn og unge ved at indføre AI.  Nemlig i form af en ”rådgiverassistent”, når stedets mange frivillige passer Børnetelefonen, der i mere end en menneskealder har været organisationens varemærke. Assistenten overvåger dialogen og giver via mønstergenkendelse undervejs input til rådgiveren: Her er de næste spørgsmål, du kan stille for at komme hurtigere ind til problemets reelle kerne. Er det vold i hjemmet? Psykisk mistrivsel? Mobning?

Først som sidst er der masser af forandringsledelse i sådan et projekt, for AI er stadig nyt for de fleste, alle lag i organisationen skal involveres. Der bør tages hånd om, at medarbejderne og de frivillige kan blive usikre: Er AI udtryk for, at ledelsen opfatter vores rådgivning for dårlig? Kan vi stole på en maskine, der læser og fortolker verden? Endelig er der ikke mindst hensynet til brugerne, der trygt skal kunne stole på, at de bevarer anonymiteten, særkendet ved netop Børnetelefonen: Følsomme data – samlet op og lagret af maskinen – skal håndteres på forsvarlig vis, også i GDPR-sammenhæng.

Børns Vilkår har også i kampagne-øjemed kastet sig over AI-genererede billeder. I det her tilfælde af ikke-eksisterende børn, der angiveligt har været udsat for vold og anden svigt. En disclaimer oppe i et hjørne på illustrationen gør opmærksom på, at det ulykkelige barneansigt netop er kreeret med kunstig intelligens. Det rigtige etiske valg, mener organisationen selv: Hvis man i stedet brugte et ”ægte” barn til kampagnebudskabet, var der måske og anden, der ville genkende den pågældende, hvad vil skabe et endnu større etisk problem, lyder ræsonnementet.

Sundhedslobbyister rekrutterer digitaliseringsekspert

Etisk brug af kunstig intelligens (AI) er en chefopgave for lobbyister, der ønsker at holde sig væk fra gråzoner og fiflerierEn digitaliseringsekspert præsenterer AI's muligheder for teamet, og en AI-robot analyserer et stort digitalt bibliotek med internationale forskningstidsskrifter. Illustrationen afspejler seriøsitet, innovation og etisk ansvar inden for sundhedsområdet.

En digitaliseringsekspert præsenterer AI’s muligheder for diabetes-teamet, og en AI-robot analyserer et stort digitalt bibliotek med internationale forskningstidsskrifter. Illustration skabt med kunstig intelligens (DALL E-3)

Også Diabetesforeningen er blandt de frontløbere, der står over for at forløse de mange AI-muligheder; direktionen er netop nu ved at rekruttere en digitaliseringsekspert, som skal bringe ledelse og medarbejdere helskindet gennem AI-transformationen. Altså ikke endnu en SoMe-student, men en tung rådgiver med strategisk tyngde. En sundhedsaktør er etisk ekstra forpligtet af, at patientrådgivning – en service, Diabetesforeningen også tager sig af – skal være videnskabeligt funderet og ikke skråsikkert baseret på måske halve sandheder fra en robot. Ikke desto mindre ligger der en ekspertgørende guldmine og venter, når Diabetesforeningen med få, udvalgte AI-søgeord kan skaffe sig lynoverblik over al international forskning om kronikere – i stedet for mere eller mindre håndholdt at skulle holde øje med snesevis af forskningstidsskrifter fra hele verden.

Politiske formuleringsforslag fra robotten

Også den politiske interessevaretagelse står over for next level: Som enhver anden professionelt arbejdende lobbyist har Diabetesforeningen for længst bygget et monitoreringsregime op over, hvad sundhedsordførere siger i Folketinget, ligesom der automatisk kommer en breaking news-lignende advarsel, så snart der popper vigtige emner op i EU-parlamentet. Næste skridt bliver, at chatbotten selv – i kladdeform – kommer med kvalificerede forslag til de målrettede argumenter og formuleringer, en sundhedsaktør med fordel kan bruge, når den politiske stab vil styrke dialogen med vigtige politikere.

Etisk i orden? Ja, så længe lobbyisten er ærlig om metoderne og holder sig på dydens smalle lobbysti, når det gælder at indsamle, fortolke og præsentere fakta over for beslutningstagerne. Ellers ender vi hver især med kun at stole på de analyser, vi selv har manipuleret.

Peter Mose er partner i kommunikationsbureaet HEGELUND & MOSE. Han er medforfatter til fem bøger om politik, ledelse, indflydelse og kommunikation; senest metodebogen ”Påvirk Politik på alle Platforme – Lobbyistens drejebog i den ny medievirkelighed”.