Bijdrage van Bloggers (blogs)
Hoe kun je veilig gebruik maken van AI?
Plaatsingsdatum | 30-11-2024 |
Berichtdatum | 30 november 2024 |
Blog door Sigurd Felix Weet je nog waar je was op 30 november 2022? Dit was de dag dat Chat GPT publiek beschikbaar werd. Binnen twee maanden was het aantal gebruikers door de 100 miljoen gebroken. Sindsdien staat AI bovenaan de lijstjes met strategische doelen van de meeste organisaties. 78% van de gebruikers van AI neemt eigen tools mee naar het werk (bron: 2024 Work Trend Index Annual Report Microsoft & Linkedin). Hype of revolutie? Ook in financiële wereld wordt al veel langer gebruik gemaakt van AI in documentherkenning, automatische boekingen in financiële systemen en informatiebeveiliging. In die zin is AI dus niets nieuws. Toch biedt de toepassing van generatieve AI grote kansen in het vergroten van de productiviteit van medewerkers in bepaalde beroepsgroepen. In een door het IMF gepubliceerd onderzoek (Gen-AI: Artificial Intelligence and the Future of Work) worden beroepen in 3 klassen verdeeld. Er zijn beroepen die veel met AI te maken krijgen. Die zijn op te splitsen in beroepen waar AI een toevoeging is (bijvoorbeeld accountants en advocaten) en beroepen die (bijna) volledig vervangen kunnen worden door AI (bijvoorbeeld callcentermedewerkers). En er zijn beroepen die weinig of niets gaan merken van generatieve AI zoals loodgieters en automonteurs. Dit wil overigens niet zeggen dat andere vormen van AI geen impact op deze beroepen hebben. Iedere nieuwe technologie maakt een golfbeweging door van enthousiasme, teleurstelling en uiteindelijk dagelijks gebruik. Voor generatieve AI is dat niet anders. Over de fase waarin we ons nu bevinden kun je van mening verschillen maar het potentieel van generatieve AI wordt nog niet algemeen gebruikt. Risico’s bij het gebruik van generatieve AI Een ander risico bij het gebruik van generatieve AI is dat de antwoorden onverkort voor waar worden aangenomen. Generatieve AI systemen ‘hallucineren’. Een antwoord is gebaseerd op statistische waarschijnlijkheid en taalmodellen zijn zich niet bewust van de natuurlijke omgeving. Ook hierin maken nieuwere taalmodellen grote stappen maar de gebruiker blijft verantwoordelijk voor de kwaliteit van de informatie ook al is die met behulp van AI verwerkt. AI systemen hebben te maken met vooroordelen omdat die tijdens het trainen uit de data zijn overgenomen. Die vooroordelen zijn niet altijd duidelijk net zoals de totstandkoming van het antwoord niet te reproduceren is. Een volgende keer dat dezelfde vraag gesteld wordt, zal het antwoord opnieuw worden gegenereerd en een variatie zijn op het vorige antwoord. En dan zijn er nog maatschappelijke risico’s zoals het vergroten van de ongelijkheid tussen rijke en arme landen, klimaateffecten van het gebruik van alle energie die nodig is om AI te laten functioneren, deep fake audio en video die gebruikt wordt voor cybercrimminaliteit en desinformatie en het dystopische toekomstbeeld dat algemene superintelligente AI de mensheid uitroeit. Beleid en concrete mogelijkheden Organisaties die gebruik maken van Microsoft 365 hebben in de meeste gevallen Copilot met ‘zakelijke gegevensbescherming ‘. Dit houdt in dat de prompt van de medewerker wordt opgeslagen binnen dezelfde omgeving als de e-mail en documenten en met dezelfde veiligheidswaarborgen. Wanneer Copilot gebruikmaakt van internet om een vraag te beantwoorden, wordt maar een beperkt deel van de vraag zonder referentie naar de gebruiker en de organisatie gedeeld met de zoekmachine Bing. Het antwoord wordt binnen de omgeving door het taalmodel gegenereerd en binnen de omgeving opgeslagen (bron: Microsoft Learn). Kijk bij het opstellen van een beleid naar de beveiliging van de AI assistent die al in je bedrijfssoftware zit en bepaal of die adequaat is om aan medewerkers beschikbaar te stellen en voor welk doel. Combineer het beleid ook met training om medewerkers te helpen de grenzen van generatieve AI te respecteren. Daarbij is de Europese AI Act inmiddels van kracht geworden waarin het gebruik van AI gereguleerd en (op termijn) deels verboden wordt (bron: Europese Commissie AI Act). Van AI systemen moet een risico inschatting worden gemaakt op basis waarvan het gebruik (onder voorwaarden) is toegestaan of niet. Tot slot Het is daarom belangrijk verder te kijken dan de keuze voor een chatbot. Dataclassificatie en informatiebeveiliging zijn een basisvoorwaarde voor het verantwoord gebruik van generatieve AI. De basis op orde, ook bij deze nieuwe technologie. Bron: Sigurd Felix, LinkedIn post. |
Categorie(n) | Audit, dossierbeheer en data analyse, Robotic (accounting) en AI, Branche > Accountantskantoren, Branche > Financials, ICT Innovatie |
Bronvermelding | Sigurd Felix |
Automatisch op de hoogte blijven?
Schrijf u in voor onze gratis periodieke
nieuwsbrief.
Woensdag 5 februari 2025
RGS MKB praktijkdag
Met o.a implementatie van RGS MKB decimaal rekeningschema, kengetallen, rapportages, rgs brugstaat, controles boekhouding, rgs ready, versiebeheer en nieuwe boekingsdimensies. Speciaal aandacht voor het nieuwe rapport "Boekhoudsoftware en ondersteuning van BTW".
Meer info en aanmelden.
Gerelateerde berichten
Is een zelfstandig leesbaar dossier haalbaar in de accountancy? [18-12-2019]
De verborgen kosten van On Premise software [20-10-2019]