Maar liefst 50% van de organisaties heeft geen risicobeoordelingen voor kunstmatige intelligentie (AI) uitgevoerd; 38% heeft die inmiddels geïmplementeerd en de resterende 12% heeft aan voornemens te zij dit alsnog te gaan doen, zo blijkt deze week uit een enquête onder Airmic-leden. Databescherming en problemen met intellectueel eigendom kwamen naar voren als de grootste risico’s, zo geven ruim negen van de tien respondenten aan. Een andere uitkomst uit de risk-assessments is dat volgens 83,3% van de Airmic-leden besluiten werden genomen op basis van verkeerde informatie. Op plek 3 volgen ethische en bias- & discriminatierisico’s.
Julia Graham, CEO van Airmic: “Onderzoek wijst uit dat de meeste organisaties, als ze al een AI-risicobeoordeling uitvoeren, traditionele risicobeoordelingskaders gebruiken die beter geschikt zijn voor de pre- AI-wereld van beoordeling. Dit is een gebied van risicomanagement dat voor velen nog in de kinderschoenen staat.” In onderzoek dat vorig jaar werd uitgevoerd door Riskonnect, zegt slechts 9% van de bedrijven wereldwijd dat ze voorbereid zijn op de risico’s die gepaard gaan met kunstmatige intelligentie.
Hoe-Yeong Loke, Head of Research bij Airmic, licht toe: “Veel regeringen zijn nog maar net begonnen met het ontwikkelen van beleid en wetten die specifiek betrekking hebben op AI, terwijl de regeringen die dat al hebben gedaan met elkaar wedijveren om hun stempel te drukken op hoe deze opkomende technologie zich zal ontwikkelen. Het is begrijpelijk dat er geen universeel geaccepteerd model is voor het beoordelen van AI-risico’s, maar riskprofessionals kunnen kijken naar recent gepubliceerde normen zoals ISO/IEC 23894:2023 Artificial intelligence: Guidance on risk management.” Airmic zal in overleg met haar leden en de industrie een bijgewerkte methodologie voor AI-riskassessmemts opstellen
