Regulatorisk säkerhetsgap exponerad av brister i AI-incidentrapportering

Regulatorisk säkerhetsgap exponerad av brister i AI-incidentrapportering

Nya problem kan uppstå när det saknas ramverk för incidentrapportering. Dessa problem kan bli systemiska om de inte åtgärdas på lämpligt sätt. Till exempel har AI-system potential att skada allmänheten genom att felaktigt återkalla tillgången till sociala avgifter. Resultaten från CLTR, som fokuserade på situationen i Storbritannien, skulle kunna tillämpas på många andra länder också.

Enligt CLTR har den brittiska regeringens Department for Science, Innovation & Technology (DSIT) inget centraliserat och uppdaterat system för att övervaka incidenter som involverar AI-system. Även om vissa tillsynsmyndigheter kan samla in incidentrapporter, kanske de inte är utrustade för att fånga de unika skador som uppstår genom banbrytande AI-teknik. CLTR betonade vikten av att erkänna de potentiella riskerna förknippade med kraftfulla generativa AI-modeller och behovet av ett mer omfattande ramverk för incidentrapportering i dessa situationer.

Lämna ett svar