Datasäkerhetsrisker leder till att den amerikanska rymdstyrkan tillfälligt stoppar användningen av AI-verktyg, inklusive ChatGPT

Den amerikanska rymdstyrkan har tillfälligt stoppat användningen av webbaserade verktyg för generativ artificiell intelligens (AI), som ChatGPT, för sin personal på grund av oro för datasäkerhet. Ett memo, daterat den 29 september och adresserat till Guardians (namnet som ges till rymdstyrkans anställda), förbjuder personal från att använda AI-verktyg, inklusive stora språkmodeller, på statliga datorer tills de får formellt godkännande från styrkans Chief Technology and Innovation Office. Det tillfälliga förbudet infördes för att minska riskerna i samband med dataaggregering.

Generativ AI, som drivs av stora språkmodeller, har blivit allt mer populär de senaste åren. Dessa modeller kan snabbt producera innehåll som text, bilder eller video baserat på en uppmaning och har använts i produkter som OpenAI:s ChatGPT. Lisa Costa, Space Forces teknologi- och innovationschef, erkände potentialen hos denna teknik för att revolutionera arbetsstyrkan och förbättra Guardians operativa hastighet.

Flygvapnets talesman bekräftade det tillfälliga förbudet och tillade att det var nödvändigt att bestämma det bästa sättet att integrera dessa förmågor i US Space Forces uppdrag och dess väktares roller. Beslutet att pausa användningen av generativ AI och stora språkmodeller är en tillfällig åtgärd för att skydda tjänstens och dess personals data.

Costa nämnde i memoet att en generativ AI-arbetsgrupp hade bildats i samarbete med andra Pentagon-kontor för att utforska ansvarsfulla och strategiska sätt att använda denna teknik. Ytterligare vägledning om användningen av generativ AI inom rymdstyrkan förväntas släppas under den kommande månaden.

Lämna ett svar