OpenAI använder en specialversion av ChatGPT för att spåra interna informationsläckor. Enligt en rapport från The Information matar företagets säkerhetsteam in texten från publicerade nyhetsartiklar i systemet när känsliga uppgifter har kommit ut. Denna anpassade version av AI-modellen har tillgång till interna dokument samt de anställdas meddelanden i Slack och e-post.
Systemet analyserar informationen och föreslår möjliga källor till läckan genom att identifiera vilka filer eller kommunikationskanaler som innehåller de publicerade uppgifterna. Den kan därefter visa exakt vilka personer som har haft tillgång till materialet. Det är för närvarande oklart om OpenAI faktiskt har lyckats identifiera någon läcka med hjälp av metoden.
Agenten
Exakt vad som gör just denna version speciell är inte känt, men ingenjörer på OpenAI presenterade nyligen arkitekturen för en intern AI-agent som tros tjäna detta syfte. Agenten är utformad för att låta anställda utföra komplexa dataanalyser med hjälp av naturligt språk och har full tillgång till företagets samlade kunskap lagrad i Google Docs och Slack.
Källa: The Decoder
Läs mer
Macken testar: Nya Codex, AI-assistenten som faktiskt förstår hela ditt projekt
Studie: Medicinska råd från AI-bottar är opålitliga och riskfyllda
