Google har nyligen släppt ett nytt verktyg, SynthID Text, som gör det möjligt för utvecklare att upptäcka AI-genererad text genom att lägga till osynliga vattenmärken i språkliga modeller (LLM). Enligt Pushmeet Kohli, vice forskningschef på Google DeepMind, är målet med verktyget att främja ansvarsfull AI-utveckling. SynthID fungerar genom att analysera ord och tilldela sannolikhetspoäng till varje token (enhet i text, som kan vara bokstäver, ord eller fraser). Vattenmärkena integreras direkt i texten under distributionen av dessa tokens och är osynliga för vanliga användare.
När en text ska verifieras jämför SynthID mönstret av poäng mellan vattenmärkt och icke-vattenmärkt text för att avgöra om texten skapats av en AI-modell eller kommer från en annan källa. Det finns dock vissa begränsningar. Verktyget behöver minst tre meningar för att fungera och blir mer effektivt ju längre texten är. Det har också sämre resultat vid faktabaserade texter eller AI-genererad text som blivit kraftigt omarbetad eller översatt.
Google har betonar att SynthID inte är utformat för att direkt stoppa skadlig användning av AI-genererat innehåll, men att det kan göra det svårare att använda sådant innehåll i illvilliga syften. SynthID Text är en del av en större familj av verktyg som Google utvecklat för att upptäcka AI-genererat material, och företaget lanserade redan förra året ett liknande verktyg för att vattenmärka AI-genererade bilder.
Verktyget släpps i en tid då AI-driven desinformation ökar, tillsammans med problem som falska positiva upptäckter. Särskilt inom utbildningsområdet har lärare börjat använda AI-upptäckningsverktyg för att kontrollera elevuppgifter, vilket i vissa fall har resulterat i att studenter som har engelska som andraspråk felaktigt anklagats för att ha använt AI.
Google hoppas att SynthID ska bli ett viktigt redskap för att säkerställa att AI-teknik används på ett ansvarsfullt och transparent sätt, samtidigt som det ger ett extra lager av skydd mot felaktig användning.