Noua regulă a lui Meta: Amenințare de penalizare pentru utilizatorii de imagini AI
Meta intenționează să implementeze noi reglementări cu privire la conținutul generat de AI pe platformele sale precum Facebook, Instagram și fire, după cum se afirmă într-o postare pe blogul companiei din 6 ianuarie. Aceste măsuri au scopul de a aborda preocupările tot mai mari legate de autenticitatea și transparența conținutului digital.
Potrivit anunțului, orice conținut recunoscut ca fiind generat de AI, fie prin metadate, fie prin filigranare intenționată, va fi etichetat în mod vizibil. Mai mult, utilizatorii vor avea opțiunea de a semnaliza conținutul neetichetat suspectat de a fi generat de AI, dând astfel posibilitatea comunității de a contribui la eforturile de moderare a conținutului.
Această inițiativă reflectă abordarea în evoluție a Meta în ceea ce privește moderarea conținutului, care amintește de practicile sale anterioare apariției conținutului generat de inteligența artificială. Prin împuternicirea utilizatorilor de a raporta încălcările și prin asigurarea transparenței în etichetarea conținutului, Meta urmărește să mențină integritatea platformelor sale.
În perspectiva anului 2024, Meta valorifică baza sa vastă de utilizatori pentru a îmbunătăți capacitățile de moderare a conținutului. Permițând utilizatorilor să semnaleze conținutul generat de AI, Meta valorifică puterea crowdsourcing-ului pentru a aborda provocările emergente în ceea ce privește autenticitatea conținutului digital.
Potrivit postării de pe blog:
„Vom cere oamenilor să folosească acest instrument de dezvăluire și etichetare atunci când postează conținut organic cu un videoclip fotorealist sau un sunet realist care a fost creat sau modificat digital, și putem aplica sancțiuni dacă nu fac acest lucru.”
Îmbunătățirea detectării conținutului generat de inteligența artificială
Creatorii care utilizează platformele Meta vor fi obligați să își eticheteze conținutul ca fiind generat de AI pentru a evita potențiale repercusiuni. Deși Meta implementează filigranarea și etichetarea pentru conținutul generat cu ajutorul instrumentelor sale, recunoaște limitările în detectarea la scară largă a conținutului audio și video generat de AI.
Pentru a aborda această problemă, Meta colaborează cu parteneri din industrie precum Google, OpenAI, Microsoft, Adobe, Midjourney și Shutterstock. Împreună, aceștia încearcă să dezvolte metode de detectare a filigranelor invizibile și să îmbunătățească verificarea autenticității conținutului.
Cu toate acestea, Meta recunoaște limitările actuale în ceea ce privește detectarea la scară largă a conținutului audio și video generat de AI, inclusiv a tehnologiei deepfake. Acest lucru subliniază eforturile continue necesare pentru a aborda peisajul în evoluție al autenticității și integrității conținutului digital.