Using GPT-4 per la moderazione dei contenuti

Nel campo della moderazione dei contenuti, stiamo esplorando l’utilizzo di modelli di linguaggio di grandi dimensioni (LLMs). In particolare, il nostro modello GPT-4 è in grado di comprendere e generare linguaggio naturale, rendendolo applicabile alla moderazione dei contenuti. Questi modelli possono prendere decisioni di moderazione basate sulle linee guida di politica fornite loro.

Grazie a questo sistema, il processo di sviluppo e personalizzazione delle politiche sui contenuti viene ridotto da mesi a ore.

Una volta scritte le linee guida di politica, gli esperti di politica possono creare un set di dati di riferimento identificando un piccolo numero di esempi e assegnando loro delle etichette in base alla politica. Successivamente, GPT-4 legge la politica e assegna etichette allo stesso set di dati, senza vedere le risposte. Analizzando le discrepanze tra le valutazioni di GPT-4 e quelle di un essere umano, gli esperti di politica possono chiedere a GPT-4 di fornire una spiegazione delle sue etichette, analizzare l’ambiguità nelle definizioni di politica, risolvere le confusioni e fornire ulteriori chiarimenti nella politica di conseguenza. Possiamo ripetere i passaggi 2 e 3 fino a quando non siamo soddisfatti della qualità della politica.

Questo processo iterativo porta a politiche sui contenuti raffinate che vengono tradotte in classificatori, consentendo la distribuzione della politica e la moderazione dei contenuti su larga scala.

Opzionalmente, per gestire grandi quantità di dati su larga scala, possiamo utilizzare le previsioni di GPT-4 per migliorare un modello molto più piccolo.