TikTok ha annunciato nuovi strumenti di moderazione dei contenuti per la piattaforma video in formato breve per renderla più sicura per i bambini, insieme a nuovi filtri per parole chiave.
Filtri per parole chiave
Per la prima volta, TikTok offre agli utenti la possibilità di filtrare determinati tipi di contenuti inserendo nella blacklist parole e hashtag specifici.
Gli utenti possono già utilizzare la nostra funzione “non interessato” per saltare automaticamente i video di un creatore o che utilizzano lo stesso audio. Per consentire agli spettatori di personalizzare ulteriormente la propria esperienza di visualizzazione, stiamo implementando uno strumento che le persone possono utilizzare per filtrare automaticamente i video con parole o hashtag che non vogliono vedere nei loro feed Per te o Seguiti, sia perché tu “Hai appena finito un progetto per la casa e non vuoi più vedere tutorial fai-da-te o se vuoi vedere meno ricette a base di latticini o carne mentre passi a pasti vegetariani”. Questa funzione sarà disponibile per tutti nelle prossime settimane.
Video soggetti a limiti di età
TikTok sta finalmente introducendo anche restrizioni di età sui video non adatti ai bambini. In precedenza l’app avvertiva gli utenti più giovani che un video potrebbe non essere adatto, ma consentiva loro di guardarlo comunque. L’azienda ora sta finalmente bloccando i bambini dalla visione di tali video.
Nelle prossime settimane, inizieremo a introdurre una prima versione per impedire che contenuti con temi apertamente maturi raggiungano un pubblico di età compresa tra 13 e 17 anni. Quando rileviamo che un video contiene temi maturi o complessi, ad esempio scene di fantasia che potrebbero essere troppo spaventose o intense per un pubblico più giovane, al video verrà assegnato un punteggio di maturità per impedire ai minori di 18 anni di vederlo nel feed di TikTok.
L’algoritmo di TikTok ridurrà i contenuti potenzialmente dannosi
L’algoritmo di TikTok viene anche addestrato per affrontare il problema definito come la “tana del coniglio” di un flusso di contenuti potenzialmente dannosi.
L’anno scorso abbiamo iniziato a testare modi per evitare di consigliare una serie di contenuti simili su argomenti che potrebbero andare bene come un singolo video ma potenzialmente problematici se visualizzati ripetutamente, come argomenti relativi a dieta, fitness estremo, tristezza e altri argomenti relativi al benessere. Abbiamo anche testato modi per riconoscere se il nostro sistema potrebbe inavvertitamente consigliare una gamma più ristretta di contenuti a uno spettatore.
Come risultato dei nostri test e delle nostre iterazioni negli Stati Uniti, abbiamo migliorato l’esperienza di visualizzazione in modo che gli spettatori ora vedano meno video su questi argomenti.
Le nuove funzionalità di moderazione dei contenuti seguono un’indagine del Congresso del 2021 sulle app di social network come TikTok in merito a come le loro raccomandazioni potrebbero promuovere contenuti dannosi sui disturbi alimentari agli utenti più giovani.
Recentemente, TikTok è stato anche citato in giudizio da genitori i cui figli sono morti dopo aver tentato pericolose sfide viste sulla piattaforma.
Leggi o Aggiungi Commenti