in

GGWP è un sistema di intelligenza artificiale che tiene traccia e combatte la tossicità nel gioco

Quando si tratta di giochi online, sappiamo tutti che il pulsante di segnalazione non fa nulla. Indipendentemente dal genere, dall’editore o dal budget, i giochi vengono lanciati ogni giorno con sistemi inefficaci per segnalare i giocatori abusivi e alcuni dei più grandi titoli del mondo si trovano in un costante stato di scuse per aver ospitato ambienti tossici. Franchising come League of Legends, Call of Duty, Counter-Strike, Dota 2, Overwatch, Ark e Valorant hanno comunità così ostili che questa reputazione fa parte dei loro marchi: suggerire che questi titoli ai nuovi giocatori mette in guardia sul vetriolo che portano diventa esperienza di chat.

Sembra che il pulsante di segnalazione invii spesso i reclami direttamente nel cestino, che viene poi incendiato trimestralmente dal dipartimento di moderazione di una sola persona. Secondo il leggendario professionista di Quake e Doom eSports Dennis Fong (meglio noto come Thresh), questo non è lontano dalla verità in molti studi AAA.

“Non farò nomi, ma alcuni dei più grandi giochi del mondo sono stati così, sai, onestamente non andrà da nessuna parte”, ha detto Fong. “Finisce in una casella di posta che nessuno guarda. Lo senti come giocatore, vero? Ti senti disperato perché pensi che ho denunciato lo stesso ragazzo 15 volte e non è successo niente”.

Gli sviluppatori di giochi e gli editori hanno avuto decenni per capire come combattere la tossicità dei giocatori da soli, ma non l’hanno ancora fatto. Così fece Fong.

Questa settimana ha annunciato GGWP, un sistema basato sull’intelligenza artificiale che raccoglie e organizza i dati sul comportamento dei giocatori in ogni gioco e consente agli sviluppatori di trattare ogni rapporto in arrivo con un mix di risposte automatiche e verifica in persona. Una volta introdotta in un gioco – “è letteralmente come una riga di codice”, ha detto Fong – l’API GGWP aggrega i dati dei giocatori per generare un punteggio di salute della comunità, abbattendo i tipi di tossicità comuni a quel titolo. Dopotutto, ogni gioco è un grosso fiocco di neve quando si tratta di abusi in chat.

BUON GIOCO, BEN GIOCATO

BUON GIOCO, BEN GIOCATO

Il sistema può anche assegnare punteggi di reputazione ai singoli giocatori sulla base di un’analisi guidata dall’intelligenza artificiale dei giochi segnalati e di una comprensione complessa della cultura di ciascun gioco. Gli sviluppatori possono quindi assegnare risposte a punteggi di reputazione specifici e persino comportamenti specifici, avvisare i giocatori di un calo delle loro valutazioni o semplicemente rompere il martello del divieto. Il sistema è completamente personalizzabile e consente un titolo simile Call of Duty: Warzone hanno regole diverse da, diciamo, Roblox.

“Abbiamo scoperto molto rapidamente, prima di tutto, che molti di questi rapporti sono gli stessi”, ha detto Fong. “E per questo motivo, puoi effettivamente utilizzare i big data e l’intelligenza artificiale per ordinare queste cose. La stragrande maggioranza di queste cose è in realtà quasi perfettamente preparata affinché l’IA possa affrontare questo problema. Ed è solo che le persone non sono riuscite a capirlo”.

GGWP nasce da un’idea di Fong, del fondatore di Crunchyroll, Kun Gao, e dell’esperto di dati e intelligenza artificiale Dr. Giorgio Ng Finora sono stati assicurati $ 12 milioni di capitale iniziale, supportato da Sony Innovation Fund, Riot Games, il fondatore di YouTube Steve Chen, lo streamer Pokimane e i creatori di Twitch Emmett Shear e Kevin Lin.

BUON GIOCO, BEN GIOCATO

BUON GIOCO, BEN GIOCATO

Fong e i suoi colleghi hanno iniziato a costruire GGWP più di un anno fa e, visti i loro legami con l’industria, hanno potuto incontrarsi con i dirigenti degli studi AAA e chiedersi perché la moderazione è un problema così persistente. Hanno scoperto che il problema era duplice: in primo luogo, questi studi non vedevano la tossicità come un problema che causavano, quindi non se ne assumevano la responsabilità (possiamo chiamarlo lo speciale di Zuckerberg). E in secondo luogo, c’erano troppi abusi da affrontare.

In un solo anno, un gioco importante ha ricevuto più di 200 milioni di segnalazioni inviate dai giocatori, ha detto Fong. Diversi altri dirigenti dello studio con cui ha parlato hanno anche condiviso numeri a nove cifre con giocatori che generano centinaia di milioni di rapporti per titolo ogni anno. E il problema era ancora più grande di Quello.

“Quando ricevi 200 milioni per una partita da giocatori che si segnalano a vicenda, la portata del problema è così monumentale”, ha detto Fong. “Poiché ne stavamo solo parlando, le persone si sono arrese perché non sta andando da nessuna parte. Smettono semplicemente di denunciare le persone”.

I dirigenti hanno detto a Fong che semplicemente non potevano assumere abbastanza persone per tenere il passo. Inoltre, in genere non erano interessati a formare una squadra solo per creare una soluzione automatizzata: se avevano persone con intelligenza artificiale nella squadra, volevano che costruissero il gioco, non un sistema di moderazione.

Alla fine, la maggior parte degli studi AAA ha modificato circa lo 0,1% dei rapporti ricevuti ogni anno e i loro team di moderazione erano in genere ridicolmente piccoli, ha scoperto Fong.

BUON GIOCO, BEN GIOCATO

BUON GIOCO, BEN GIOCATO

“Alcuni dei più grandi editori del mondo hanno meno di 10 persone in totale nei loro team anti-tossicità del comportamento di gioco”, ha affermato Fong. “Il nostro team ha 35 anni. Ne ha 35 ed è composto interamente da product, engineering e data scientist. Quindi noi come team siamo più grandi di quasi tutti i team di editori globali, il che è un po’ triste. Siamo molto impegnati ad aiutare a risolvere questo problema”.

Fong vuole che GGWP introduca un nuovo modo di pensare alla moderazione nei giochi, concentrandosi sull’implementazione di momenti di insegnamento piuttosto che su punizioni a titolo definitivo. Il sistema è in grado di riconoscere comportamenti utili come condividere armi e rianimare i compagni di squadra in condizioni avverse e in risposta può applicare bonus alla reputazione di quel giocatore. Consentirebbe inoltre agli sviluppatori di implementare notifiche in-game in tempo reale come: B. Un avvertimento che dice “Hai perso 3 punti reputazione” quando un giocatore usa una parola inaccettabile. Si spera che ciò impedisca loro di ripetere la parola e ridurre il numero di rapporti complessivi per quel gioco, ha detto Fong. Uno studio dovrebbe fare un piccolo lavoro in più per implementare un tale sistema di notifica, ma GGWP può gestirlo, secondo Fong.

“Abbiamo completamente modernizzato l’approccio di moderazione”, ha affermato. “Devi solo essere disposto a provare.”

Tutti i prodotti consigliati da Engadget sono selezionati dalla nostra redazione indipendentemente dalla nostra casa madre. Alcune delle nostre storie contengono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, potremmo ricevere una commissione di affiliazione.

I prezzi del carburante scendono leggermente questo mese per la prima volta | Notizie dal Regno Unito

Le riprese di Brass Eye mostrano che la brutale commedia televisiva era solo la punta dell’iceberg | commedia