Naarmate videogames evolueren tot online (spel)werelden, groeit de noodzaak voor moderatie. In-game chats en fora bieden tijdens het spelen een podium voor mensen om samen te komen en te connecteren, maar dit brengt net zoals in de echte wereld soms ook ongepast gedrag met zich mee.
Op dagelijkse basis betreden miljoenen videogame spelers van alle leeftijden wereldwijd het online speelveld, wat resulteert in voortdurende interactie en uitwisseling van content. Echter, zonder geschikte moderatie riskeren we soms verbaal geweld, denigrerende of venijnige opmerkingen, ongepast spelgedrag en zelfs vijandigheid. Het waarborgen van een veilige en respectvolle spelomgeving is de sleutelrol van videogame moderatie.
Videogame moderatie is het digitaal screenen en filteren van online uitlatingen en door gebruikers gecreëerde online content, om te verzekeren dat alles voldoet aan geldende wetgeving, gepast online gedrag en spelregels van de videogames zelf. Menselijke moderatoren gaan door grote hoeveelheden afbeeldingen, chats en audio om ongewenste content te verwijderen.
Hoewel gamestudio’s traditioneel vertrouwen op menselijke moderatoren, groeit met de stijgende stroom aan online activiteit, het belang van moderatietechnologie om routinetaken uit te voeren. Door de inzet van geautomatiseerde tools, intelligente algoritmen en taalverwerking, kan AI-moderatie snel grote hoeveelheden “user generated content” verwerken.
Riot Games, de studio achter het razend populaire online multiplayerspel League of Legends, hanteert een strikte lijst van zero-tolerance woorden en zinnen. De studio maakt daarbij gebruik van realtime detectietechnologie om ongewenste taal in hun games weg te filteren. Spelers van de game Valorant kunnen hun eigen muted words list opstellen, waarbij ze handmatig woorden en zinnen kunnen invoeren die ze niet willen tegenkomen. De auto-mute functie pikt dan weer schadelijk taalgebruik op nog voor die door medespelers wordt gezien. Overtreders worden uit de chat verwijderd en ontvangen een bericht waarin wordt uitgelegd waarom.
Epic Games, de maker van de immens populaire game Fortnite, identificeert ongewenste online inhoud en gedrag dankzij een slimme combinatie van rapportage door spelers, moderatoren en geautomatiseerde technologie. Op basis daarvan neemt Epic actie om die problemen meteen aan te pakken. Epic biedt tevens een setting aan waarmee spelers en ouders ongepast taalgebruik uit de tekstchat van Fortnite kunnen filteren.
Triangle Factory, een Vlaamse studio, integreert de proactieve voice-native moderatie-AI ToxMod van Modulate. In de VR-game Breachers houdt deze technologie een oogje in het zeil bij voicechat, identificeert het schadelijk gedrag en analyseert de nuances van gesprekken op toxiciteit. Zo helpt het de moderators snel te reageren met passende context. Ook Activision maakt gebruik van de ToxMod-technologie voor de Call of Duty-reeks.
Lees hier de do’s & don’ts voor veilig gamegedrag en hoe ongewenst online gedrag te rapporteren en spelers te blokkeren.
Bekijk ook:
Van spel naar herstel: de rol van games in de gezondheidszorg
Games vinden steeds vaker een plek binnen de gezondheidszorg en therapie,…
Hoe zorg je voor jezelf (en elkaar) tijdens het spelen van videogames?
Videogames bouwen de mogelijkheid in om ongewenst online gedrag te rapporteren.…
Hoe vermijd je ongewenst game gedrag?
Videogames bouwen de mogelijkheid in om ongewenst online gedrag te rapporteren.…