人工智能可以帮助在线游戏减少毒性吗?这是使游戏更平易近人的方式

总是有一定程度的,但在过去的几年中,它已经超越了嬉戏的垃圾谈话。现在的毒性现在不知所措的语音聊天和游说,使大多数多人游戏压力很大和敌对的体验。

游戏出版商已经尝试了各种方法来解决这个问题,现在,人工智能(AI)可以成为更具包容性社区的工具。

在线游戏中日益严重的毒性问题

烧不酥在上海 老的/Unsplash

垃圾讲话曾经是游戏中有趣的部分,特别是对于与好友的Couch Co-Op Games。您知道何时退缩,没有人太个性化。但是,在线游戏使那些水变得混乱。没有一个朋友坐在您旁边的朋友的面对面问责制,玩家倾向于将他们的侵略性带到极端。

诸如“使命召唤”和“瓦兰特”之类的游戏不仅与竞争性游戏一样,而且在充满诽谤,骚扰甚至威胁的有毒大厅中也成为了代名词。

一个2022研究估计“使命召唤”是最有毒的游戏社区之一。这样的环境使新玩家远离,甚至在参加比赛之前就搅动了潜在的球迷。

Activision针对有毒玩家的AI策略

“使命召唤”背后的出版商Activision亲眼目睹了问题。他们的旧适度工具还不足以跟上。手动报告和执行缓慢,不一致,而且常常无效。

来了托克斯莫德,由Modulate.AI创建的语音审核AI工具。与传统的报告机制不同,Toxmod实时积极扫描语音聊天。它正在倾听滥用语言,仇恨言论和激进的语气,依靠声音变形和情感提示来决定某人是否在越界。

如果AI识别有毒行为,它可以发出警告,标记用户并将详细的语音日志发送给人类主持人。日志既是音频剪辑,也是成绩单,以提高准确性和公平的执法。

Toxmod如何在现实游戏中运行

Toxmod的AI语音节制已经在顶级游戏中看到了:

  • “使命召唤:现代战争III”
  • “使命召唤:战区”
  • “我们中间” VR
  • “ GTA Online”(2023年底Beta测试开始)

在 ”,“ Toxmod在后台运行,不会干扰游戏。玩家不再需要在比赛中间停下来报告某人。现在,AI对有毒行为进行了标记,使玩家能够专注于游戏。

正如Activision报道的那样,该工具在北美的有毒语音聊天率降低了50%,总体负面行为降低了25%,重复犯罪者降低了8%,鼓励统计数据反映了系统的有效性。

什么被认为有毒行为?

Toxmod并不取决于诅咒单词或单独的诽谤。它检查了语气,语音模式和玩家的反应,以确定评论是滥用还是有毒。

至关重要的是,它不是完全自动化的。尽管Toxmod突出了潜在的违规行为,但人类主持人的最终决定权。该系统避免了不法禁令,尤其是在使用区域口音或避免上下文的游戏中的戏ter。

解决对AI适度的担忧

一些游戏玩家仍然不确定。存在隐私问题,尤其是当AI不断窃听时。其他人担心他们可能会因无辜的垃圾谈话而被错误地标记或处罚。

但是,由于人类评论仍在桌面上,因此滥用AI的危险很低。 Activision保证,适度不是完全AI驱动的 - 已对其进行公平检查。