總是有一定程度的,但在過去的幾年中,它已經超越了嬉戲的垃圾談話。現在的毒性現在不知所措的語音聊天和遊說,使大多數多人遊戲壓力很大和敵對的體驗。
遊戲出版商已經嘗試了各種方法來解決這個問題,現在,人工智能(AI)可以成為更具包容性社區的工具。
在線遊戲中日益嚴重的毒性問題
垃圾講話曾經是遊戲中有趣的部分,特別是對於與好友的Couch Co-Op Games。您知道何時退縮,沒有人太個性化。但是,在線遊戲使那些水變得混亂。沒有一個朋友坐在您旁邊的朋友的面對面問責制,玩家傾向於將他們的侵略性帶到極端。
諸如“使命召喚”和“瓦蘭特”之類的遊戲不僅與競爭性遊戲一樣,而且在充滿誹謗,騷擾甚至威脅的有毒大廳中也成為了代名詞。
一個2022研究估計“使命召喚”是最有毒的遊戲社區之一。這樣的環境使新玩家遠離,甚至在參加比賽之前就攪動了潛在的球迷。
Activision針對有毒玩家的AI策略
“使命召喚”背後的出版商Activision親眼目睹了問題。他們的舊適度工具還不足以跟上。手動報告和執行緩慢,不一致,而且常常無效。
來了托克斯莫德,由Modulate.AI創建的語音審核AI工具。與傳統的報告機制不同,Toxmod實時積極掃描語音聊天。它正在傾聽濫用語言,仇恨言論和激進的語氣,依靠聲音變形和情感提示來決定某人是否在越界。
如果AI識別有毒行為,它可以發出警告,標記用戶並將詳細的語音日誌發送給人類主持人。日誌既是音頻剪輯,也是成績單,以提高準確性和公平的執法。
Toxmod如何在現實遊戲中運行
Toxmod的AI語音節制已經在頂級遊戲中看到了:
- “使命召喚:現代戰爭III”
- “使命召喚:戰區”
- “我們中間” VR
- “ GTA Online”(2023年底Beta測試開始)
在 ”,“ Toxmod在後台運行,不會干擾遊戲。玩家不再需要在比賽中間停下來報告某人。現在,AI對有毒行為進行了標記,使玩家能夠專注於遊戲。
正如Activision報導的那樣,該工具在北美的有毒語音聊天率降低了50%,總體負面行為降低了25%,重複犯罪者降低了8%,鼓勵統計數據反映了系統的有效性。
什麼被認為有毒行為?
Toxmod並不取決於詛咒單詞或單獨的誹謗。它檢查了語氣,語音模式和玩家的反應,以確定評論是濫用還是有毒。
至關重要的是,它不是完全自動化的。儘管Toxmod突出了潛在的違規行為,但人類主持人的最終決定權。該系統避免了不法禁令,尤其是在使用區域口音或避免上下文的遊戲中的戲ter。
解決對AI適度的擔憂
一些遊戲玩家仍然不確定。存在隱私問題,尤其是當AI不斷竊聽時。其他人擔心他們可能會因無辜的垃圾談話而被錯誤地標記或處罰。
但是,由於人類評論仍在桌面上,因此濫用AI的危險很低。 Activision保證,適度不是完全AI驅動的 - 已對其進行公平檢查。