首页 经验分享文章正文

微软在语音聊天中使用AI来解决社区安全,但是还有很长的路要走

经验分享 2025年07月08日 14:46 10 平之

  微软正在利用AI来协助确定有害内容,并确保游戏社区在网上玩游戏时保持安全。

  在其Xbox透明度报告的博客文章中 ,该公司重申了其“促进玩家安全方面的进步”和“对透明度的承诺 ”,以及其“利用AI的进步方法” 。

  使用AI的特定方式有两种:自动标记和图像模式匹配。

  新闻广播:Hi-Fi Rush和Redfall's Studios的关闭是Xbox Game Pass Publishing模型的标志吗?

  前者使用AI从玩家报告中识别有害的单词或短语,从而使社区主持人可以快速整理错误的报告并专注于最关键的实例。

  后者类似地使用图像匹配技术来快速识别和消除有害和有毒的图像 。

  此处的AI使用是在去年介绍新的语音报告功能之后的 ,该功能使Xbox播放器可以捕获游戏中语音聊天的视频片段,以提交给Xbox Safety Team进行审查。

  Xbox说,自该功能启动以来 ,它已经捕获了138K语音记录。当这些报告导致执法罢工时 ,有98%的玩家表现出改善的行为,没有得到进一步的执行 。

  去年,Xbox引入了执法系统 ,将不良行为与适当严重性的罢工相匹配 。自推出以来,有88%的受罢工球员没有得到进一步的执法。

  因此,这是一个积极的一步 ,AI减少了审查有毒内容的人为成本。

  尽管如此,在游戏语音聊天中,毒性和厌女症仍然很普遍 。Twitch流媒体泰勒·摩根(Taylor Morgan)发表的一篇文章本周病毒 ,因为她在演奏Riot的Valorant比赛时受到了有害的虐待(在下面的剪辑中当心语言)。

  她在X(以前是Twitter上的X上张贴时,悬架还不够。在硬件禁令开始发挥作用之前,没有什么能阻止这些人这样做 。他们再也无法再玩游戏了。”

  在后续帖子中 ,她透露,她因早期离开比赛而受到了罚款。

  这样的例子突出显示,要提高网上玩游戏的安全还有很长的路要走 。尽管微软对AI的使用似乎是积极的 ,但值得记住的是 ,去年该公司的整个AI伦理和社会团队是整个公司的10,000个工作损失的一部分(正如Verge所强调的那样)。但是,其负责人的AI办公室确实保留了其负责的AI标准指南。

  确实,微软无疑正在推动AI的好处 。去年11月 ,它宣布了与Inworld AI建立“多年共同开发合作伙伴关系 ”,为Xbox的Studios提供了AI工具,例如Design Copilot和角色运行时引擎。

  如去年GDC活动中的Eurogamer报道的那样 ,这种生成的AI工具以前已经遇到了“崇敬和愤怒”。

  最近,Unity的一份报告称,有62%的工作室已经在使用AI ,而动画则是最高用法 。

发表评论

头条121号 备案号:陕ICP备202505058号-1 sitemap 主题作者QQ:999999