微软在语音聊天中使用AI来解决社区安全,但是还有很长的路要走
微软正在利用AI来协助确定有害内容,并确保游戏社区在网上玩游戏时保持安全。
在其Xbox透明度报告的博客文章中 ,该公司重申了其“促进玩家安全方面的进步”和“对透明度的承诺 ”,以及其“利用AI的进步方法” 。
使用AI的特定方式有两种:自动标记和图像模式匹配。
新闻广播:Hi-Fi Rush和Redfall's Studios的关闭是Xbox Game Pass Publishing模型的标志吗?
前者使用AI从玩家报告中识别有害的单词或短语,从而使社区主持人可以快速整理错误的报告并专注于最关键的实例。
后者类似地使用图像匹配技术来快速识别和消除有害和有毒的图像 。
此处的AI使用是在去年介绍新的语音报告功能之后的 ,该功能使Xbox播放器可以捕获游戏中语音聊天的视频片段,以提交给Xbox Safety Team进行审查。
Xbox说,自该功能启动以来 ,它已经捕获了138K语音记录。当这些报告导致执法罢工时,有98%的玩家表现出改善的行为,没有得到进一步的执行 。
去年,Xbox引入了执法系统 ,将不良行为与适当严重性的罢工相匹配。自推出以来,有88%的受罢工球员没有得到进一步的执法。
因此,这是一个积极的一步 ,AI减少了审查有毒内容的人为成本。
尽管如此,在游戏语音聊天中,毒性和厌女症仍然很普遍 。Twitch流媒体泰勒·摩根(Taylor Morgan)发表的一篇文章本周病毒 ,因为她在演奏Riot的Valorant比赛时受到了有害的虐待(在下面的剪辑中当心语言)。
她在X(以前是Twitter上的X上张贴时,悬架还不够。在硬件禁令开始发挥作用之前,没有什么能阻止这些人这样做 。他们再也无法再玩游戏了。”
在后续帖子中 ,她透露,她因早期离开比赛而受到了罚款。
这样的例子突出显示,要提高网上玩游戏的安全还有很长的路要走 。尽管微软对AI的使用似乎是积极的 ,但值得记住的是,去年该公司的整个AI伦理和社会团队是整个公司的10,000个工作损失的一部分(正如Verge所强调的那样)。但是,其负责人的AI办公室确实保留了其负责的AI标准指南。
确实,微软无疑正在推动AI的好处 。去年11月 ,它宣布了与Inworld AI建立“多年共同开发合作伙伴关系 ”,为Xbox的Studios提供了AI工具,例如Design Copilot和角色运行时引擎。
如去年GDC活动中的Eurogamer报道的那样 ,这种生成的AI工具以前已经遇到了“崇敬和愤怒”。
最近,Unity的一份报告称,有62%的工作室已经在使用AI ,而动画则是最高用法 。
相关文章
发表评论