写于 2017-02-03 17:01:24| 千赢国际注册| 生活
<p>在他的杀手在Facebook上发布的Robert Godwin被谋杀之后,有关Facebook如何防止这些图形和令人不安的事件在其平台上播出的问题出现了问题在Facebook发布的事件的时间表中,公司注意到,在发布后至少一小时内没有用户报告内容</p><p>用户的第一个视频是在太平洋时间上午11:09上传的,然后是上午11:11拍摄的视频</p><p>该视频是据Facebook报道,直到下午12:59才被报道,被标记后23分钟被删除阅读:Facebook现场自杀:社交媒体上的死亡是一个日益严重的危机“这是一个可怕的犯罪,我们不允许这种内容在Facebook上“Facebook发言人告诉国际商业时报”我们努力在Facebook上保持安全的环境,并在紧急情况下与执法机构保持联系,直接威胁到人身安全“和Faceb ook强调用户对内容的报道 - 以及一旦提交报告后对这些报告的反应相对较快 - 目前尚不清楚为什么Facebook的人工智能在病毒传播之前无法捕捉到令人不安的视频去年12月,该公司首次开始讨论它正在开发的算法系统能够标记令人反感的现场视频该项目旨在利用该公司的机器学习部门,该部门开发的算法可以检测裸露,暴力和任何不符合公司政策的内容</p><p>在Facebook Live That系统上出现了一些暴力视频,其中包括用户自杀的广播,据报道,该系统自2016年6月以来一直处于开发阶段,已用于发现和删除在平台上发布的极端主义内容阅读:Facebook在审查暴行之后恢复标志性的越南战争照片虽然杀死戈德温的男人确实使用了Faceboo k现场直播他的犯罪行为,杀人本身并没有现场直播 - 它被用户录制和上传,这意味着它理论上应该被公司的算法发现对于Facebook和其他视频内容主机,这个过程不是'简单即使Facebook上的丰富信息和视频内容可以提供给它的算法,以帮助它学习如何识别某些内容,教一台计算机如何以与人类相同的方式观看视频是一项挑战</p><p>为了回应克利夫兰的悲剧,Facebook表示,它依靠自动化系统来处理数百万份关于每周收到的潜在攻击性内容的报道,但仍将这些视频发送给全球数以千计的评论者团队</p><p>对违反公司政策的内容做出主观决定“我们优先考虑对我们社区有严重安全影响的报告,并正在努力进行审查流程变得更快,“该公司表示但是谋杀案的视频不应该需要大量的审查 - 关于该视频是否包含违反Facebook规则的内容并且对其他人提出潜在安全问题的主观内容很少主观特别令人惊讶的是Facebook偶尔会过度热心地删除内容,包括逃离越南战争期间的Napalm攻击的年轻女孩的标志性形象Facebook以外的一些研究项目试图实现识别暴力内容的算法方法的效果,包括上海交通大学信息安全工程学院的努力,该学院将通过卡斯蒂利亚 - 拉曼恰大学的音频签名和研究人员发现暴力内容,试图利用计算机视觉技术检测视频中的暴力行为</p><p>解决方案的类型可能提供替代选择该公司还没有分享太多关于Facebook的信息,但即使公司和外部研究人员致力于为计算机系统创造一种阻止暴力和攻击性内容传播的方式,新类型也将继续出现</p><p>由于克利夫兰的镜头,Facebook上发布的下一次未遂谋杀案将被抓获,但另一次可怕的攻击可能会潜入裂缝中 Facebook似乎毫不直接地承认这一点是什么:它仍然依赖于用户报告对其某些内容进行质量控制 - 其用户可能不是发现这些问题的最有效系统,