道歉机器扎克伯格:危机不断的Facebook(脸书)致两人死亡!

  • 2019-05-23 10:06
  • 新浪科技

北京时间3月16日下午消息,去年,一位斯里兰卡用户在Facebook上发布了一则怒气冲冲的帖子,最终导致两人死亡,其后政府介入,命令Facebook在当地关闭3天。

网站关闭引起了Facebook总部的关注。该公司指派了曾经为奥巴马总统服务的律师Jessica Leinwand去查实发生了什么。Leinwand的调查结果是:Facebook需要审视对于不实信息的消极态度。在斯里兰卡事件之前,Facebook已经长期忍受假新闻和不实信息。Leinwand总结说,“对于一家私人公司来说,确定消息真假确实存在困难。”

但当Leinwand开始调查斯里兰卡事件的时候,她意识到必须给忍受假新闻的政策敲敲警钟了。从那个夏天起,Facebook移除了一些高风险国家的用户帖子,包括斯里兰卡,但前提是被当地非营利组织举报并会“立即引发暴力事件”。6月份的时候,Facebook观察到一系列熟悉的传言,新系统似乎起作用了。Leinwand说,她感到很高兴——说明Facebook有能力管理自己的平台。

真是这样吗?从Facebook被曝将成千上万的用户数据分享给剑桥分析公司到现在,已经过去将近一年。这起事件引发了美国司法部的调查,继而还有大陪审团的审问。隐私权的破坏并不像种族暴力那样严重,但这一丑闻确实标志着公众对Facebook巨大影响力态度的明显转变。

此外,隐私事件看起来那样熟悉:Facebook知道这个漏洞,多年来一直忽视它;暴露的时候,试图轻描淡写一笔带过。首席执行官马克·扎克伯格在4月的国会听证会上反复说道:“ 我们正在更广泛地看待我们的责任。“他在3月初发表了一篇类似的3000字的博文,承诺公司将专注于隐私通信,试图解决Facebook的信任问题,但他同时承认该公司的应用仍然包含 “可怕的内容,如剥削儿童、恐怖主义和敲诈勒索”。

公司的业务依赖于筛选内容并向用户展示他们可能喜欢的帖子,但这往往也会产生放大假新闻和极端主义的副作用。Facebook让Leinwand和其他高管接受《彭博社商业周刊》的采访,为公司辩解,称公司已经取得进展。

不幸的是,他们描述的报告系统反应缓慢且资源不足。这个系统仍旧以来收入微薄的人类审查员和软件。Facebook本可以向审查员支付更多工资或聘请更多审查员,或对用户可发布的帖子设置更严格的规定——然而这些都会损害公司的利润和营收。与采取上述措施的态度想法,公司习惯于在问题出现后,才试图制定规则。这些规则尽管有所帮助,但批评者认为Facebook应该采取更加积极主动的措施。

“在系统内部已经出现问题后,你才去寻找问题所在并试图解决问题的这一整套思维逻辑本身存在缺陷——这在数学上是不可能的,”Facebook的早期投资者之一罗杰·麦克宁(Roger McNamee)说。麦克宁如今成了Facebook最活跃的批评人物。他认为,由于公司提供个性化广告的能力依赖于收集和处理大量用户数据,公司限制可疑内容的动机十分有限。“他们看待问题的方式,只是为了避免解决商业模式内先天存在的问题,”他说。

如今,Facebook由一份长达27页的文件管理着。这份文件名为《社区标准》(Community Standards),2018年首次公开发布。文件中的规则明确规定,比如,若为出于科学或教育目的,平台上不得发布任何制造爆炸物的教程。同样地,任何“可见肛门”和“臀部完全裸露的镜头”等图像均不得发布,除非这些图像叠加在公众人物身上且允许作为评论发布。

这套标准的明确程度看似十分荒谬。但是,Facebook的高管称,这是为了以可扩展的方式,系统性解决网站中最糟糕问题的努力实践。也就是说,这些规则十分普遍,可应用到世界任何地方——也足够清楚,在Facebook位于菲律宾、爱尔兰等地的内容审查中心的任何一个低薪工人都可以在几秒钟内决定如何处理标记的帖子。Facebook的这1.5万名员工和合同工的工作环境曾引发争议。2月份,科技媒体《Verge》报道称,美国的审查员每年收入仅2.88万美元,还要定期查看包含暴力、色情和仇恨言论的图像与视频等。有些人因此患上了创伤后应激障碍。Facebook回应称,公司正对合同工供应商进行审核,将于他们保持密切联系,以维持更高的标准和薪酬。

扎克伯格曾说,公司已经用来识别裸体和恐怖主义内容的人工智能算法,未来将可以处理大部分此类内容的筛选。但目前,即便是最复杂的人工智能软件对内容分类感到困惑。“仇恨言论是其中之一,”Facebook的全球政策管理负责人莫妮卡·比科特(Monika Bickert)去年6月份在公司总部的一次采访中说,“欺凌和骚扰也是。”

在接受采访那天,比科特正在管理Facebook对前一天发生的大规模枪击事件的回应。枪击案发生在马里兰州的安那波利斯。大屠杀发生时,比科特告诉内容审核员检查所有赞扬枪手的帖子,并屏蔽机会主义者以枪手或受害者名义注册的虚假账户。之后,她的团队撤掉了枪手的主页,又将受害者的主页变为公司所谓的“缅怀账户”,页面与普通Facebook主页一样,但死者名字上方多了“悼念”一词。

像这样的危机几乎每周都会发生。“不只是枪击事件,”比科特说,“也可能是飞机失事,我们得找出谁在失事飞机上,以及这是否是一次恐怖袭击。也可能是抗议活动,声称有人受害等等。”

这些还都是比较简单的例子,善与恶之间的界限清晰明确,Facebook也已经为此开发了响应流程。在她的笔记本电脑上,比科特展示了公司《社区标准》团队的会议幻灯片。团队每隔一个周四早上聚集在一起制定新的规则。大约有80名员工,或亲自或虚拟地参加会议。幻灯片显示,去年的一个周四,团队讨论了如何处理#MeToo的帖子。这些帖子由女性发布,点名道姓指控那些骚扰她们的男性。若帖子内容不实,它们就可以被认为是对无辜男性的攻击骚扰。也是在那次会议上,公司评估了年轻用户尝试的病毒式特技。比如“避孕套吸食挑战”,“辣椒挑战”等等,年轻人会尝试或假装尝试这些挑战以博取眼球。若这些挑战可伤及他人,那Facebook是否应该阻止别人宣传这些帖子呢?

12月份,经过数月的讨论后,Facebook增加了新的规则。#MeToo指控没有问题,只要它们不鼓励报复行为。挑战内容也没有问题,只要它们不鼓励自残。“这些问题都不是非黑即白,”比科特说。

在国会和其他地方的听证会上,Facebook已经就针对其内容决策的批评部署了一套回应方式。若对网站上某些已经被社区标准所禁止的内容进行问询,高管会向公众保证,此类内容“不被允许”或“禁止发布”。若还没有对应的规则,Facebook通过会解释说,公司正在试图解决问题,公司没能及时发现问题,公司正在承担自己的责任。对于2016年美国总统大选期间的俄罗斯干预和斯里兰卡的种族暴力事件,公司已经说了不知多少次的“未能及时发现问题”。但是,“未能及时发现问题”也可以被理所当然地解释为故意无视问题直到怨声载道才予以重视的一种委婉表达。

“他们不想对任何事情负责,”技术高管兼活动价艾琳·凯莉(Eileen Carey)说。自2013年以来,她一直在跟踪毒贩在网上发布的药物图片。很多帖子中都包含电话号码或地址,感兴趣的用户可以选择自取或邮件寄送。事实上,这些内容被标记为非法类鸦片药物广告。

在一家咨询公司工作后,凯莉渐渐开始关注这一问题。她的公司帮助Purdue Pharma清理假药。当收到凯莉的提醒后,很多科技公司——包括阿里巴巴、Craiglist和易趣——都会迅速同意撤销这些图片。但是,她说,Facebook和Facebook旗下的Instagram是例外。

凯莉目前也居住在湾区。她经常会与Facebook的高管们参加派对活动,然后提出这些问题大煞风景。也是从2013年开始,凯莉一边关注这个问题,花几分钟时间在Facebook和Instagram上搜索药品销售的帖子并举报。她说,通常她会收到一个不屑一顾的自动回复。有时候,根本没有回复。当时,科技公司都在会议和研究报告中提倡,对匿名黑色网络上的药品销售采取更加严格的执法。但事实上,凯莉渐渐相信,大多数非法购买其实发生在正常的网络上,在社交媒体和其他在线商店上。“生命正在消失,但Facebook并不在意,”她说。

2018年,凯莉开始向记者和Facebook员工在推特上发送投诉。4月份,Facebook副总裁,当时正在训练公司AI软件的盖伊·罗森(Guy Rosen)给她发了一条消息,请她提供更多相关案例。她随后向罗森发送了一些Instagram帖子,都是关于药物销售的。“我之前举报了这些帖子,但它们仍在#opiates的搜索结果中,大约有43000条。”

罗森回复说:“这些案例十分有帮助。”Facebook最终在4月份,将可搜索标签从Instagram上移除——但那是在受到美国食品和药物管理局局长斯科特·戈特利布(Scott Gottlieb)的指责的一周之后,扎克伯格即将前往国会作证的前一天。

从那之后,凯莉一直在关注来自肯塔基州、俄亥俄州和西弗吉尼亚州的新闻报告。在这些地方,今年因过量服用类鸦片类药物致死的人数已经开始下降。有些文章推测,原因可能在于社区治疗中心或心理健康资源的增加。但是凯莉认为:“真正改变的一件事是,相关标签不再存在。”

即便如此,Facebook上的毒品问题依旧存在。9月份,《华盛顿邮报》将Instagram描述为“一个允许非法药物打广告的较具规模的公开市场”。作为回应,比科特发表了一篇博客文章,解释说,Facebook已经屏蔽了上百个标签与药物相关的帖子,正在研究计算机成像技术,以更好地检测与药品销售有关的帖子。她还列出了一条可预测的路线:“我们的服务决不允许这样的内容。”

扎克伯格,作为公司的首席执行官、董事长、创始人和控股股东,经常面临公众质疑:他是否应该对公司产品拥有近乎绝对的权力。除了在内容审查方面,他竭力否认这一建议。“我越来越相信,Facebook不应该对自由言论和安全做出太多重要决策,”他在11月份时写道。他说,公司将成立“一个独立的机构”对任何内容是否应该保留在Facebook上的争议,以“透明且有约束力的方式”,做最终裁决。建议的机构将包含40名“在各个领域的专家”,扎克伯格写道,“就好比我们的董事须对我们的股东负责,这个机构仅对我们的社区负责。”

与此同时,扎克伯格希望让计算机尽可能多地承担审查任务。比科特说,内容审查员目前已在训练机器。“审查员说,‘很好,机器,这个选择正确。这是仇恨言论’或者‘哦不,机器,这次你选错了,这不是仇恨言论。’”Facebook称,内容审查员标记的仇恨言论帖子中,有52%已经可被算法识别。公司还表示,其将使用AI来尝试删除药物相关帖子。

另一个转让责任的方式是,鼓励用户尝试公司推出的新加密消息服务,这一服务旨在让用户之间的对话对任何人不可见,包括Facebook。“我相信,一个注重隐私的通讯平台,将比今日的开放平台更加重要,”扎克伯格在3月6日发布的博客文章中写道。有人认为,这是自剑桥分析丑闻之后,Facebook批评者取得的一次胜利,但连扎克伯格也承认,这是一个利益权衡:新的改变可能会让恐怖分子、吸毒者以及言论鼓吹者更加肆无忌惮。Facebook旗下的WhatsApp已经采取类似的加密措施。但是在去年的印度,WhatsApp上的与儿童绑架有关的不实信息导致村庄陷入恐慌,致使有些村民对外来者采取私刑。WhatsApp无法删除内容;只能减少某条信息被分享的次数。根据BBC的报道,自那次事件后,又发生了一起“WhatsApp私刑”事件。

但是Facebook的高管却在试图让全世界放心。比科特去年9月前往斯里兰卡,与60个民间社会团体见面,倾听他们的对假账户等问题的担忧。要谈的东西有很多。斯里兰卡政策选择中心的高级研究员Sanjna Hattotuwa说:“他们的社区标准非常具体,比如明确提到了有些不良内容需要立即删除。但是,有些内容的重点在于,它会在较长一段时间内发酵恶化。”

最近,Hattohuwa的团队在一篇博客文章中提醒说,Facebook与斯里兰卡政府的关系太过密切,收买官员,而这些官员也曾被指控为政治目的散布虚假信息。帖子中引用了一位官员的推文,其中Facebook在斯里兰卡的公共政策主管Ankhi Das向前总统拉贾帕克萨(Mahinda Rajapaksa)赠送了一幅当地艺术家的画作。而拉贾帕克萨的一些支持者被认为曾煽动了反穆斯林骚乱。Facebook称,该礼物为“公共艺术”,不存在现金价值,公司也向其他斯里兰卡领导赠送画作。

Hattotuwa、凯莉和世界各地其他批评者最关注的问题是,Facebook更倾向于解决对问题的看法,而不是解决问题本身。要求隐去真名的“亚历克斯”最近获得了一份在伦敦Facebook的工作,工作内容是关注公司的政策项目。他曾经参与过政治活动,也在一家大型科技公司工作过。在一次会议中,他与Facebook的全球政策项目主管维多利亚·格兰德(Victoria Grand)进行了交谈。

鉴于Facebook发生的丑闻,当时亚历克斯问格兰德,自己工作的真实性质到底是什么。亚历克斯回忆说,他当时问她:“你需要有人来实现长久的变化或改变渠道吗?”他说,格兰德告诉他,之前不曾有任何候选人问过这个问题。她停顿了一会继续说道:

“我想,每个人都想要成为理想主义者。但是,如果我们只是一再回应那些消极的情绪,那么就不会有人关心我们所做的一切好事情。”Facebook称,格兰德“回忆的对话版本与此不同”。不管如何,亚历克斯拒绝了Facebook提供的工作机会。

原标题:道歉机器扎克伯格:危机不断的Facebook(脸书)致两人死亡!|IT业界

头条推荐
图文推荐
第一 ​转换投资理财模式 中佳华达低风险资产投资策略 ​转换投资理财模式 中佳华达低风险资产投资策略

热门阅读