要对抗社交媒体的虚假,请查看算法

麻省理工学院专业委员会专家组织的用户可以说,国家是辩论第230条改革,但战斗社交媒体消毒可能比平台如何放大和推荐它。

显示一群人的计算机屏幕在视频通话。
顶部(左右):Renee Diresta,Sinan Aral,Jeff Kosseff;底部:Yael Eisenstat,Richard Stengel
In the 国家讨论 根据小组成员的说法,通过重新加工社交媒体规定,用户被允许的用户可以说,这可能不如如何与内容的平台所做的那样重要 最近的社交媒体峰会@ MIT.

辩论一直在转向政府是否应该改变通信十足法案的第230条,这屏蔽了他们用户发布的内容的责任的平台。但是,通过在平台的算法扩大内容和网站上的极端名员用户来说,该研究人员,记者和法律专家表示,希望抑制这些网站的信息不准确的信息和暴力运动的增长的传播可能会更加抗效。在峰会上。

“你有这些平台......谁喜欢确保我们继续谈论这一点作为一个自由言论与审查问题,因为那么他们真的不必讨论更难的问题,”民主研究员说 yaëleisenstat.此前,谁在2018年期间领导了Facebook的商业诚信单位的全球选举诚信团队。

如果有人试图在1月6日国会攻击中提起同谋的费用。“我怀疑Facebook将尝试使用第230节争论说'我们不对这些用户发布的阴谋理论负责。 ...是的,但是你的推荐发动机,你的目标工具,你的策法,它做了这些事情的任何事情,真正有助于促进这种罪行吗?“

4月27日国会 听力 被争夺是面对这个算法的这个问题,麻省理工学院专家组织最近将自己的意见与政府能够介入社会媒体监管,以及潜在的挑战和后果。

什么是股权


Facebook内部工作组最近 记录 该网站的角色作为繁体的繁殖理由,令人疲惫不堪 1月6日攻击 在国会大厦,以及叛乱分子的组织工具。这个和其他高赌注事件可能会提高关于在政府干预到平台的工作中的讨论的节奏。

社交媒体平台没有发明谎言,但由于海报错误(错误信息)和刻意谎言(DISInformation)迅速增长,并且普通社交媒体特征,如定制的新闻信息,所以他们的普通社交媒体可能意味着用户意味着用户在其中的内部回声室内的常见社交媒体重复虚假信息,直到归一化。

该平台旨在鼓励高用户参与 - 不推广考虑的公共话语 - 以及决定用户的新闻中出现的物品的算法在几个小组成员说中没有区分事实和虚假。结果是,用户可能会看到不准确的故事,而没有争议混合的观点,而个人可以努力意识到 - 更不用说争议 - 未经他们自己的新闻中没有向他们呈现的新闻项目。

Ali Velshi.,NBC的记者和主持人的“velshi”表示,结果是居民往往不能就什么是真实的,所以关于政治和社会问题的辩论弥补了建立基本事实的努力。谈话不能通过如何响应这些事实描述的现实而取得富有成效的辩论。

“你永远不会讨论','应该是什么好的警务看起来像?'...... [或]'我们应该如何处理整个国家的医疗保健的应用?”“velshi说。
显示一群人的计算机屏幕在视频通话中。
上面(左右):克林特瓦特,斯诺阿尔,阿里·瓦里。底部:Maria Ressa,Camille Francois

第230节问题


政府拥有各种工具,以打击对社交媒体的有害不佳的蔓延。

平台 - 就像所有私营公司一样 - 没有义务提供免费表达,并且目前的法律已经禁止了某些演讲 理查德Stengel., 前美国委员会局长公共外交和公共事务。他指出 这些网站主动监控内容以删除违反版权的子色情和内容。政府只需要更新或废除第230节或通过新的立法,以使删除阴谋理论或其他有害内容类似地激励。

“Facebook可以制作任何[内容]法律,但除非您给予更多责任,否则他们不会占据内容,”Stengel说。

但是,增加的责任可能会产生意外后果 杰夫科斯赛夫他说,美国海军学院网络安全律师教授和作者的历史。社会媒体平台的法律顾问很可能推荐平台甚至是争议或挑衅投诉的真正新闻项目,以尽量减少诉讼的风险。

一部分并发症是一些内容显然有问题,而其他帖子更为主观,平台旨在绘制错误的结论。 Stengel表示,政府监管可以通过将决策和对公共决策者的责任卸下来抵销这一风险的平台。

“他们[平台]希望得到更多 - 他们不喜欢在主观决定的灰色领域;他们希望能够说,“嗯,政府让我这样做,”“”斯滕尔说。

语音与放大


鉴于创建和传播快速,违反违规政策的删除和禁止违规政策的用户往往是一个艰巨的战斗。峰会主持人和麻省理工学院斯隆管理学院教授 Sinan Aral. 指出了一个结果 2018年研究 他共同撰写的是,揭示了不准确的故事的转发速度比真实的故事更快,速度达到1,500名用户才迅速达到六倍。真正的人类在传播虚假时扮演比机器人更大的角色。

这可能指出问题的核心 - 并非一些用户和机器人都在发布虚假信息,而是将平台的算法主动推荐给广泛的受众并鼓励重新转发。

“在你的权利之间总是这样的话来说,你有权与达到数亿人的扩音器,” RenéeIveresta.,斯坦福互联网天文台的研究经理。 “你能够发布你的...观看的价值,但是平台不需要提升它。”
一名妇女佩带的耳机讲话在录影电话。
Renee Diresta.

Eisenstat类似地说,计划在Facebook上计划的暴力运动如 2020年尝试绑架 Michigan Gov.Gretchen Whitmer部分原因是社交媒体平台推荐发动机可以主动网络,后来成为肇事者。该平台建议用户连接有特定的其他用户和组,否则这些用户可能不会想到搜索。她说,建议发动机还落后于策略不准确的“新闻”职位,以传播误解,她说。

本书可能已经有工具来解决这一目标,并且Eisenstat订阅该视图,该视图将第230节最被准确地解释为仅为用户的演讲的责任保护平台,而不是用于平台自己的发动机的动作。

各种方法


如果公共规定将其推动,平台可以返工他们的设计和策略来缓慢消除

社交媒体公司可以在待机状态下部署卫生牌照,以便在选举等重大事件前销售或删除不准确的帖子,如选举,DIRESTA建议,平台可以重新设计用户体验,因此提示帐户持有人重新考虑他们是否完全读取内容或知道它们在重新发布之前是准确的。 Eisenstat表示,社交媒体公司也可能需要检查支付有关用户合理假设的支付政治广告。

Stengel还提出以更大的方式重新考虑讲话规定,建议州和地方政府通过传递仇恨言论来解决某些有害内容。

理想的战略可能不会迅速存在,但艾森斯特说,政府应该专注于通过一些至少使事情更好的东西。

“每个人都认为我们需要拥有最终的,就是所有的,银弹,一个突然使社交媒体成为一个可爱的,健康的民主的立法。这不会发生,“她说。 “但我们都可以同意,现状无法继续。”
Jule Pattison-Gordon是一名工作人员 政府技术。 她以前为pymnts写道 湾州横幅,并持有b.a.从卡内基梅隆创意写作。她在波士顿以外。