美国41州起诉Meta剥削青少年:诱发多巴胺
根据起诉书,Meta拒绝关闭上百万未成年人的账户,故意在Facebook和Instagram中加入成瘾性功能,触发年轻用户间歇性释放多巴胺,导致其上瘾性消费。Meta明知算法可能会放大负面的社交比较,导致用户对自己的身体或外表感觉更糟,仍拒绝更改算法。
·“包括Meta在内的社交媒体公司造成了全国青少年的心理健康危机,他们必须承担责任。”纽约州总检察长利蒂西亚·詹姆斯在声明中称。
Meta旗下拥有Facebook和Instagram两大社交平台,涉及数百万青少年和儿童用户。
美国大多数州组成的联盟起诉社交媒体巨头Meta公司,指控其非法收集儿童账户信息,并坚持采用伤害未成年人精神健康的算法。
根据最新公布的法庭文件,至少从2019年开始,Meta就故意拒绝关闭13岁以下儿童的大部分账户,同时在未经父母同意的情况下收集他们的个人信息。
此外,Meta明知其算法损害未成年人心理健康,但拒绝更改其算法,表示这会触发年轻用户间歇性释放多巴胺,导致其在平台上的上瘾性消费循环。该公司还被指控淡化了平台上错误信息、仇恨言论、歧视和其他有害内容的发生率。
这项起诉要求法院下令禁止Meta从事上述违法行为。Meta旗下拥有Facebook和Instagram两大社交平台,涉及数百万青少年和儿童用户,因此民事处罚可能高达数亿美元。大多数州对每次违规行为处以1000至50000美元的罚款。
不寻常的大规模起诉
10月24日,美国33个州提起联合诉讼,指控Meta故意在Facebook和Instagram中加入伤害未成年用户的成瘾性功能。哥伦比亚特区和另外8个州当天分别对Meta提起诉讼,其中大部分起诉内容相同。如此多的州联合起来起诉一家科技巨头损害消费者利益,这是不寻常的举动,显示美国各州正在优先考虑儿童和网络安全问题。
“Meta故意在其平台上设计具有操控性的功能,让儿童沉迷于其平台,同时降低他们的自尊,从而从儿童的痛苦中获利。”纽约州总检察长利蒂西亚·詹姆斯(Letitia James)在一份声明中表示,“包括Meta在内的社交媒体公司造成了全国青少年的心理健康危机,他们必须承担责任。”
这波范围广泛的诉讼基于2021年以来美国两党、多州调查的结果,此前Facebook举报人弗朗西斯·豪根(Frances Haugen)提供了数以万计的公司内部文件,显示该公司如何知道其产品可能会对年轻人的精神健康产生负面影响。
尽管起诉书长达两百多页,但各州引用的大部分证据都因最初提交的文件中的删改而被删除。当地时间11月26日晚,新提交的未密封起诉书提供了各州诉讼的新细节,让外界得以了解更多详情。
来自33个州的总检察长指控Meta在2019年初至2023年中从父母、朋友和在线社区成员那里收到了超过100万起Instagram上存在13岁以下用户的投诉,但“Meta仅禁用了其中一小部分帐户”。
根据起诉书,Meta违反了一系列州级消费者保护法规以及《儿童在线隐私保护规则》(COPPA),该规则禁止公司在未经父母同意的情况下收集13岁以下儿童的个人信息。每次违反该法律的罚款最高可达50000 美元以上。
“在公司内部,Meta实际知道数百万Instagram用户年龄在13岁以下,这是一个公开的秘密,并会定期记录、严格分析和确认,并积极保护不向公众披露。”起诉书称。
根据法庭文件,Meta自己的记录显示,数十万青少年用户每天花费超过5个小时时间在Instagram上。一位Meta产品设计师在一封内部电子邮件中写道,“年轻人是最好的”,“希望人们在年轻时尽早为你服务”。
在2019年的一个案例中,Meta员工在电子邮件中讨论了为什么公司没有删除属于一名 12岁女孩的4个账户,尽管女孩的母亲提出了要求,并且“投诉说她女儿只有12岁”。员工得出的结论是,这些账户被“忽略”,部分原因是Meta代表“无法确定用户是否未成年”。
“Instagram的使用条款禁止13岁以下(在某些国家或地区为13岁以上)的用户,我们已采取措施,在发现这些账户后将其删除。然而,验证网络上人们的年龄是一项复杂的行业挑战。”Meta在11月26日的一份声明中告诉CNN,“例如,许多人——尤其是13岁以下的人——没有身份证件。这就是 Meta支持联邦立法的原因,该立法要求应用商店在16岁以下的青少年下载应用程序时必须获得父母的批准。通过这种方法,不需要让父母和青少年向数百个单独的应用程序提供政府发放的身份证件等敏感信息来验证他们的年龄。”
“对商业模式有价值”
起诉书还称,Meta知道其算法可能会引导儿童接触有害内容,从而损害他们的健康。根据文件中引用的公司内部通讯,员工写道,他们担心“IG(Instagram)上的内容会引发青少年的负面情绪并影响他们的心理健康(以及)我们的排名算法将(他们)带入负面的螺旋和反馈循环,很难退出。”
例如,起诉书称,Meta研究人员在2021年7月进行了一项研究,得出的结论是Instagram的算法可能会放大负面的社交比较,并且“内容可能会导致用户对自己的身体或外表感觉更糟”。在诉讼中引用的2021年2月的内部电子邮件中,Meta员工据称认识到社交比较与在Meta的社交媒体平台上“花费更多时间有关”,并讨论了这种现象如何“对Instagram的商业模式有价值,同时对少女造成伤害。”
在2021年3月针对饮食失调内容的内部调查中,Meta团队对账户名提及饥饿、瘦弱和饮食失调的用户进行了跟踪。起诉称,Instagram的算法随后开始生成推荐帐户列表,“其中包括与厌食症相关的帐户”。
然而,Meta全球安全主管安提戈涅·戴维斯(Antigone Davis)于2021年9月在国会作证时称,Meta不会“引导人们观看宣扬饮食失调的内容。这实际上违反了我们的政策,我们会在发现后删除该内容。我们实际上使用人工智能来查找此类内容并将其删除。”
起诉书称,Instagram的高级领导层也知道有问题的内容对该平台来说是一个关键问题。据称,Instagram的负责人亚当·莫塞里(Adam Mosseri)在一封内部电子邮件中写道,“社交比较之于Instagram,就像选举干预之于Facebook。”
然而,尽管该公司的内部研究证实了对其平台上的社交比较的担忧,但起诉书称Meta拒绝改变其算法。一名员工在诉讼中引用的内部通讯中指出,煽动负面外观比较的内容“是(在探索页面上)最具吸引力的内容之一,因此这个想法与许多其他团队的首要措施背道而驰。”与此同时,“Meta的外部沟通否认或掩盖了其推荐算法向年轻用户推广极负面的外观比较内容的事实。”起诉书称。
根据诉讼中引用的内部文件,Meta还意识到其推荐算法“会触发年轻用户间歇性的多巴胺释放”。其演示文稿称,“当涉及到‘感觉良好’的多巴胺效应时,青少年是永不满足的”,该公司的现有产品已经非常适合提供能够触发这种强效神经递质的刺激。“每当我们的青少年用户发现一些意想不到的东西时,他们的大脑就会分泌出多巴胺。”
Meta在一份声明中回应称:“我们希望青少年能够获得安全、适合年龄的在线体验,我们有30多种工具来支持他们及其父母。”“我们花了十年的时间来解决这些问题,并聘请了致力于保护年轻人安全和在线支持的人员。该起诉使用选择性引用和精心挑选的文件来歪曲我们的工作。”
淡化错误信息、仇恨言论发生率
起诉书还称,Meta可能大大淡化了其平台上错误信息、仇恨言论、歧视和其他有害内容的发生率。
起诉书指控Meta创建了名为“社区标准执行报告”(CSER)的季度报告,该报告宣称其平台上社区标准违规率较低,但排除了用户体验调查中的关键数据,这些数据证明用户遇到有害内容的比率要高得多。
例如,Meta表示,根据其CSER报告中2020年7月至9月的数据,其平台上每10000次内容浏览中只有10或11次包含仇恨言论,即比例约为0.10%至0.11%。
但起诉书称,几个月前Meta的一项名为“诚信问题追踪范围调查”(TRIPS)的内部用户调查报告的仇恨言论水平明显更高。根据2020年5月的TRIPS报告,平均有19.3%的Instagram用户和17.6%的Facebook用户投诉称,在平台上目睹了仇恨言论或歧视。平均有12.2%的Instagram用户和16.6%的Facebook用户投诉称,在这些平台上看到过暴力图片,超过20%的用户目睹了欺凌和骚扰。
Meta将图片暴力定义为“在Facebook和Instagram上美化暴力或庆祝他人遭受痛苦或羞辱的内容”,并指出欺凌和骚扰“本质上是高度个人化的”,因此“使用技术主动检测这些行为可能比检测其他类型的违规行为更具挑战性”。
Meta的一位发言人通过电子邮件告诉“商业内幕”,从这些调查中收集的数据并没有真正衡量“流行度”(Meta将其定义为违规内容的观看次数占总观看次数的百分比)。相反,该公司利用这些调查中的信息来开发新功能,例如有关伤害性评论或内容的通知或善意提醒,鼓励人们在与不认识的人接触时保持尊重态度。