发布日期:2024-10-14 20:40 点击次数:125
Tawainna Anderson 是一位 10 岁女孩的妈妈,她的女儿在录制 TikTok 上火爆的 “昏厥挑战” 时意外身亡。Anderson 认为 TikTok 知道 “昏厥挑战” 的存在、允许用户发布参与挑战的视频并推荐给未成年人,因此导致女儿的死亡。美东时间 8 月 27 日,美国联邦第三巡回上诉法院支持 Anderson 的指控,认为 TikTok 和母公司字节跳动有责任,并将案件发回重审。
地方法院曾驳回她的上诉,认为按照1996年《通信规范法》第230条,TikTok这样的第三方信息提供者可以免责。但7月美国最高法院的一场判决给了Anderson重新上诉的契机。
此前佛罗里达州和得克萨斯州希望立法,禁止大型媒体公司“审查”平台内容——一种编辑自主权。案件的焦点成了宪法第一修正案是否保护这种编辑自主权。社交媒体公司认为,该权力确保平台上不会“充斥着垃圾信息、欺凌、极端主义和仇恨言论”。7月,九位大法官一致认为这些公司可以享有这一权力。
在重审的案件里,判决的核心就成了 TikTok 算法的定性和归责。“《通信规范法》不对 TikTok 自身通过其平台底层算法提出的建议免责。” 本次案件的法官之一 Patty Shwartz 在判决书里写到。她认为基于最高法院 7 月判例,“使用算法进行的内容策划是公司自己的言论,不受第 230 条的保护”。
虽然算法按照用户历史偏好推荐视频,但事实上平台并不知道具体推送给了用户哪一支视频。即使备案代码,也无法知道黑匣子导向的结果,最高法院也没有明确指明社交媒体公司的相应责任。
但责任和权力相匹配是法律的基本原则之一。算法背后的公司被保护的同时,也对算法作出的决策有了责任。这场判例推翻过往类似案件的结果证券投资公司,预计对日后有重要参考。