文章摘要
社交媒体公司内部研究发现争议内容能提高用户参与度后,Meta和TikTok被曝故意允许更多有害内容出现在用户推送中。十多名内部人士揭露,这些公司在暴力、性勒索和恐怖主义等安全问题上冒险,以争夺用户注意力。一位Meta工程师透露,高管曾指示允许更多"边缘"有害内容,包括厌女症和阴谋论。
文章总结
【标题】Meta与TikTok被曝纵容有害内容:内部算法如何激化用户愤怒以提升参与度
【核心内容】 1. 算法竞赛的代价 - 十余名吹哨人向BBC揭露,Meta和TikTok为争夺用户注意力,在暴力、性勒索和恐怖主义等内容安全问题上冒险 - Meta工程师透露,高管要求允许更多"边缘有害内容"(如厌女症和阴谋论)以对抗TikTok,理由是"股价下跌" - TikTok员工展示内部仪表盘,显示涉及政客的投诉优先于儿童安全案件
- 平台机制缺陷
- 前TikTok算法工程师Ruofan Ding形容推荐系统是"黑箱",工程师仅将内容视为数字ID,依赖安全团队过滤有害信息
- Meta研究员Matt Motyl证实,2020年推出的Instagram Reels缺乏足够安全措施,其评论区霸凌、仇恨言论和暴力内容比主站高75%、19%和7%
- 内部文件显示,Facebook明知算法会放大激怒用户的内容,但认为"基于愤怒的互动能带来利润"
- 青少年安全危机
- 19岁的Calum自述14岁起被算法"激进化",持续接收种族主义和厌女内容
- 英国反恐警察观察到,反犹、种族主义和极右内容正被"常态化"
- TikTok内部人员"Nick"披露,涉及伊拉克16岁少女性勒索案件被标记为低优先级,而政客被嘲笑的投诉反而优先处理
- 企业回应与争议
- Meta否认故意传播有害内容,称已投入巨资提升安全性,包括推出青少年账户保护功能
- TikTok驳斥相关指控为"捏造",强调采用多重审核机制,并自动开启50余项青少年安全设置
- 前Facebook高管Brandon Silverman指出,扎克伯格对竞争"极度偏执",安全团队申请少量编制被拒时,Reels团队却获700人扩编
【关键数据】 - Reels团队获得700人投入,而安全团队被拒绝增派12名专项人员(含儿童保护2人、选举诚信10人) - 75%:Reels评论区霸凌内容比Instagram主站高出的比例 - 50+:TikTok为青少年账户预设的安全功能数量
【警示性发现】 - 内部文件直指"当前算法创造的财务激励与连接世界的使命不一致" - 安全团队成员建议家长:"删除TikTok,让孩子尽可能远离这个应用" - 前Meta工程师"Tim"称,公司为追赶TikTok,副总裁级高管直接下令放宽对边缘有害内容的限制
(注:文中配图描述及重复性企业声明已精简,保留核心事实链条)
评论总结
以下是评论内容的总结:
已知问题但缺乏行动
多位评论者指出,社交媒体通过煽动愤怒情绪获利已是多年共识,但关键问题是如何应对。- "We’ve known about the financial incentives... for at least a decade now. So what are we going to do?" (Forgeties79)
- "这是过去5年的常识,但真正的问题是'我们该怎么办?'" (bigfishrunning)
商业竞争驱动不可避免
有观点认为,平台为争夺市场份额不得不采用此类策略。- "如果一家平台这样做,其他平台不跟进就会失去市场份额" (hmate9)
- "只要法律允许且有利可图,他们就会继续" (cdrnsf)
对TikTok的质疑
部分评论将TikTok的挑战趋势视为潜在威胁。- "这些趋势(破坏公物、危险行为)是否CCP对美国社会的蓄意攻击?" (KennyBlanken)
对用户和开发者的批评
批评用户沉迷社交媒体,并谴责开发者参与构建有害系统。- "我看待社交媒体用户就像看待烟民一样,带着悲伤和怜悯" (aenis)
- "让儿童使用这些平台难以接受,工程师参与其中更令人失望" (aenis)
言论自由与审查争议
存在关于言论自由的争论,有评论反对英国的网络审查倾向。- "美国人需要继续抵制英国的审查企图" (charcircuit)
讽刺与极端观点
个别评论以讽刺方式否认阴谋论的危害,或呼吁彻底弃用社交媒体。- "阴谋论无害!" (jongjong)
- "扔掉智能手机,远离社交媒体——它们正在毁灭社会" (webdoodle)
总结呈现了从"问题认知"到"解决方案缺失"的核心矛盾,同时涵盖了对平台机制、地缘政治、伦理责任的多元讨论。