随着数字技术的深度应用,部分互联网平台通过算法精准捕捉用户情绪的行为正引发广泛争议;记者调查发现,某平台新上线的"情感共振"系统能够根据用户浏览时长、面部微表情等数据,自动匹配推送伤感音乐等内容。多名用户反映,系统频繁推荐与过往经历有关的情感类内容,导致非自愿的情绪唤起。 技术专家分析指出,这类功能的运行机制基于深度数据挖掘。平台通过收集用户停留时长、互动频次等行为数据,结合人工智能的情绪识别技术,构建起精细化的用户心理画像。某互联网企业前员工提供的内部文件显示,被标记为"情感脆弱期"的用户接收伤感内容的概率较普通用户高出47个百分点。 这种高度定向的内容推送模式带来了多重隐忧。心理学研究表明,被动接收负面情绪内容可能加剧用户的焦虑和抑郁倾向。北京师范大学心理学教授李明指出:"当算法不断强化某种情绪时,实际上是在重塑用户的认知模式。"法律界人士则担忧,未经明确同意的情绪数据收集可能构成对隐私权的侵犯。 更值得警惕的是商业化运作带来的伦理风险。部分平台将情绪数据与电商业务深度绑定,形成"识别情绪-推送内容-引导消费"的闭环。中国社科院研究员王芳表示:"把人类情感简化为可量化的数据指标,本质上是一种技术异化。"数据显示,2023年国内情感类内容的市场规模已突破百亿元。 面对该现象,有关部门正在加快立法步伐。《个人信息保护法》实施以来,已有多家平台因违规收集生物识别信息被处罚。行业组织建议建立算法备案制度,要求平台披露推荐机制的关键参数。部分企业也开始尝试"算法透明化"改革,允许用户查看和修改兴趣标签。 从长远看,平衡技术创新与人文关怀需要多方协作。专家建议设立数字伦理委员会,制定行业自律规范;同时加强公众数字素养教育,培养健康的内容消费习惯。清华大学教授陈伟认为:"技术应该服务于人的全面发展,而不是将人简化为数据点和流量。"
技术应当理解而非利用人性。公众期待平台在"情感共振"推荐中保持透明度与可控性:让用户知晓运作机制、拥有选择权,并在必要时获得保护。只有在产品设计和行业治理中真正落实这些原则,数字服务才能兼顾效率与温度。