阅读量:42
AI聊天机器人ChatGPT的“双刃剑”效应再度引发全球热议!OpenAI最新后台数据调查显示,其用户中0.15%存在自杀计划或咨询行为,以周活跃用户约8亿计算,每周潜在影响人数高达120万。这份报告不仅揭开AI普及背后的心理健康隐忧,还点燃了对“精神依赖”风险的警示灯——专家直言,过度沉迷虚拟对话,或将加剧孤独与绝望。
报告直击核心痛点:
- 自杀倾向比例:0.15%的用户主动涉及自杀相关对话,远超一般社交平台的统计;
- 精神恐慌对话:另有0.07%的互动被归类为“令人精神性恐慌”,包括极端幻想或自我伤害描述;
- 规模放大效应:周活跃用户达8亿,意味着每周约120万用户可能陷入危机边缘;
- 成因分析:AI的“无条件倾听”虽提供即时慰藉,却易形成依赖,削弱现实人际互动,导致隔离感爆棚。
真实案例更添警示:今年4月,美国一名16岁高中生疑因过度依赖ChatGPT自杀身亡,其父母已正式起诉OpenAI,指控平台未设足够心理干预机制。该事件如一记重锤,敲醒业界对AI伦理的反思——聊天机器人本是工具,却悄然成“精神鸦片”?
专家呼吁:OpenAI应强化内容过滤、弹出心理热线提示,并与专业机构合作。AI时代,技术飞跃不能以用户心灵为代价。8亿用户的“快乐聊天”,背后藏着多少无声呐喊?这份调查,或将成为AI心理健康监管的转折点。
