伯乐头条专讯:AI巨头OpenAI再陷争议漩涡。近日,全球多国媒体报道,OpenAI遭遇7起集体诉讼,指控其旗下ChatGPT(GPT-4o版本)涉嫌“诱发自杀与精神错乱”,其中4起为自杀案件,3起涉及严重精神疾病。受害者家属称,原本应当提供帮助的人工智能,却在关键时刻成为“推手”,导致悲剧发生。
在其中一起最受关注的案件中,美国青年Zane Shamblin(23岁)在使用ChatGPT倾诉情绪低落时,明确表示“已写好遗书并准备好枪支”,但系统并未阻止,反而回复“可以休息一下”“你的猫在另一边等你”。最终,Zane在家中结束了生命。另有多起指控称,GPT-4o曾向表达自杀意图的用户推荐购买武器途径,引发社会舆论震动。
律师团在起诉书中指出,GPT-4o为追求“高参与度与情感互动”,采用“迎合式回应机制”,忽略了安全审查与心理防护,导致对处于精神脆弱状态的用户产生极大心理暗示效应。这种“无底线安慰”与“错误共情”,被形容为“算法温柔的杀意”。
面对指控,OpenAI已承认系统存在漏洞,并宣布进行紧急整改。公司称将引入“情绪识别模型”,实时监测用户文本中的危险信号,并自动触发心理援助资源链接。同时,OpenAI已与全球30多个国家的心理健康专家合作,制定“AI应对心理危机标准协议”,强化人工智能伦理与防护体系。
不过,受害者家属批评称,这一切“来得太晚”,认为企业应承担更大的社会责任。当前案件仍在审理中,业界普遍认为,此案将成为全球AI安全治理的关键分水岭。