摘要 / 我的正文
埃隆·马斯克针对OpenAI的诉讼正将该公司的安全记录置于严格审视之下,其核心争议在于OpenAI的营利性子公司是否偏离了确保人类从通用人工智能(AGI)中受益的创始使命。2026年5月7日,奥克兰联邦法院听取了前员工兼董事会成员的证词。前AGI准备团队成员罗西·坎贝尔(Rosie Campbell)于2021年加入OpenAI,2024年因团队被解散而离职,同期另一安全团队“超级对齐团队”(Super Alignment team)也被关闭。她作证称,公司从研究导向逐渐转向产品导向,“入职时人们常讨论AGI和安全问题,后来更像一家产品公司”。尽管她承认AGI研发需要大量资金,但认为在缺乏适当安全措施的情况下开发超级智能模型不符合其最初加入时的组织使命。坎贝尔提到,微软曾在印度通过必应搜索引擎部署GPT-4版本,而该模型尚未经过OpenAI部署安全委员会(DSB)评估。她指出,尽管该模型风险不大,但“随着技术越来越强大,需要建立强有力的先例,确保安全流程得到可靠遵循”。在交叉询问中,坎贝尔承认其“推测性观点”认为OpenAI的安全方法优于马斯克创立的xAI(今年早些时候被SpaceX收购)。此外,前董事会成员塔莎·麦考利(Tasha McCauley)作证称,董事会对山姆·奥特曼(Sam Altman)的管理风格及信息披露存在担忧,包括其在海伦·托纳(Helen Toner)去留问题上对其他董事撒谎、未告知董事会ChatGPT公开 launch 决定,以及潜在利益冲突未披露等。麦考利表示,非营利董事会本应监督营利性子公司,但其获取信息的能力受到质疑,无法做出知情决策。2023年董事会曾短暂解雇奥特曼,部分原因正是GPT-4在印度的部署问题,但在员工支持及微软干预下,董事会最终逆转决定,反对奥特曼的成员辞职。马斯克团队的专家证人、前哥伦比亚法学院院长戴维·施策(David Schizer)呼应了麦考利的担忧,称OpenAI声称将安全置于利润之上,但若需安全审查的事项未执行,则涉及流程问题。麦考利认为,OpenAI的内部治理失败表明需加强对先进AI的政府监管,“若一切取决于CEO的决策,而涉及公共利益,这是非常不理想的”。OpenAI虽公开模型评估和安全框架,但未就当前AGI对齐方法置评,其现任准备负责人迪伦·斯堪的纳罗(Dylan Scandinaro)于2026年2月从Anthropic加盟,奥特曼称此任命让他“今晚能睡得更好”。
关键要点
一句话结论
(可由AI生成:一句话讲清这条新闻对你意味着什么)
可借鉴点
(可由AI生成:这条新闻能迁移到哪些业务/审查/写作场景)
证据锚点
(如:判决法院/案号/专利号/关键时间点)
后续跟踪
(如:上诉进展/和解条款/监管动作/同类案件)
证据与引用
原文链接:https://techcrunch.com/2026/05/07/elon-musks-lawsuit-is-putting-openais-safety-record-under-the-microscope/
来源:TechCrunch
原文时间:2026-05-07 19:21:21 抓取:2026-05-07 20:03:01
来源:TechCrunch
原文时间:2026-05-07 19:21:21 抓取:2026-05-07 20:03:01