推荐使用国际直连GPT,立即访问: www.chatgp1.com
九名现任及前任OpenAI员工携手行业领袖,共同表达了对人工智能(AI)风险的深切忧虑,并通过签署一封公开信,提出了四大核心原则。此信得到了OpenAI、Anthropic、DeepMind等AI领域前沿公司共13位人士的联署,同时也获得了著名AI先驱Yoshua Bengio和Geoffrey Hinton的支持。
四大原则概述
-
保障批评自由:
公司承诺不签署或执行任何限制员工就风险提出“贬低”或批评性言论的协议,同时也不会因经济利益而阻碍对风险的批评或进行报复。 -
建立匿名举报机制:
公司将为现任及前任员工提供一个可验证的匿名举报渠道,使他们能够向董事会、监管机构及具备相关专业知识的独立组织,安全地表达与风险相关的担忧。 -
倡导公开批评文化:
公司支持公开批评的文化氛围,允许现任及前任员工在保护其他知识产权的前提下,向公众、董事会、监管机构或独立组织公开表达对其商业秘密技术风险的关切。 -
保护举报人权益:
公司承诺不对在其他途径求助失败后选择公开分享风险相关机密信息的现任及前任员工进行报复。同时,员工也需承诺在报告风险问题时避免泄露不必要的机密信息。在存在向公司董事会、监管机构及独立组织匿名提出疑虑的适当流程时,应优先通过这些渠道反映问题;但若此类程序缺失,员工则有权向公众公开其担忧。
员工的失望与离职
近期,OpenAI遭遇了一系列重大人事变动,包括超级对齐团队领导者Ilya Sutskever和Jan Leike的离职。Leike在离职时在X平台上批评OpenAI放弃了安全措施,指责公司将“安全文化和流程让位于闪亮的产品”。在这封公开信上签名的OpenAI前员工Daniel Kokotajlo也表达了对OpenAI做法的失望,并透露他离开OpenAI的原因是不认为公司会采取负责任的行动,尤其是在追求通用人工智能(AGI)的过程中。
此前,美国新闻评论网站《Vox》曾报道,OpenAI通过严格的离职协议限制了前员工的言论自由,包括保密和不贬损条款,违反这些条款可能导致前员工失去已获得的股权。