推荐使用国际直连GPT,立即访问: www.chatgp1.com
一群来自人工智能(AI)巨头OpenAI与Google DeepMind的现任及前任员工,共同表达了对AI技术潜在风险的深切忧虑。在这封公开信中,OpenAI的11名及Google DeepMind的1名现任员工和1名前员工联名指出,AI公司的财务动机正阻碍着有效的监管措施。
AI公司员工的警示
据报告,这些员工直言不讳地表示:“AI公司面临着强大的财务诱惑,从而规避了有效的监督。”他们进一步警告说,若AI技术不受监管,从错误信息的广泛传播到独立AI系统失控,再到加剧现有社会不平等,这些风险都可能将人类推向“灭绝”的边缘。
AI公司的“秘密武器”
现任与前任员工透露,AI公司掌握着“大量未公开的信息”,这些信息涵盖了技术的能力范围、所采取的安全措施程度,以及技术对不同类型伤害的风险评估。尽管他们“深知这些技术所带来的严重风险”,但“目前,这些公司仅负有微弱的义务与政府分享部分信息,而民间社会则完全无从得知。同时,也不能寄望于这些公司自愿披露这些信息。”
举报机制的缺陷
公开信还详细阐述了现任与前任员工对AI产业举报人保护不足的担忧。他们指出,在没有有效政府监督的情况下,员工在追究公司责任时仍处于弱势地位。他们表示:“广泛的保密协议剥夺了我们表达担忧的权利,而普通的举报人保护机制并不足够,因为它们主要关注非法活动,而我们担忧的是许多尚未受到监管的风险。”
在信中,员工们要求AI公司承诺不签订或执行贬低协议;为现任及前任员工建立匿名举报流程,以便向公司董事会、监管机构及公众表达担忧;并支持公开批评的文化,若内部报告流程失败,则不得对公开举报进行报复。
签署人阵容
签署这封公开信的包括四名匿名的OpenAI员工、七名OpenAI前员工(Daniel Kokotajlo、Jacob Hilton、William Saunders、Carroll Wainwright、Daniel Ziegler等)、曾在Google DeepMind工作的Ramana Kumar,以及目前在Google DeepMind工作的Neel Nanda。此外,三位在AI领域享有盛誉的计算机科学家——被誉为“AI教父”的Geoffrey Hinton、Yoshua Bengio和Stuart Russell也加入了签署行列。
对此,OpenAI发言人回应称:“鉴于这项技术的重要性,我们同意开展严谨的辩论至关重要。我们将继续与全球各地的政府、民间社会及其他团体保持接触。”