1. 目标设定:计划到2026年9月打造出能自动运行、辅助科研的AI实习生,2028年3月实现真正的自动化AI科研员。虽然可能失败,但鉴于潜在影响巨大,选择公开透明。
2. 安全策略:依托五层防护——价值观对齐、目标对齐、可靠性、对抗鲁棒性和系统安全。特别看重“链式思考”的可信性,但承认其脆弱性,需要明确边界和抽象。
3. 产品战略:致力于构建真正的平台,赋能开发者和企业,让他们分享大部分价值。当前支持API和ChatGPT应用,未来希望打造一个强大的AI云,服务大型企业。
4. 计算资源:已承诺约30吉瓦算力,累计总成本约1.4万亿美元。对模型能力和收入增长持乐观态度,未来希望建成每周产能1吉瓦的“AI工厂”,大幅降低成本,但这需要更多技术和财务创新。
5. 组织结构:简化为非营利的OpenAI基金会和其下的公共利益公司(PBC)OpenAI集团。基金会持股26%,可随PBC表现增加。基金会承诺投入250亿美元用于医疗、疾病治疗及AI韧性(涵盖技术安全、经济影响、网络安全等),并具备快速资本部署能力。
6. 科学影响:预计2026年AI能做出小规模新发现,2028年实现重大科研突破。科学及其传播机构被视为提升生活质量的关键。
这些规划展示了OpenAI对未来AGI的野心和责任感,但也引发了关于资源消耗、失败风险、透明度和治理机制的深刻讨论。尤其是在AI自主发现与安全的微妙平衡、以及如何确保技术成果广泛惠及人类方面,仍需持续关注和参与。