<p>Meta 表示其未来人工智能模型可能导致“灾难性后果”。</p>

一份Meta内部文件描述了该公司对可能意外开发出导致“灾难性后果”的AI模型的担忧。该文件概述了其阻止此类模型发布的计划,但承认可能无法做到这一点。
该公司最担心的一种能力是,一个AI系统能够在没有人类干预的情况下突破即使是最受保护的企业或政府计算机网络的安全。
Meta 计划阻止“灾难性”人工智能模型
《技术网站》发现了一份名为“前沿人工智能框架”的文件。
这份文件,Meta 称之为“Frontier AI Framework”,确定了该公司认为过于危险的两种类型的AI系统:“高风险”和“关键风险”系统。
根据Meta的定义,“高风险”和“关键风险”系统都能够帮助进行网络安全、化学和生物攻击,区别在于“关键风险”系统可能会导致“无法在提议部署环境中缓解的灾难性结果”。相比之下,“高风险”系统可能使攻击更容易实施,但不如“关键风险”系统那样可靠或可依赖。
该公司解释其“灾难性”事件的定义:
灾难性后果是指对人类造成大规模、毁灭性和可能不可逆转的严重危害的影响,这些影响很可能会因访问到我们的AI模型而直接产生。
一个例子是“自动化从端到端地攻破符合最佳实践的企业级环境”。换句话说,一种能够无需任何人类帮助就入侵任何计算机网络的 AI。
其他还有:
- 自动发现和利用零日漏洞
- 完全自动化针对个人和企业的诈骗活动,造成广泛损害。
- 高影响生物武器的开发和传播。
该公司表示,当它识别到关键风险时,将立即停止对模型的工作,并采取措施确保其无法发布。
承认遏制可能无法实现
元公司的文件坦率地承认,在这些情况下,它能做的最好的就是尽力确保该模型不会发布,但其措施可能不足 *(我们加粗了斜体)* 。
访问权限严格限制在少数专家手中,并采取安全保护措施以防止黑客攻击或技术上可行且商业上合理的数据泄露。
您可以在此处阅读完整的政策文件。
照片由Cash Macanaya在Unsplash上提供。
分类
最新文章
- <p><strong>Satechi SM3 机械键盘测评:安静高效的生产力利器</strong></p>
- This old mobile phone has become a fire hazard right before my eyes.
- <p>苹果日历的邀请函:与苹果待办事项有10种不同之处</p>
- <p><strong>苹果的工作:</strong> 2025 年苹果会发布一个与谷歌 Workspace 竞争的产品吗?</p>
- <p>苹果不太可能会举办特别活动来宣布 iPhone SE 4。</p>
- Today's New York Times Crossword Puzzle Clues and Answers (#608)
- Ubuntu 20.04 LTS 的支持即将到期。
- <p>读书清单太长了吗?让 AI 为您朗读。</p>
- This is my holy grail Blu-ray player.
- <p>Apple will release new products next week. Here's what's coming.</p>