首页 / <p>Meta 表示其未来人工智能模型可能导致“灾难性后果”。</p>

<p>Meta 表示其未来人工智能模型可能导致“灾难性后果”。</p>

2025/2/4 20:47:18
Meta内部文件披露了该公司对可能导致“灾难性后果”的AI模型的担忧。 Meta定义了两种风险类型:“高风险”和“关键风险”,后者能够造成难以缓解的严重危害,例如自动化入侵任何计算机网络。 Meta计划通过严格限制访问权限和安全措施来阻止这些危险模型发布,但承认其措施可能无法完全有效。

一份Meta内部文件描述了该公司对可能意外开发出导致“灾难性后果”的AI模型的担忧。该文件概述了其阻止此类模型发布的计划,但承认可能无法做到这一点。

该公司最担心的一种能力是,一个AI系统能够在没有人类干预的情况下突破即使是最受保护的企业或政府计算机网络的安全。

Meta 计划阻止“灾难性”人工智能模型

《技术网站》发现了一份名为“前沿人工智能框架”的文件。

这份文件,Meta 称之为“Frontier AI Framework”,确定了该公司认为过于危险的两种类型的AI系统:“高风险”和“关键风险”系统。

根据Meta的定义,“高风险”和“关键风险”系统都能够帮助进行网络安全、化学和生物攻击,区别在于“关键风险”系统可能会导致“无法在提议部署环境中缓解的灾难性结果”。相比之下,“高风险”系统可能使攻击更容易实施,但不如“关键风险”系统那样可靠或可依赖。

该公司解释其“灾难性”事件的定义:

灾难性后果是指对人类造成大规模、毁灭性和可能不可逆转的严重危害的影响,这些影响很可能会因访问到我们的AI模型而直接产生。

一个例子是“自动化从端到端地攻破符合最佳实践的企业级环境”。换句话说,一种能够无需任何人类帮助就入侵任何计算机网络的 AI。

其他还有:

  • 自动发现和利用零日漏洞
  • 完全自动化针对个人和企业的诈骗活动,造成广泛损害。
  • 高影响生物武器的开发和传播。

该公司表示,当它识别到关键风险时,将立即停止对模型的工作,并采取措施确保其无法发布。

承认遏制可能无法实现

元公司的文件坦率地承认,在这些情况下,它能做的最好的就是尽力确保该模型不会发布,但其措施可能不足 *(我们加粗了斜体)* 。

访问权限严格限制在少数专家手中,并采取安全保护措施以防止黑客攻击或技术上可行且商业上合理的数据泄露。

您可以在此处阅读完整的政策文件。

照片由Cash Macanaya在Unsplash上提供。