/ Meta가 미래의 AI 모델이 '비극적인 결과'를 가져올 수 있다고 경고했습니다.

Meta가 미래의 AI 모델이 '비극적인 결과'를 가져올 수 있다고 경고했습니다.

2025. 2. 4. 오후 8:47:18
메타는 AI 모델이 "비극적인 결과"를 초래할 수 있다는 우려로 새로운 정책 프레임워크 "프론티어 AI 프레임워크"를 발표했습니다. 회사는 특히, 인간의 개입 없이 강력한 보안 시스템을 해킹할 수 있는 AI 시스템에 대한 우려를 표명하며, 이러한 위험한 모델 개발과 배포를 막기 위한 계획을 설명했습니다. 메타는 "고위험" 및 "심각한 위험" 시스템으로 분류하여 최악의 경우 인류에게 파괴적인 결과를 초래할 수 있는 AI 시스템을 식별합니다. 회사는 모델 출시를 중단하고 제한하는 조치를 취하겠지만, 모든 위험 상황을 완전히 차단할 수 없다는 것을 인정했습니다.

메타의 정책 문서에서 회사가 우연히 개발될 수 있는 인공지능 모델이 "비극적인 결과"를 초래할 수 있다는 우려를 밝히고 있습니다. 이 문서에서는 그러한 모델 출시를 방지하기 위한 계획을 설명하지만, 그렇게 할 수 없을 가능성도 인정하고 있습니다.

회사가 가장 두려워하는 능력 중 하나는 인간의 도움 없이 가장 잘 보호된 기업이나 정부 컴퓨터 네트워크의 보안을 무너뜨릴 수 있는 AI 시스템입니다.메타는 '비극적인' 인공지능 모델을 차단할 계획이다.

<span>테크크런치는 "프론티어 AI 프레임워크"라는 순조로운 제목을 가진 정책 문서를 발견했습니다.</span>

메타가 '프론티어 AI 프레임워크'라고 명명한 문서는 회사가 출시하기에는 너무 위험하다고 간주하는 두 가지 유형의 인공지능 시스템을 지적하고 있습니다: "높은 위험" 및 "비판적 위험" 시스템.

메타의 정의에 따르면, "고위험" 시스템과 "심각한 위험" 시스템은 모두 사이버 보안, 화학 및 생물 공격을 돕는 데 사용될 수 있습니다. 차이점은 "심각한 위험" 시스템이 "복구할 수 없는 재앙적인 결과를 초래할 수 있으며 제시된 배포 환경에서 완화되지 않을 수 있다"는 점입니다. 반면에, "고위험" 시스템은 공격을 실행하기 쉽게 만들 수 있지만 "심각한 위험" 시스템만큼 신뢰할 수 없거나 의존성이 높지 않습니다.

회사는 "비극적인 결과"라는 용어의 정의를 설명합니다.

재앙적인 결과는 인류에 대규모로 파괴적이고 잠재적으로 되돌릴 수 없는 해로운 영향을 미칠 수 있는 결과이며, 우리의 AI 모델에 대한 접근으로 직접적으로 발생할 가능성이 있다.

제시된 한 예시는 "최상의 실무를 준수하는 대규모 기업 환경의 자동화된 종단 간 침해"입니다. 즉, 인간의 도움 없이 어떤 컴퓨터 네트워크라도 해킹할 수 있는 AI입니다.

다른 것들은:

  • 자동화된 사전 알아내기 및 활용 기술의 오늘날 취약점 공격
  • 개인과 기업을 대상으로 하는 완벽 자동화된 사기 행위로 인해 광범위한 피해 발생
  • 고위험 생물 무기의 개발과 확산

회사는 중요한 위험을 식별하면 즉시 모델 개발을 중단하고 출시되지 않도록 조치를 취할 것이라고 말합니다.억제가 불가능할 수 있다고 인정합니다.

메타의 문서는 이러한 상황에서 최선을 다해 모델 출시를 방지하려 하겠지만, 그 조치가 충분하지 않을 수도 있다고 인정하고 있습니다.

전체 정책 문서는 여기를 통해 읽을 수 있습니다.

Unsplash에서 캐시 마카나야가 찍은 사진

"