- Así es el piloto que compara mediante IA generativa ofertas de proveedores en licitaciones
- AI-Powered Policing: The Future of Traffic Safety in Kazakhstan
- El Ayuntamiento de Madrid confía en la digitalización para transformar el puesto de trabajo
- 메타, 새 정책 문서에서 ‘위험한 AI 시스템 출시 않겠다’ 약속
- CISA’s communications guidance: A wake-up call for all industries
메타, 새 정책 문서에서 ‘위험한 AI 시스템 출시 않겠다’ 약속
메타의 새로운 정책 문서인 프론티어 AI 프레임워크(Frontier AI Framework)에 따르면, 회사는 특정 위험 시나리오에 해당할 경우 자체 개발한 AI 시스템을 외부 출시하지 않을 방침이다.
이 문서는 ‘고위험’(high risk) 또는 ‘극위험’(critical risk)으로 분류될 수 있는 두 가지 유형의 AI 시스템을 정의한다. 두 경우 모두 사이버, 화학 또는 생물학적 공격을 수행하는 데 도움이 될 수 있는 시스템이다.
‘고위험’으로 분류된 시스템은 치명적인 결과를 초래할 수 있는 ‘극위험’ 시스템과 같은 정도는 아닐지라도 파국적 공격으로 이어질 가능성을 가진다. 예를 들어, 기업 환경을 장악하는 도구, 강력한 생물학적 무기 배치 등이 이에 해당한다.
이 문서에서 메타는 시스템이 ‘고위험인 경우, 회사는 내부 접근을 제한하고 위험성을 ‘중간 수준’(moterate levels)으로 줄이기 위한 조치가 취해질 때까지 시스템을 공개하지 않을 것’이라고 명시하고 있다. 아울러 시스템이 ‘극위험’인 경우, 시스템 확산을 막기 위한 보안 보호 장치가 마련되고 시스템이 더 안전해질 때까지 개발이 중단되게 된다.
dl-ciokorea@foundryco.com