미국, 영국, 호주 및 기타 15개 국가에서는 인공 지능 모델을 변조로부터 보호하기 위한 글로벌 지침을 발표하고 기업에 모델이 "설계상 안전"하도록 촉구했습니다. 지침에는 주로 AI 모델의 인프라를 엄격하게 제어하고 모델 출시 전후의 변조 모니터링, 사이버 보안 위험에 대한 직원 교육 등 일반적인 권장 사항이 포함됩니다. 이 지침은 AI 회사가 AI 모델을 설계, 개발, 출시 및 모니터링할 때 구현해야 하는 사이버 보안 관행을 권장합니다. 새로운 지침에 서명한 다른 국가로는 캐나다, 프랑스, 독일, 이스라엘, 이탈리아, 일본, 뉴질랜드, 나이지리아, 노르웨이, 한국 및 싱가포르가 있습니다. OpenAI, Microsoft, Google, Anthropic, Scale AI 등 인공지능 기업들도 지침 개발에 기여했습니다. (코인텔레그래프)
모든 댓글