시스코 보안 연구진, LLM 표적 공격 수법에 대한 연구결과 및 위협 사례 공개

시스코 보안 연구진이 AI의 핵심 요소인 LLM을 감염시키거나 공격하려는 악의적 행위자들의 위협 사례를 소개했다.

시스코 탈로스의 보안 엔지니어 마틴 리는 현재와 미래의 AI 위협을 다룬 블로그 글에서 “스팸 방지 시스템으로부터 수신자에게 표시되는 콘텐츠의 본질을 숨기는 것은 새로운 기술이 아니다. 스팸 발송자는 수십 년 동안 숨겨진 텍스트를 포함하거나 서식 규칙을 사용하여 스팸 분석으로부터 실제 메시지를 위장해 왔다. 하지만 2024년 하반기에 이러한 기술의 사용이 증가하는 추세가 확인됐다”라고 전했다.

리는 기계 분석이나 사람의 감독으로부터 콘텐츠를 위장하고 숨기는 능력이 AI 시스템에 대한 더 중요한 공격 벡터가 될 것이라고 언급했다. 그는 “다행히도 이러한 종류의 난독화를 탐지하는 기술은 잘 알려져 있으며 시스코 이메일 위협 방어와 같은 스팸 탐지 시스템에 이미 통합되어 있다. 반대로 이런 방식으로 콘텐츠를 난독화하려는 시도가 있다는 것은 해당 메시지가 악의적이며 스팸으로 분류될 수 있다는 것을 명백히 보여준다”라고 말했다.



Source link

Leave a Comment