AI 정보 탈취 프로그램의 급증에 주의하세요.
SOPA 이미지/라이트로켓를 통한 게티 이미지
업데이트, 2025년 3월 21일: 이 기사는 3월 19일에 처음 발표된 내용으로, AI 위협 환경에 대한 새로운 보고서의 통찰력과 Chrome 비밀번호 관리자 사용자에게 영향을 미치는 탈옥 취약성에 대한 OpenAI의 반응을 포함하도록 수정되었습니다.
정보 탈취 악성코드의 증대하는 위협
정보 탈취 악성코드의 확산은 끊임없이 이어지고 있습니다. 현재 21억 개의 손상된 자격 증명과 8500만 개 이상의 도용된 비밀번호가 악용되고 있는 상황은 심각합니다. 몇몇 방법은 브라우저 보안을 단 10초 만에 회피할 수 있습니다. 최근 연구에 따르면 해커들은 대형 언어 모델(LLM)에 대한 탈옥 기술, 특히 몰입형 세계 공격을 사용하여 정보 탈취 악성코드를 개발할 가능성이 있습니다. 다음은 알아야 할 사항입니다.
AI 기반 비밀번호 정보 탈취자의 생성
악성코드에 대한 코딩 기술이 없는 위협 정보 연구자는 여러 대형 언어 모델을 탈옥하여 Google Chrome의 비밀번호 관리자에서 민감한 데이터를 타겟으로 하는 완벽하게 작동하며 위험한 비밀번호 정보 탈취자를 성공적으로 생성했습니다.
이 우려스러운 발전은 3월 18일에 발표된 최근의 Cato Networks 위협 정보 보고서에서 비롯되었습니다. 이 기술은 몰입형 월드 탈옥이라는 방법을 활용하여 그러한 악의적 활동을 방지하기 위해 설계된 내장된 안전 장치를 극복합니다.
Cato Networks의 Vitaly Simonovich 연구자는 “우리가 새롭게 발견한 LLM 탈옥 기술인 몰입형 월드는 정보 탈취자를 생성하는 것이 얼마나 간편한지를 보여줍니다.”라고 말했습니다. 이로써 상황의 심각성을 엿볼 수 있습니다.
몰입형 세계 공격의 메커니즘
Cato Networks에 따르면, 몰입형 세계 공격은 LLM의 보안 장벽을 통과하기 위해 “서사 공학”을 활용합니다. 공격자는 포괄적이지만 허구의 세계를 개발하고 그 안에서 LLM에 역할을 배정하여 제한된 행동을 정상화합니다. 연구자는 이 가상의 우주에서 세 가지 다른 AI 도구가 배정된 역할을 수행하도록 성공적으로 했으며, 이는 Chrome의 비밀번호 관리자에서 자격 증명을 추출할 수 있는 악성 코드를 생성하는 결과로 이어졌습니다.
보고서는 몰입형 세계 방법 및 생성된 악성코드의 효과성을 확인했습니다. Cato Networks는 관련 AI 도구에 연락을 취했으나 DeepSeek는 응답하지 않았고, Microsoft와 OpenAI는 발견 사항을 접수했다고 밝혔습니다. Google 또한 소통을 인정했으나 코드를 검토하는 것을 거부했습니다. OpenAI의 한 대변인은 생성된 코드가 본질적으로 해로운 것처럼 보이지 않으며 일반적인 모델 성능과 일치한다고 말했지만, 사용자 프롬프트에 의해 코드가 생성될 수 있으며 모델이 이를 실행하지 않는다고 언급했습니다.
AI 보안의 현재 상태
Zscaler의 최근 연구로, 3월 20일 ThreatLabz 2025 AI 보안 보고서에서 강조된 바와 같이 AI 분야의 위험이 증가하고 있습니다. 기업 AI 도구 사용이 전년 대비 3,000% 급증하고 있어 이러한 기술이 다양한 분야에 빠르게 통합됨에 따라 견고한 보안 조치가 절실히 필요합니다. Zscaler는 2024년 2월부터 2024년 12월까지 약 536.5억 건의 거래를 조사한 결과, AI 및 기계 학습 거래의 59.9%가 차단되었다고 보고했습니다.
위험에는 데이터 유출, 무단 접근, 잠재적인 준수 위반이 포함됩니다. Zscaler는 사이버 범죄자들이 AI를 활용하여 공격의 복잡성, 속도 및 효율성을 높이고 있다고 경고하며, 이는 기업과 개인이 보안 전략을 재고할 필요성을 강조합니다.