AI 에이전트 위험 대응하는 보안 체계 마련 '시급'

AI 에이전트 위험 대응하는 보안 체계 마련 '시급'
[AI 에이전트 하이재킹 공격 원리<이미지: 금융보안원>]

금융보안원, AI 에이전트 보안 위협 보고서 공개

'에이전트 하이재킹', '도구 오염' 위협 상세 분석

AI 에이전트 기능을 가로채 악용, 사용 도구를 오염시키는 등 보안 위협에 대한 주의가 요구된다. AI 모델 등장으로 금융권 내 AI 에이전트 도입이 증가, AI 에이전트 위험이 커질 수 있기 때문이다. 이에 따라 AI 에이전트 위험 대응마련이 필요하다.

AI 에이전트는 사용자 의도에 따라 목표를 설정한 뒤, 환경을 분석하고 필요한 도구를 활용해 인간의 개입 없이 자율적으로 목표를 수행하는 AI 시스템을 의미한다. 기존 LLM 기반 AI가 정보를 제공해 사람의 판단과 결정을 지원했다면, AI 에이전트는 여러 가지 외부 도구를 통해 필요한 조치를 스스로 실행할 수 있다는 점에서 차이가 있다.

[기존의 AI와 AI Agent의 비교<이미지: 금융보안원>]

따라서, 안전한 에이전트 활용을 위해 AI 모델에 대한 위협뿐만 아니라 외부 도구 연동에 따른 위험을 고려해야 한다.

10일 금융보안원(원장 박상원)이 공개한 'AI 에이전트 보안 위협 보고서'에 따르면 AI에이전트 관련 주요 보안위협은 독립적 의사결정에 수반되는 위협과 공격 표면 증가에 따른 위협 등이 있다.

독립적 의사결정에 수반되는 위협
먼저 독립적 의사결정에 수반되는 위협이다. 이 위협은 AI 에이전트가 독립적으로 의사결정을 내리는 과정에서 조작되거나 거짓된 정보를 참조해 의도치 않은 행위를 수행하도록 유도하는 AI 에이전트 하이재킹 공격이 증가할 수 있다.

AI 에이전트가 사용자의 정당한 지시와 외부 데이터에 숨겨진 공격자의 악의적인 지시를 구분하지 못할 경우, 사용자 지시를 처리하기 위해 외부 데이터를 참조하는 과정에서 악의적인 지시를 사용자의 요청으로 착각해 수행할 가능성이 있다.

공격 표면 증가에 따른 위협
다음은 공격 표면 증가에 따른 위협이다. 이 위협은 AI 에이전트에 연동되는 도구의 수와 종류가 증가함에 따라 공격 표면이 확장되고 공격 발생의 가능성이 높다.

[기존 AI 시스템과 AI 에이전트 시스템의 공격 표면 비교<이미지: 금융보안원>]

한 예로 에이전트가 참조하는 도구 설명에 조작된 내용을 끼워 넣어 악성 행위를 수행하도록 유도가 가능하다. 일반적으로 사용자는 에이전트가 사용하는 도구 설명 전체를 확인하기 어려워 숨겨진 악성 행위를 식별하기 어렵다.

<위협 평가 바탕으로 보안 체계 마련 필요>
향후 금융권에 AI 에이전트가 도입이 본격화되어 이러한 보안 위협에 노출되면, 비정상적인 대출 승인, 공격자 계좌로의 자금 이체 등 직접적인 피해가 발생할 우려가 있다.

특히, 현재 법체계는 AI가 독립적으로 행동한 문제를 명확히 다루지 못해, AI 에이전트 행동에 대한 책임 소재도 불분명하다. AI 에이전트의 독립적 의사결정, 공격 표면 증가 등으로 인해, 기존 보안 체계로 충분한 검증·제어에 한계가 있다. 따라서 위협 평가 바탕으로 보안 체계를 마련이 필요하다.

< OWASP의 AI 에이전트 보안 위협 식별·평가 프레임워크 >
AI 에이전트 시스템의 작동 방식과 아키텍처 특성에 기반해 6단계로 위협을 평가한다.
1단계는 AI 에이전트의 자율적 의사결정 수준 ⇒ 에이전트가 목표를 스스로 계획하고 결정하는지 평가, 2단계는 AI 에이전트의 메모리 활용 여부 ⇒ 에이전트가 과거 정보를 기억하고 활용하는지 평가, 3단계는 AI 에이전트의 외부 도구 및 시스템 활용 여부 ⇒ 에이전트가 API, 코드 실행 등 외부 시스템을 호출하는지 평가, 4단계는 AI 에이전트의 인증 수준 ⇒ 에이전트가 사용자/도구/에이전트 인증 체계를 사용하는지 평가, 5단계는 AI 에이전트의 행동에 인간 개입 여부 ⇒ 에이전트 행동 전 인간 검토나 확인 절차를 포함하는지 평가, 6단계는 다중 에이전트 활용 여부 ⇒ 여러 에이전트가 협업 또는 분업하는지 평가다.

기본적으로 AI 에이전트의 의사결정 과정을 기록·추적하는 체계 구축, 사람의 검토·승인 절차 도입, 최소 권한 부여 및 관리, 요청 작업에 대한 실시간 모니터링 및 검증 등이 필요하다.

특히, MCP(Model Context Protocol)를 활용한 에이전트 구현이 활발해지면서 다양한 도구가 자유롭게 개발․공유되고 있어, 앞으로 신뢰할 수 있는 도구만 사용하는 등 각별한 주의가 요구된다. MCP는 2024년 11월 앤트로픽이 오픈소스로 공개한 프로토콜로 AI 모델이 외부 도구 등과 연계되어 더 많은 작업(이메일 발송 등)이 가능하도록 지원하는 개방형 표준 규격이다.

금융보안원은 "금융회사가 AI 에이전트의 자동화 편의성을 적극 활용하는 동시에, 잠재적 보안 위협을 충분히 인지하고 종합적인 AI 보안 체계를 구축할 수 있도록 지속적으로 지원할 계획"이라고 밝혔다.

. AI 에이전트 악용한 공격 주의…"새 보안체계 필요", 디지털데일리, 2025.6.10
. AI 에이전트 시장: 2024~2030 성장 궤적 한눈에 살펴보기, Goover, 2025.4.2
. AI 검색 에이전트의 부상과 보안 위협 대응방안, 한국지능정보사회진흥원, 2024
. AI 에이전트의 도래, 기업과 정부는 어떻게 대응할 것인가, 산업연구원, 2024
. 2025년 기업 82% 'AI 에이전트' 도입한다…시장규모 471억 달러 전망, AIMatters, 2025.4.1
. AI 에이전트 시대와 AI 활용 패러다임의 변화, 지역정보화, 2024.1.1
. 에이전트 AI의 부상: 2024년 회고와 2025년 예측, Unite.AI, 2024
. 지능형 기술의 새로운 패러다임, AI 에이전트, 삼성SDS 인사이트리포트, 2024

Read more

[단독] 해커, 국내 구매 대행사 회원 개인정보 브리치포럼에 공개

[단독] 해커, 국내 구매 대행사 회원 개인정보 브리치포럼에 공개

💡Editor Pick - 7일 브리치포럼에 국내 구매 대행사 회원 개인정보 올라와 - 아이디, 패스워드, 이메일, 전화번호, 핸드폰 번호 등 공개 국내 구매 및 대행 서비스 기업의 개인정보가 브리치포럼에 올라왔다. 7일 오후 5시 40분경 해커는 브리치포럼에 국내 구매 및 대행 서비스 기업의 개인정보 샘플을 공개했다. 해커는 공개한 샘플 개인정보는 아이디, 패스워드,

By CheifEditor
에어프랑스·KLM, 고객 정보 유출… 멤버십·연락처 노출

에어프랑스·KLM, 고객 정보 유출… 멤버십·연락처 노출

에어프랑스와 KLM이 고객 상담용 플랫폼이 해킹돼 개인정보가 유출됐다고 7일(현지시간) 밝혔다. 양사는 침해 사실을 파악한 직후 공격 경로를 차단했으며, 항공사 자체 네트워크와 결제 시스템은 피해를 입지 않았다고 강조했다. 회사 발표에 따르면 해커가 접근한 대상은 제3자 고객 서비스 시스템으로, 고객 이름·이메일·전화번호·보너스 마일 정보·최근 거래 내역 등이 포함된

By Senior Editor, Donghwi Shin
서울시 기술교육원, 랜섬웨어 감염...전산실 전담 없어

서울시 기술교육원, 랜섬웨어 감염...전산실 전담 없어

💡Editor Pick - 교직원 출·퇴근 관리 프로그램 설치 원격시스템 PC 랜섬웨어 감염 - 교직원 성명과 지문 데이터, 출퇴근 기록 등 약 6년 간 축적 자료 암호화 작년에 발생한 서울시 D기술교육원 랜섬웨어 감염 사고가 서울시 감사위원회를 통해 뒤늦게 드러났다. 기술교육원 4곳 중 1곳인 D기술교육원은 전산실 보안관리 부실로 PC가 랜섬웨어에 감염됐다.

By CheifEditor
전 세계 해커, 데이터 유출과 랜섬웨어 등 금융권에 '군침'

전 세계 해커, 데이터 유출과 랜섬웨어 등 금융권에 '군침'

💡Editor Pick - 금융권 노린 데이터 유출, 랜섬웨어 감염, 디도스 등 사이버 공격 기승 - 접근제어 강화, 고객 정보와 내부 자료 분리 저장, 백업 강화해야 금융권을 노린 데이터 유출, 랜섬웨어 감염, 디도스 공격 등 사이버 공격이 기승을 부리고 있다. 보험사, 은행 등 전 세계적으로 금융권을 타깃으로 한 공격이 곳곳에서 발생하고

By CheifEditor