[칼럼] "금융 AI 위수탁, 공동통제 통한 거버넌스 혁신 필요해"
![[칼럼] "금융 AI 위수탁, 공동통제 통한 거버넌스 혁신 필요해"](/content/images/size/w1200/2025/07/unnamed--4--2.jpg)
- 금융권 AI, 데이터 활용성 확보와 개인정보보호 동시 달성 양면과제
- 법적 해석 사각지대와 위수탁 관리 부재는 고객 신뢰 훼손할 수 있어
- 데이터 활용성 높이는 동시에 공동통제 통한 권한·책임 균형 확보해야
[칼럼 여창환 생명보험협회 CISO] 금융회사의 AI 활용은 실험적 수준을 넘어 필수 경영전략으로 자리 잡았다. 챗봇 상담, 비대면 여신 심사, 실시간 사기거래 탐지, 신용평가 자동화 등 AI는 고객경험(CX) 혁신과 운영비용 절감을 동시에 실현한다.
특히 규제 샌드박스와 같은 혁신금융서비스 제도는 AI 기반 신용평가, 맞춤형 금융상품 추천, 로보어드바이저 등 새로운 서비스 모델의 시장 진입 장벽을 낮추며 금융산업의 구조적 변화를 가속화하고 있다.
그러나 AI 확산은 데이터 거버넌스와 정보보호 체계의 근본적 재설계를 요구한다. 과거 금융 데이터는 정형화된 거래기록과 계좌정보 중심이었지만, 오늘날 AI 학습에는 고객 상담 음성, 콜센터 녹취, 내부 보고 문서, 심지어 영상·이미지 같은 비정형 데이터까지 포함된다.
이러한 데이터 다양성은 AI 정확도를 높이고 비즈니스 기회를 확장하는 요인이지만, 동시에 데이터 처리·보관 과정에서의 보안 취약점과 개인정보 유출 가능성이라는 새로운 리스크를 증가시킨다.
데이터 부족과 새로운 활용 방식의 법적 리스크
금융권은 여전히 데이터 부족 문제를 겪고 있다. 개인정보보호법의 엄격한 동의 요건과 내부 데이터 사일로(Silo) 문제는 AI 학습데이터 확보를 어렵게 한다. 이를 보완하기 위해 합성데이터(synthetic data) 처리와 가명정보 활용이 활발히 시도되고 있다. 합성데이터는 원본 데이터의 통계적 특성을 반영한 가상의 데이터로 직접 유출 위험을 줄일 수 있으며, 가명정보는 법령이 허용하는 범위 내에 서 동의 없이도 통계·연구 목적에 활용이 가능하다.
그러나 가명정보 해석 범위 확대나 합성데이터의 재식별 위험은 간과할 수 없는 쟁점이다. 데이터 결합 과정에서 외부 데이터와 연계해 개인을 재식별할 가능성이 상존하며, 해외 연구는 합성데이터에서 원본 데이터의 일부 속성이 역추적될 수 있음을 입증했다. 즉, 데이터 활용성 확보와 개인정보 보호 준수는 동시에 달성해야 하는 양면과제다.
위수탁 구조의 구조적 한계
이 모든 데이터 처리와 AI 모델링 작업의 상당 부분은 외부 수탁사에 위탁된다. 클라우드 기반 AI 플랫폼, 데이터 라벨링, 모델 재학습 등은 고도의 전문성과 대규모 연산 인프라가 필요하기 때문이다.
그러나 이 구조는 실질적 권한은 수탁사에 집중되고, 법적 책임은 위탁사에 귀속되는 비대칭성 을 낳는다. 2022년 일본 아마가사키시(尼崎市)에서는 데이터 처리 수탁사 BIPROGY 직원이 46만 명의 주민정 보가 담긴 USB를 무단 반출·분실해 대규모 개인정보 유출이 발생했다. 이는 통제권 부재와 책임 집 중이 결합했을 때 발생하는 위험을 잘 보여준다.
공동통제(Shared Control)의 도입
전통적 위수탁 관리방식은 주로 연 1회 점검, 서면 확인, SLA(Service Level Agreement) 위주의 사후적 관리였다. 그러나 AI와 비정형 데이터 중심의 처리 환경에서는 이러한 방식만으로는 실질적 통제를 확보할 수 없다. 이에 공동통제(Shared Control) 개념이 필요하다.
공동통제란 위탁사와 수탁사가 데이터 처리, AI 모델 운영, 보안관리를 공동으로 실시간 수행할 수 있도록 권한과 책임을 공유하는 거버넌스 체계다.
[실행 전략 예시]
⦁데이터 처리 로그 실시간 공유: 수탁사의 데이터 접근·처리 활동을 위탁사가 직접 모니터링할 수 있도록 API 기반 로그 연동 체계 구축.
⦁AI 모델 변경·재사용 승인 절차: 수탁사의 모델 재학습, 전이학습, 외부 데이터 결합 시 위탁사의 사전검토 프로세스 의무화.
⦁비정형 데이터 보안 프레임워크 적용: 이미지·음성·영상 등 고위험 데이터 처리에 대해 별도의 암 호화·익명화 기준과 접근 통제정책을 마련.
⦁공동 리스크 평가 및 침해 대응 프로토콜: 사고 발생 시 수탁사-위탁사 공동대응 체계(예: CSIRT 연동) 및 주기적 모의훈련.
⦁계약 단계 데이터 윤리·설명가능성 요건 명시: AI 모델의 설명가능성(Explainability)과 재현가능성 (Reproducibility)을 보장하는 구체적 점검 항목을 포함해야 한다.
AI와 데이터 다양성은 금융 혁신의 핵심 동력이지만, 법적 해석 사각지대와 위수탁 관리 부재는 고객 신뢰를 훼손할 수 있다. 혁신과 안전은 대립하는 개념이 아니라 균형의 문제다. 금융회사의 AI 활용 전략은 데이터 활용성을 높이는 동시에 공동통제를 통한 권한·책임의 균형을 확보할 때 비로소 완성된다. 이러한 거버넌스 전환이야말로 금융회사가 AI 시대에 신뢰받는 혁신 기업으로 자리매김하 는 핵심 조건이다.

Related Materials
- 금융보안원의 금융분야 AI 보안 가이드라인 - 베스핀글로벌, 2023년
- 2023 금융보안원 연차보고서: AI·BigData·Cloud 기반 차세대 금융보안관제 - 금융보안원, 2023년

