속보
VIP
통합검색

"내 전세대출 심사, AI가 했다고?"… 금융AI의 진화, 위험 없을까

머니투데이
  • 황국상 기자
  • 카카오톡 공유하기
  • 카카오톡 나에게 전송하기
  • 페이스북
  • 트위터
  • 네이버
  • 텔레그램
  • 문자
  • VIEW 6,934
  • 2023.10.02 08:20
  • 글자크기조절
이미지투데이
이미지투데이
# KB국민은행은 2021년부터 ML(머신러닝) 기반 소매 신용평가 모델을 구축해 운영하고 있다. 차입·상환이나 신용카드 사용 등과 같은 금융정보가 부족하더라도 통신·부동산 등 비금융정보로 차주(借主)의 신용정보를 평가할 수 있도록 해 대출여력을 넓히기 위해서다.

우리은행 역시 2020년부터 '씬파일러'(Thin Filer) 대출상품을 운용 중이다. '신용을 평가할 충분한 자료가 없는 이들'을 의미하는 '씬파일러'에 대해서도 ML 기반 신용평가 모델을 적용해 적정 신용등급을 매긴 후 대출을 집행하는 서비스다.

은행뿐 아니라 보험·금융투자 등 금융권 전반에 걸쳐 디지털전환에 가속도가 붙었다. 데이터 기반 디지털 전환의 효과가 궁극적으로 '돈'의 형태로 나타나는 만큼 돈의 흐름을 직접적으로 담당하는 금융계가 여타 산업군에 비해 발빠르게 움직인 결과다.



금융AI시장, 2019년 3000억원→2026년 3조2000억원으로


"내 전세대출 심사, AI가 했다고?"… 금융AI의 진화, 위험 없을까
2일 한국신용정보원, 삼정KPMG 등에 따르면 금융 분야 AI 시장규모는 2019년 3000억원대에서 2021년 6000억원대로 2년만에 2배로 늘었다. 주로 신용평가, 대출심사, 리스크 모니터링, 챗봇(고객·직원용), RPA(업무자동화), 이상거래탐지 등에 AI가 도입됐다. 금융 분야 AI시장은 2026년이면 3조2000억원에 이를 것으로 예상된다.

이미 KB국민은행, NH농협은행, 신한은행 등 주요 은행들이 여신 심사·평가에 활용 중이다. '씬파일러 대출' 등 상품이 이같은 과정을 통해 탄생했다. 통신·부동산·생활정보 등 비금융 정보들을 모으고 이를 GBM 알고리즘, 즉 예측력이 낮은 모델을 결합해 강한 예측모델을 만드는 알고리즘을 통해 데이터의 신뢰도를 높인 덕분에 가능한 방식이다.

신한·기업·우리은행 등은 AI 기반 이상거래 탐지 시스템을 운영 중이다. 연령대별, 소속 집단별 거래 유형을 AI에 학습시켜 이상징후가 감지되면 보다 면밀히 검토하도록 하는 시스템을 통해 보이스피싱 사고 건수는 38% 줄었고 관련 계좌수도 67% 줄었다.

보험사들도 △AI 기반으로 보험사기 탐지 시스템 △보험계약 심사 시스템 등을 운영하고 있고 증권사들 역시 △가상 애널리스트 △AI 리서치 보고서 △금융상품 설명 시스템 △로보 어드바이저 등의 서비스를 운영 중이다.



잘못 쓰면 독되는 AI, 거버넌스 수립 필요


"내 전세대출 심사, AI가 했다고?"… 금융AI의 진화, 위험 없을까
AI로 금융활동의 편의성이 대폭 높아졌지만 AI 때문에 예기치 못한 사고가 발생하는 경우도 있다. 법무법인 태평양에 따르면 2019년 11월 미국에서 애플카드의 알고리즘에 따른 신용한도 심사 결과가 성 차별적이라는 의혹이 제기됐다. 부부가 동일한 신용평가 자료를 제출했음에도 아내의 신용한도가 남편 한도의 20분의 1에 불과하다는 의혹이 제기된 것이다.

지난해 12월에는 미국 일리노이주에 살고 있는 한 흑인 여성이 금융사 스테이트팜의 FDS(보험사기 탐지시스템)가 흑인고객을 차별한다는 주장을 내놨다. 보험금, 복지수당 지급 결정을 내리는 AI시스템에 따른 문제라는 지적이다. 스테이트팜 사건은 특정 금융사에 대한 데이터를 기반으로 소송이 제기된 첫 사건으로 평가된다.

이달 중순 법무법인 태평양과 고려대 기술법정책센터 주최로 열린 '금융AI와 마이데이터' 주제의 포럼에서 조재박 삼정KPMG 부대표는 AI와 관련한 위험 요인으로 △서비스의 질 악화 △AI 모델에 대한 악의적 공격 △채용 형평성 논란 △소수자·약자에 대한 차별·혐오 등을 꼽았다. AI 알고리즘이 무슨 이유로 결과를 내놨는지에 대한 설명이 불가능할 때 AI모델에 대한 신뢰가 떨어질 수 있는 데다 편향된 데이터로 AI모델이 편향되는 때도 문제가 발생할 수 있다는 것이다. 조 부대표는 △AI를 실무에 도입할 때 역할·책임을 명확화하고 △발생가능 위험을 식별해 사전·사후 대응절차를 수립하며 △AI 생애주기별 프로세스와 목표성능, 측정지표를 관리할 필요가 있다고 지적했다.

마경태 변호사(법무법인 태평양)도 2021년 7월 금융위가 '금융분야 AI 가이드라인'을 발표했지만 '공정성' '설명가능성'의 기준 등 일부 핵심 개념들이 명확히 정의돼 있지 않아 준수해야 할 사항의 상당 부분이 금융사의 해석과 판단에 맡겨져 있다고 지적했다.

또 대출심사나 보험사기 방지 등 고객에게 서비스 이용 적격 여부를 결정하는 AI 시스템은 주로 '판별형 AI'여서 상대적으로 발생가능 위험 판별 및 대응에 대한 연구가 상대적으로 많이 이뤄져 있지만 챗GPT를 비롯한 '생성형 AI'는 개인정보 등 데이터 무단수집 및 허위·부정확 정보 생성 등 문제가 많다고 했다. 생성형·판별형 모델의 특성을 반영한 AI 가이드라인이 필요하다는 것이다.



머니투데이 주요뉴스

단독 홍콩 ELS 가입자 20%, 65세 이상…90%가 재투자자
네이버 메인에서 머니투데이 구독 카카오톡에서 머니투데이 채널 추가

베스트클릭

오늘의 꿀팁

  • 뉴스 속 오늘
  • 더영상
  • 날씨는?
  • 헬스투데이

많이 본 뉴스

부동산 유튜브 정보채널 부릿지
2023 대한민국 사회안전지수
[연중기획] 인공지능 시대의 생존법, AI 리터러시 키우자

포토 / 영상