금융권 AI 활용 전담조직 만든다…금융위, 가이드라인 발표

 

[세계비즈=김민지 기자] 금융사는 인공지능(AI) 서비스의 윤리원칙을 제정하고 전담조직을 마련하는 한편, 위험관리정책을 세워 위험요인을 통제해야 한다.

 

금융위원회는 8일 디지털금융협의회 데이터 분과회의를 열고, 이 같은 내용의 금융분야 AI 가이드라인을 확정해 발표했다. 가이드라인은 준비 기간을 거쳐 연내에 시행된다.

 

금융산업에 AI가 확대되면서 금융 소외계층을 포용하고 금융거래 비용이 낮아지는 등 장점이 있다. 하지만 아직 AI 안전성 등에 대한 우려가 있는 만큼 가이드라인을 제정해 사회적 신뢰도를 높이겠다는 취지다.

 

가이드라인은 우선 AI 금융거래와 대고객서비스를 적용한 모든 금융업권을 대상으로 AI 윤리원칙을 만들도록 했다.

 

회사별로 가치와 AI 활용 상황 등에 따라 AI 서비스 개발·운영시 지켜야 할 원칙과 기준을 수립해야 한다.

 

또 AI의 잠재적 위험을 평가, 관리할 구성원의 역할과 책임, 권한을 기획-설계-운영-모니터링 등 서비스의 전 단계에 걸쳐 구체적으로 정의해야 한다.

 

특히 AI의 의사결정이 신용평가, 보험·대출·카드발급 심사 등 개인의 금융거래계약에 중대한 영향을 미치는 경우에는 이에 대한 내부통제와 승인절차 등을 마련하고 별도의 책임자를 지정하는 등 위험관리를 강화해야 한다.

 

AI 학습에 사용되는 데이터에 대한 조사를 강화하고, 개발 과정에서 개인신용정보 오·남용이 없도록 정보보호를 강화하는 내용도 가이드라인에 포함됐다.

 

이와 함께 사생활정보 등 민감한 개인정보를 활용할 때는 비(非)식별조치를 거치고, 해당 정보가 AI에 꼭 필요한 정보인지 면밀한 검토를 거치도록 했다.

 

minji@segye.com

[ⓒ 세계비즈앤스포츠월드 & segyebiz.com, 무단전재 및 재배포 금지]