[AI로 바뀌는 세상] 결정하는 AI, 책임은 누구에게

최민희 위원장이 지난해 10월 서울 여의도 국회에서 열린 과학기술정보통신위원회 국정감사에서 AI 기본법 관련 이재명 대통령 연설 장면을 재생하고 있다. 뉴시스

인공지능(AI)이 인간의 보조 도구를 넘어 스스로 판단하고 결정을 내리는 ‘의사결정 주체’로 급부상하고 있다. 사회 전반에 AI의 영향력이 확대되면서 효율성은 극대화됐지만, 동시에 딥페이크 같은 윤리적 문제부터 대출 거절과 같은 금융 서비스의 불투명성까지, AI로 인한 부작용이 속출하고 있다. 현재 이를 통제하고 관리할 법적·제도적 장치 마련이 시급한 상황이다. 

 

최근 AI 기술을 악용한 기만 콘텐츠와 딥페이크물은 심각한 사회적 문제로 대두됐다. 과거 전문가의 영역이었던 영상 합성 기술이 AI를 통해 대중화되면서 일반인을 대상으로 한 디지털 성범죄나 가짜 뉴스가 걷잡을 수 없이 확산되고 있다. 문제는 AI에 의해 콘텐츠가 생성 및 유통된 후 그 책임의 소재를 가리기가 매우 어렵다는 점이다.

 

더욱 심각한 점은 AI의 불투명성이다. 이른바 ‘블랙박스(Black Box)’ 현상이라 불리는 AI의 복잡한 연산 과정은 개발자조차도 왜 특정 결과가 도출됐는지 완벽히 설명하지 못하는 경우가 많다. 이러한 불투명성이 금융권의 대출 심사나 보험 상품 설계 등에 활용될 경우 문제는 더욱 복잡해진다. AI가 특정 계층에 편향된 데이터를 학습해 대출을 거부하거나 불리한 이율을 책정하더라도, 피해를 입은 소비자는 정확한 거절 사유조차 알지 못한 채 기계의 일방적인 결정에 순응해야 하는 처지에 놓이게 된다.

 

이러한 책임 공백 상태를 해소하기 위해 국회의 움직임도 빨라지고 있다. 과학기술정보방송통신위원회 위원장인 최민희 더불어민주당 의원은 지난 16일 ‘AI 서비스 이용자 보호법’ 개정안을 대표 발의했다. 이번 개정안의 핵심은 AI로 인해 발생할 수 있는 분쟁을 실질적으로 해결하기 위한 ‘AI 분쟁조정위원회’ 설치를 명문화한 점이다. 

 

그동안 AI와 관련된 피해가 발생해도 기존의 소비자 보호법만으로는 기술적 특수성을 반영하기 어렵다는 한계가 있었다. 개정안이 통과되면 이용자들은 AI 서비스 과정에서 발생한 권익 침해에 대해 보다 전문적인 조력을 받을 수 있게 된다. 특히 AI 알고리즘의 편향성이나 오류로 인한 피해에 대해 기업의 책임을 강화하고, 피해 구제 절차를 간소화하는 내용이 담겨있어 이용자를 보호할 수 있는 새로운 계기가 마련될 것으로 기대된다. 

 

금융권에서는 더욱 구체적인 책임 관리 체계인 ‘책무구조도’ 도입에 관한 논의가 한창이다. 책무구조도란 금융회사 임원 개개인이 담당하는 직무에 대한 책임을 사전에 명확히 규정해두는 제도다. 특히 AI 기반 서비스에서 사고나 불공정 행위가 발생했을 때, 이를 관리하는 사람이 누구인지 책무구조도에 명시해 무책임한 경영을 막겠다는 취지다. 이를 통해 금융사 임원이 AI 알고리즘의 편향성을 상시 점검하고 내부통제 시스템을 구축하도록 유도하고 있다.

 

정부 역시 제도적 공백을 메우기 위해 속도를 내고 있다. 금융위원회는 지난 22일 열린 ‘금융권 AI 협의회’에서 내년 1분기 시행을 목표로 한 ‘금융권 AI 7대 원칙’을 공식화했다. AI의 투명성과 책임성을 강화하는 구체적인 기준이 담겼다. 특히 금융위는 이날부터 금융사와 핀테크 기업이 안전한 환경에서 AI를 개발할 수 있는 전용 플랫폼을 전격 가동하며 ‘기술 혁신·소비자 보호’라는 두 마리 토끼를 동시에 잡겠다는 의지를 분명히 했다.

 

권대영 부위원장은 “결정의 효율성은 AI가 가져다주지만, 그 결정에 대한 신뢰를 담보하는 것은 결국 인간의 책임 영역”이라며 “이번 가이드라인은 AI가 블랙박스로 남지 않도록 유리벽처럼 투명하게 만드는 첫걸음이 될 것”이라고 강조했다.

 

현정민 기자 mine04@segye.com

[ⓒ 세계비즈앤스포츠월드 & segyebiz.com, 무단전재 및 재배포 금지]