(지디넷코리아=한정호 기자)내년 우리나라 '인공지능(AI) 기본법' 시행을 앞두고 기업과 기관의 AI 활용 방식이 근본적으로 재편될 조짐이 나타나고 있다. 고영향 AI에 대한 규제 체계가 구체화되면서 기존 자동화·AI 기반 서비스의 의사결정 구조를 전면 재설계해야 하는 상황이다.
업계에서는 AI를 더 많이 활용해야 하는 시대적 흐름과 동시에, 투명성 확보·위험 관리·책임 구조 정비라는 새로운 의무가 부상하면서 대응 전략 마련이 시급하다는 목소리가 나온다.
한국능률협회컨설팅(KMAC)과 법무법인 린은 21일 서울 역삼 포스코타워에서 '고영향 AI 활용에 따른 비즈니스 설
릴게임 계와 실행 전략' 세미나를 개최해 AI 기본법 시행의 핵심 쟁점과 실무 대응 방향을 제시했다. 행사는 AI 기본법이 내년 1월 본격 적용되면서 조직이 마주하게 될 법적·운영적 변화에 대비하기 위한 자리로 마련됐다.
EU는 설계부터 규제, 한국은 고지 중심…느슨한 범용 AI 규정
게임릴사이트 법무법인 린 방석호 AI산업센터장 (사진=한정호 기자)
첫 발표자로 나선 법무법인 린 방석호 AI산업센터장은 유럽연합(EU) AI법과 국내 AI 기본법의 차이를 짚으며 "국내 법은 EU의 '고위험' 개념을 '고영향'으로 대체했지만, 범용 AI 규제는 상당 부분 비워놓은 구조"
오션파라다이스사이트 라고 설명했다.
그는 EU가 학습 데이터와 모델 구조 등 기술적 투명성 공개를 의무화한 반면, 한국은 최종 이용자에게 '이 서비스는 AI가 사용됐다'는 사실만 고지하면 되는 수준에 그쳐 규제 밀도가 낮다고 평가했다.
또 방 센터장은 "국내 기준은 최근 발표된 미국 캘리포니아의 프론티어 모델 기준을 사실상 그대로 가져와,
바다신2게임 학습 연산량 10²⁶ 플롭스(FLOPs) 이상만 고영향으로 추정하도록 했다"며 "결국 국내 사업자는 범용 AI 규제에서 빠져 있는 셈이지만, 고영향 분야로 응용하는 순간 책임은 훨씬 커진다"고 강조했다.
법무법인 린 구태언 변호사 (사진=한정호 기자)
야마토게임하기 이어 법무법인 린 구태언 변호사는 업권별로 고영향 AI 지정 가능성을 분석하며 기업이 취해야 할 방향을 제시했다. 그는 "대출 자동심사, 채용 서류 자동평가, 교육·의료 영역의 자동 의사결정 등은 사람이 개입하지 않으면 고영향 AI로 판단될 소지가 크다"며 "특히 '사람이 최종 결정한다'는 구조를 명확히 포함해야 지정 위험을 피할 수 있다"고 말했다.
구 변호사는 금융 분야 사례를 언급하며 "앱에서 10분 만에 대출 승인 여부가 나오는 현재 프로세스는 사실상 완전 자동화된 AI 의사결정"이라며 "이 경우 개인은 '내 금리가 왜 이렇게 나왔는지 설명하라'고 요구할 수 있고 이는 고영향 지정 요청으로 이어질 수 있다"고 경고했다.
그러면서 "채용 영역에서도 AI가 정량·정성 평가를 수행해 지원자를 컷오프하는 구조는 고영향 판단 위험이 높다"며 "면접·평가 결과를 참고자료로만 활용하고 사람이 이를 재검토한 기록을 남기는 절차가 필요하다"고 설명했다.
AI 기본법 대응 핵심은 '사람 개입·문서화·거버넌스'
KMAC 손권상 AI·빅데이터 본부장은 기업이 실무적으로 대응해야 할 'AI 거버넌스 체계'를 제시했다. 그는 "기업 대부분이 AI를 쓰고 있지만, 실제로 어떤 모델을 어디에 쓰고 있는지조차 정리되지 않은 곳이 많다"며 "프로세스 단계별로 AI 개입 여부, 의사결정 영향력, 위험 수준을 평가하는 것이 첫 단계"라고 강조했다.
손 본부장은 금융권 대출 심사와 HR 채용 프로세스를 사례로 들며 기업이 AI 기반 업무를 다시 설계하는 과정을 세부적으로 설명했다. 업무 프로세스에서 AI가 판단을 내린 뒤 사람이 이를 재검토하는 구조가 반드시 포함돼야 하고 AI 결과를 '참고값'으로 낮춰 최종 결정은 사람이 하는 체계를 문서화하는 것이 핵심이다.
KMAC 손권상 AI·빅데이터 본부장 (사진=한정호 기자)
또 고영향 판단 여부를 ▲사람 개입성 ▲결과의 확정성 ▲영향력의 크기 세 항목으로 분류해 진단할 것을 제안했다. 손 본부장은 "고객 리스크 사전분류, 신용등급 자동 산출, AI 면접 평가 등은 고영향으로 판정될 가능성이 높기 때문에 별도의 모니터링 절차와 재검토 체계가 필요하다"고 짚었다.
아울러 기업 내부에 AI 윤리위원회와 전담 조직을 설치해 지속적인 모니터링 체계를 갖출 필요가 있다고 강조했다. AI 윤리 기준 수립, 모델 검증 매뉴얼, 데이터 처리 가이드라인 등 전사 AI 운영지침을 마련해야 한다는 것이다.
손 본부장은 "AI 기본법이 규정하는 고영향 AI는 앞으로 더 많은 산업과 업무 영역에서 등장할 것"이라며 "사전 검토·위험·감독·문서화·법적 대응이라는 5단계 구조를 실무 절차에 그대로 이식하는 것이 가장 현실적 대응"이라고 조언했다.
이어 "앞으로 AI를 도입하면 기술만 바꾸는 것이 아니라 기업의 일하는 방식 전체가 재설계되는 패러다임 변화가 찾아올 것"이라며 "기업이 이러한 전환을 효과적으로 헤쳐나갈 수 있도록 전문성을 바탕으로 지원하겠다"고 덧붙였다.
한정호 기자(
[email protected]) 기자
[email protected]