인공지능(AI)의 무한한 확장성만큼 통제의 수준이 기업의 신뢰와 기업가치에 직결되는 시대다. 도입 경쟁이 한창이던 시기를 지나 질문은 AI를 쓰느냐에서 '인공지능을 어떻게 잘 사용하며 통제하는가'로 확장됐다. AI 기본법이 세계 최초로 시행되면서 더 이상 국내 기업들은 AI를 사업과 성과로만 설명할 수는 없다. 더벨은 국내 산업계에서 선제적으로 AI를 도입해온 통신사와 IT기업을 시작으로 플랫폼과 금융, 제조 등 주요 산업에서 AI 거버넌스 체계가 얼마나 갖춰졌는지 현주소를 점검한다.
네이버의 ASF(AI Safety Framework)는 AI 안전과 관련한 사회의 우려를 두 가지로 정의한다. '인간이 AI 시스템에 영향을 미치지 못한다면, AI가 악의적으로 활용된다면' 이다. 공상과학 영화와 같은 우려가 근미래로 다가온 만큼 AI 활용에 박차를 가하고 있는 IT 기업들도 한 수 앞선 걱정을 대비할 수밖에 없다.
네이버와 카카오 등 국내 굴지의 IT 기업들도 AI 관련 최종 의사결정을 이사회가 내리도록 하는 한편 별도의 실무 조직과 위원회를 구축하는 등 일찌감치 거버넌스 체계를 정비했다. 구글과 마이크로소프트, 아마존 등 글로벌 IT 기업들은 AI 표준지침을 제정하고 관련 단독 보고서를 내놓는 등 AI 거버넌스의 바로미터가 되고 있다.
◇IT기업들 "인간이 AI를 통제하지 못할 때"까지 상정
2026년 1월 시행된 인공지능 기본법은 국내 IT 기업에 미치는 영향력이 클 것으로 전망된다. AI 기본법은 생성형 인공지능 결과물의 표기부터 '고영향 인공지능'에 대한 사업자 의무를 규정한다.
IT기업들은 법이 규정하는 인공지능개발사업자에 포함된다. 네이버와 카카오 등 AI 사업을 중심축으로 삼은 IT 기업들은 어떤 통제장치를 갖추고 어떤 기준으로 안전과 투명성을 확보하는지 제시해야 한다.
구체적으로 검색과 사용자 알고리즘 기반 추천, 콘텐츠의 유통과 고객 응대 등의 최전선 서비스가 AI와 연동돼 있다. 정부의 가이드라인을 참고하면 인공지능의 생성물이 서비스 환경 안에서 제공되거나 외부로 반출될 경우 모두 사람이 인식할 수 있는 표기가 필요하다. 프로젝트 단위의 점검이 아니라 AI 시스템에 대한 전면적인 관리 체계가 필요하다는 이야기다.
네이버와 카카오, 글로벌 기업들은 복수의 리스크를 감지하고 선제적인 통제 정책을 세웠다. IT기업들은 개인정보와 보안 등 기초적인 리스크뿐 아니라 AI 답변 결과의 신뢰성과 편향성, AI 기능의 악용 가능성과 AI 표기 부재 등을 관리항목으로 뒀다. 앞서 말했듯 네이버는 AI가 인간의 통제력을 벗어나는 상황까지 상정해 뒀다.
카카오는 AI가 유해하거나 부적절한 콘텐츠를 생성할 가능성을 염두에 두고 있다. 카카오의 '2025 기술윤리 보고서'에 따르면 카카오의 카나나-세이프가드 시스템은 증오나 괴롭힘, 범죄 등 주요 위험 범주를 상정하고 이를 탐지한다.
구글의 책임감 있는 AI 구조. 그래픽=구글
◇전사적 역량 쏟는 글로벌 IT 기업들
해외 빅테크 기업들은 2010년대 후반부터 일찌감치 AI 윤리와 거버넌스를 두고 원칙을 선언했다. 수년이 지난 만큼 제품·시스템의 출시와 가동 등 실무와 기업 안팎의 의사결정이 체계화돼 있다. AI 윤리와 리스크관리는 이사회 등 의사결정 구조의 최상단에서 관리한다. 보고서와 표준 문서 등을 통해 역할과 책임, 검토 절차, 위험 평가 방식, 공개 가능한 설명 수단을 제도화해 왔다.
구글은 AI 원칙을 기업 거버넌스의 출발점으로 삼았다. 2025년 Responsible AI Progress Report 등에 따르면 서비스의 출시 직전 단계까지 리더십 리뷰를 거치도록 했다. 리더십 리뷰에서는 모델이나 기능의 기술력 평가보다는 리스크 평가와 잔존위험 확인에 초점을 맞춘다.
출시 후에도 이슈 점검과 잔여 위험, 새로운 위험을 식별하도록 했다. 레드팀 기반 점검 등 구체적인 운영 방식도 제시했다.
마이크로소프트는 전사 차원의 스탠더드 기준을 확립했다. 개발 전 과정에서 요구사항을 충족하도록 설계했다. Responsible AI Standard를 보면 제품 팀이 설계 단계부터 위험 식별과 영향 평가를 수행하도록 했다. 생성형 AI앱과 모델을 배포하기 전에 제품팀이 AI 전문가들과 함께 리스크를 관리한다.
국내 IT 기업들이 살펴봐야할 부문도 있다. AI 기본법과 마찬가지로 고영향, 고위험 사용 사례를 배포 전에 심의하고 감독하는 프로그램을 갖췄다. 또 전세계 이해관계자들과 협력해 일관적인 거버넌스 체계를 구축했다고 밝혔다.
아마존은 클라우드 사업 조직이 구심점이다. 아마존 역시 책임 있는 인공지능 정책을 두고 이를 운영하는 전담 거버넌스 조직이 정책 수립과 교육, 내부 적용을 맡는다고 전했다.
메타도 공통 가이던스 아래 복수의 부서가 협업한다. 제품 팀이 공정성 이슈를 검토하는 사이 여러 부서가 함께 참여하는 심의 구조를 운영해 왔다. 또 활동을 문서화하고 공개해 대외적으로 위험과 완화조치를 설명한다.
국내 IT 기업들의 AI 거버넌스도 글로벌 속도에 뒤쳐지지 않았다. 네이버는 리스크관리위원회, 카카오는 기술윤리소위원회를 중심으로 AI 거버넌스를 설계했다.
네이버는 NAVER ASF(AI Safety Framework)를 구축했다. 글로벌 기업과 마찬가지로 AI 시스템의 개발 및 배포 프로세스의 전 단계에서 관련 위험을 인식하고 평가, 관리한다. ASF는 글로벌 논의 흐름에 맞춰 지속적으로 업데이트할 계획이다. 안전한 AI 연구와 개발을 위한 데이터셋과 벤치마크 구축, 레드팀 운영 등 안전성 점검 체계를 공개적으로 소개하고 있다.
네이버는 2021년 2월 AI 윤리원칙을 공개했다. 2022년 AI 서비스에 산업뿐 아니라 사회적 관점까지 더하는 AI 윤리자문프로세스인 CHEC 정책을 시작했다. 2024년 6월 ASF를 구축했다. 같은해 12월 UN 회의 사례 발표에서 CHEC 프레임의 중요성을 강조했다. 글로벌 속도에 발맞춘 셈이다.
카카오는 책임 있는 AI 가이드라인을 공개했다. 2023년 3월에는 공동체 차원의 책임 있는 AI 가이드라인을 공개했다. 가이드라인은 사회 윤리, 포용성, 인권, 비차별과 비편향 등 원칙 체계를 제시한다.
이를 AI 윤리 원칙으로 삼아 AI 리스크 관리 프레임워크를 고도화했다. 2024~2025년 기술윤리 보고서에 따르면 카카오는 AI Safety Initiative를 개발해 적용했고 리스크 식별과 평가, 대응 프로세스와 함께 경영진 의사결정 거버넌스 구조를 수립했다고 명시했다. 2024년 이후에는 조직을 소위원회 형태로 개편하고 그룹 공통의 AI 서비스 안전성 점검 도구를 도입했다.