카카오는 인공지능(AI)을 전사적 리스크 관리
대상으로 분류하고 있다.
카카오는 AI 개발, 운영 과정에서 발생할 수 있는 기술적·윤리적 리스크를 사전에 식별하고 관리하기 위해 별도의 관리 체계를 구축했다.
사외이사진에도 AI와 데이터 분야 전문성을 보유한 인물을 영입해 AI 관련 의사결정이 사내 전담조직이나 개발 조직에만 국한되지 않도록 구조를 설계했다. AI를 둘러싼 기술적 판단과 데이터 활용, 정책·제도적 영향까지 이사회 차원에서 함께 검토하는 체계다.
◇대표부터 실무조직까지 이어지는 관리체계
카카오는 기술 및 AI 윤리 항목에서 AI 리스크 관리의 핵심 프레임워크로 ‘Kakao ASI(Kakao AI Safety Initiative)’를 제시했다. Kakao ASI는 AI 개발·배포·운영 전 과정에서 발생할 수 있는 리스크를 식별하고 평가한 뒤 이에 대응하기 위한 절차와 책임 구조를 정리한 관리 체계다. 회사는 2024년 10월 이 프레임워크를 공식화했다.
카카오는 AI 리스크를 크게 기술적 리스크와 윤리적 리스크로 구분한다. 기술적 리스크에는 AI 시스템의 신뢰성 저하, 성능 문제, 오류 발생, 프롬프트 공격과 같은 운영상의 위험이 포함된다. 윤리적 리스크는 AI가 인간의 권리와 존엄성을 침해할 가능성, 혐오·차별 표현, 불법·유해 콘텐츠 생성, 개인정보 및 지식재산권 침해 가능성 등 사회적 문제로 확장될 수 있는 요소를 포괄한다. Kakao ASI는 이 두 영역을 동시에 관리
대상으로 설정하고 있다.
AI 관련 의사결정 구조 역시 전사 리스크 관리 체계와 연결돼 있다. AI 리스크 관리의 최종 책임은 대표이사에게 있으며 실질적인 의사결정은 대표이사 직속 ERM(Enterprise Risk Management)위원회를 통해 이뤄진다. ERM위원회는 AI 리스크 관리 프레임워크의 운영을 감독하고 안전 평가가 완료된 AI 모델의 최종 출시 여부를 판단하는 역할을 맡는다.
카카오의 기술 및 AI 윤리 체계는 AI를 성장 전략의 중심에 두기보다 전사 리스크 관리 체계 안에서 관리·통제하는 데 초점이 맞춰져 있다. AI 서비스 출시 여부가 개발 조직의 판단을 넘어 경영진 승인 사항으로 설정된 점은
카카오가 AI를 기술 문제가 아닌 경영 리스크로 인식하고 있음을 보여준다.
실무 차원에서는 AI Safety 전담조직이 Kakao ASI의 운영 주체로 기능한다. AI Safety 전담조직은 AI 서비스 기획·개발 단계에서부터 관여해 잠재적 리스크를 식별하고 보안·개인정보·법·윤리 측면의 검토를 수행한다. 이 과정에서 도출된 평가 결과와 개선 의견은 서비스 부서에 전달되며 외부 출시 목적의 AI 서비스의 경우 ERM위원회 의사결정 자료로 활용된다. 새로운 유형의 AI 리스크가 확인될 경우 전담조직은 이를 반영해 ASI 체계와 가이드라인을 업데이트한다.
AI 서비스에 대한 리스크 검토 프로세스는 내부 활용 서비스와 외부 출시 서비스로 구분된다. 사내 활용 목적의 AI 서비스는 AI Safety 전담조직의 검토 의견을 바탕으로 개선 사항을 반영하도록 돼 있다. 반면 외부 출시를 전제로 한 AI 서비스는 더 엄격한 절차를 거친다. 외부 출시 서비스는 ‘안전한 AI를 위한 핵심 체크리스트’를 의무적으로 제출해야 하며 AI Safety 전담조직의 평가 이후 대표이사 직속 ERM위원회의 검토와 승인을 받아야 한다. 승인 절차 없이는 서비스 출시가 불가능하다.
기술적 통제 수단으로는 자체 AI 가드레일 모델인 카나나 세이프가드(Kanana Safeguard)를 운영하고 있다. 카나나 세이프가드는 AI 서비스 이용 과정에서 발생할 수 있는 유해 발화를 탐지하고 관리하기 위한 모델로 혐오·폭력·성적 콘텐츠, 범죄 및 아동 성착취, 자살·자해 관련 표현 등을 탐지한다.
이와 함께 미성년자 제한 콘텐츠, 전문 조언 요청, 개인정보 및 지식재산권 관련 요청 등 법·윤리적으로 주의가 필요한 이용자 요청을 식별하는 기능과 프롬프트 인젝션 및 탈옥 시도를 탐지하는 기능도 포함하고 있다. 이를 통해 AI 윤리 원칙이 서비스 운영 과정에서 실제로 작동하도록 기술적 통제 구조를 마련했다.
◇사외이사진에서도 확보한 AI·데이터 전문성
카카오는 사내 전담조직과 경영진뿐 아니라 사외이사진에도 AI와 데이터 분야 전문성을 갖춘 인사를 두고 있다. 차경진 사외이사는 경영정보시스템(MIS) 전공의 디지털 기술·데이터 분야 전문가다. 태즈메니아주립대학교에서 정보시스템을 전공했으며 호주국립대학교에서 경영정보시스템 박사 학위를 취득했다. 현재는 한양대학교 경영대학에서 경영정보시스템 전공 교수이자 비즈니스인포메틱스학과 교수로 재직 중이다.
차 이사는 정보기술과 조직, 데이터 활용, 디지털 전환을 연구해 온 학계 출신 인사로 AI 기술을 단순한 알고리즘이 아닌 경영·행정·조직 시스템과 결합된 구조로 바라보는 전문성을 갖췄다. 한국경영정보학회 상임이사로 활동하고 있으며 경찰청 데이터기반행정 자문위원, 행정안전부 디지털정부 정책자문위원 등을 맡아 공공 영역의 데이터·AI 활용 정책에도 관여해 왔다.
이 같은 이력은 AI 서비스가 기업 내부 운영을 넘어 행정, 공공, 사회 시스템 전반으로 확장되는 과정에서 발생할 수 있는 데이터 활용 구조, 책임 체계, 정책적 쟁점을 이해하는 데 도움이 된다.
박새롬 사외이사도 AI 전문가다. 그는 데이터 분석과 산업공학 기반의 AI·데이터 활용 분야를 연구해 온 학계 출신 인사다. 다만 박새롬 이사는 올 3월 정기주주총회에서
카카오 사외이사직을 내려놓게 된다. 그는 2020년 3월 선임돼 올해 6년의 임기를 채웠다.
박 사외이사는 서울대학교 공과대학 산업공학과에서 학사와 박사 학위를 취득했다. 이후 서울대학교 수학기반산업데이터해석 연구센터 연구원으로 활동하며 데이터 분석과 수리적 모델링을 기반으로 한 산업 데이터 해석 연구에 참여했다. 현재는 울산과학기술원(UNIST) 산업공학과 조교수로 재직 중이다.
박 이사의 연구 분야는 대규모 데이터 분석, 의사결정 모델, 산업 시스템 최적화 등으로, AI를 알고리즘 개발보다는 데이터 기반 의사결정과 시스템 분석 관점에서 다뤄온 것이 특징이다. 성신여자대학교 융합보안공학과 조교수로 재직한 이력도 있어 데이터 활용과 보안·리스크 관리 간의 접점에 대한 이해를 갖추고 있다.
이와 함께 박 이사는 과학기술정보통신부 데이터분쟁조정위원회 조정위원과 대통령소속 국가지식재산위원회 민간위원을 맡아 데이터 활용 과정에서 발생하는 분쟁과 지식재산권 이슈에도 관여해 왔다. 이사회 관점에서 박 이사의 전문성은 AI 모델의 세부 구현보다는 AI와 데이터가 서비스·산업 시스템에 적용될 때의 구조적 리스크와 의사결정 영향을 점검하는 데 초점이 맞춰져 있다.