문영만 기자
카카오는 27일, 생성형 AI의 안전성과 신뢰성을 검증할 수 있는 AI 가드레일 모델 ‘Kanana Safeguard’를 개발하고 국내 기업 최초로 오픈소스 형태로 공개했다고 밝혔다.
카카오는 27일, 생성형 AI의 안전성과 신뢰성을 검증할 수 있는 AI 가드레일 모델 `Kanana Safeguard`를 개발하고 국내 기업 최초로 오픈소스 형태로 공개했다고 밝혔다.
이번 공개는 생성형 AI 기술이 빠르게 확산되며 사회적 우려가 커지는 가운데, 안전하고 책임 있는 AI 생태계를 조성하기 위한 선제적 대응의 일환이다.
‘Kanana Safeguard’는 카카오가 자체 개발한 언어모델 ‘Kanana’를 기반으로 한국어 및 한국 문화에 최적화된 성능을 갖춘 것이 특징이다. 자체 구축한 한국어 데이터셋을 활용했으며, F1 스코어 평가 결과 글로벌 모델 대비 우수한 성과를 보인 것으로 알려졌다.
공개된 모델은 총 3종이다. 기본형인 ‘Kanana Safeguard’는 AI 서비스 내에서 증오, 괴롭힘, 성적 콘텐츠 등 유해 발화를 탐지하는 역할을 하며, ‘Kanana Safeguard-Siren’은 개인정보, 저작권 등 법적 민감 정보를 식별한다. 마지막으로 ‘Kanana Safeguard-Prompt’는 AI를 악용하려는 시도나 위험한 프롬프트를 감지하도록 설계됐다.
이 모델들은 모두 세계 최대의 오픈소스 AI 플랫폼인 허깅페이스(Hugging Face)를 통해 다운로드 가능하며, 상업적 활용과 수정·재배포가 자유로운 아파치 2.0(Apache 2.0) 라이선스를 적용받는다.
카카오 김경훈 AI Safety 리더는 “기술 발전과 함께 AI의 윤리와 안전에 대한 논의가 더욱 중요해지고 있다”며 “Kanana Safeguard의 오픈소스 배포를 통해 책임감 있는 AI 개발과 활용 문화가 확산되길 기대한다”고 밝혔다.
카카오는 향후 지속적인 업데이트를 통해 모델의 고도화를 추진하고, 국내외 AI 기술 안전성 강화에 적극 기여할 방침이다.