정부가 인공지능(AI) 사용 시 개인정보 유출 위험이 커지고 있다며 각별한 주의를 당부했다. 특히, 최근 중국 기업이 개발한 AI 모델이 개인정보 보호 문제로 논란이 되면서 보안 경각심이 더욱 커지고 있다.
한국인터넷진흥원(KISA)은 7일, 생성형 AI를 사용할 때 주민등록번호, 전화번호, 주소, 금융 정보 등 민감한 개인정보를 입력하지 말 것을 권고했다. AI가 입력된 데이터를 학습하거나 저장할 가능성이 있어 보안이 취약할 수 있기 때문이다.

(출처: 딥시크)
KISA는 일반 사용자뿐만 아니라 기업에도 기밀 정보 보호를 위한 보안 점검을 철저히 할 것을 요청했다. 회사 내부 문서, 소스 코드, 고객 정보 등이 AI에 입력될 경우 유출 위험이 크므로 내부 정책을 마련해야 한다는 설명이다.
또한, AI를 활용한 가짜뉴스 및 딥페이크 영상이 확산하는 만큼, AI가 생성한 정보의 정확성을 검증하고, 출처가 불분명한 콘텐츠를 무분별하게 공유하지 않는 것이 중요하다고 강조했다.
기업을 대상으로는 AI 기반 코드 생성기 사용 시 보안 점검을 강화하고, AI를 활용한 악성코드 제작 증가에 대비할 것을 권장했다. 아울러, 내부망에서 AI 서비스의 무단 사용을 제한하는 접근 통제 정책도 필요하다고 덧붙였다.
KISA 관계자는 “AI 기술이 발전하면서 보안 위협도 커지고 있다”며 “개인정보 보호와 정보 보안을 철저히 관리해야 한다”고 말했다.
정부가 인공지능(AI) 사용 시 개인정보 유출 위험이 커지고 있다며 각별한 주의를 당부했다. 특히, 최근 중국 기업이 개발한 AI 모델이 개인정보 보호 문제로 논란이 되면서 보안 경각심이 더욱 커지고 있다.
한국인터넷진흥원(KISA)은 7일, 생성형 AI를 사용할 때 주민등록번호, 전화번호, 주소, 금융 정보 등 민감한 개인정보를 입력하지 말 것을 권고했다. AI가 입력된 데이터를 학습하거나 저장할 가능성이 있어 보안이 취약할 수 있기 때문이다.
(출처: 딥시크)
KISA는 일반 사용자뿐만 아니라 기업에도 기밀 정보 보호를 위한 보안 점검을 철저히 할 것을 요청했다. 회사 내부 문서, 소스 코드, 고객 정보 등이 AI에 입력될 경우 유출 위험이 크므로 내부 정책을 마련해야 한다는 설명이다.
또한, AI를 활용한 가짜뉴스 및 딥페이크 영상이 확산하는 만큼, AI가 생성한 정보의 정확성을 검증하고, 출처가 불분명한 콘텐츠를 무분별하게 공유하지 않는 것이 중요하다고 강조했다.
기업을 대상으로는 AI 기반 코드 생성기 사용 시 보안 점검을 강화하고, AI를 활용한 악성코드 제작 증가에 대비할 것을 권장했다. 아울러, 내부망에서 AI 서비스의 무단 사용을 제한하는 접근 통제 정책도 필요하다고 덧붙였다.
KISA 관계자는 “AI 기술이 발전하면서 보안 위협도 커지고 있다”며 “개인정보 보호와 정보 보안을 철저히 관리해야 한다”고 말했다.