[KISA Insight 2023 Vol.03] ChatGPT(챗GPT) 보안 위협과 시사점

KISA 사이트 참고

[KISA Insight 2023 Vol.03] ChatGPT(챗GPT) 보안 위협과 시사점

□ ChatGPT가 출시되면서 혁신적인 기능으로 인해 주목을 받고 있지만, 그에 따른 부작용으로 인한 다양한 보안 이슈도 발발

∙ ChatGPT의 혁신적인 결과물 생산으로 출시됨과 동시에 폭발적인 관심을 받았으며, 비즈니스 과정에서 생산성을 향상시키고, 의료, 법률, 미디어 등 다양한 산업 분야에 활용되어 큰 영향을 줄 수 있음 ∙ 거짓 답변을 사실처럼 대답하거나, 최신 정보에 대한 내용은 답변하지 못하는 등 다양한 한계점이 존재하며, ChatGPT 활용 과정에서 다양한 부작용 발생 가능

□ 보안 전문가들은 ChatGPT가 사이버 범죄에 악용될 수 있다고 전망하며, 해외 주요국 및 기업 등에서는 인공지능에 대한 규제 논의가 촉진되고 있음

∙ ChatGPT 개발사인 OpenAI는 ChatGPT가 안전하게 활용될 수 있도록, 해당 서비스의 활용을 허용하지 않는 용도를 제시 ∙ 보안 전문가들도 ChatGPT가 좋은 목적으로 활용될 수 있고 사이버보안 활동에도 도움을 줄 수 있지만, 사이버 범죄에도 얼마든지 활용될 수 있음을 강조 ∙ 이탈리아는 ChatGPT 접속을 일시적으로 차단하였다가 OpenAI의 보안 조치 후 다시 해제하였으며, EU나 미국 등에서 인공지능 규제에 대한 논의 촉진

□ ChatGPT의 결과물이 사이버 공격에 악용되거나, 민감정보 유출 및 결과물 오남용 문제가 발생할 수 있으며, 인공지능 모델에 대한 공격도 고려 필요

∙ 공격자들은 피싱 메일 작성, 악성코드 생성 등 ChatGPT의 결과물을 사이버 공격에 활용하거나, ChatGPT를 통해 사이버 위협 행위에 대한 도움을 받을 수 있음 ∙ 무분별한 입력으로 민감정보의 유출 가능성이 존재하며, ChatGPT의 잘못된 결과물 생산은 잘못된 정보의 오용 및 확산이나 다양한 보안 문제 등을 야기할 수 있음 ∙ 인공지능 모델 고유의 보안 위협이 존재하며, 개발 단계부터 안전한 활용단계까지 보안 위협에 대한 대응방안 마련 필요

홈페이지 : KISA 바로가기

Last updated