상세 컨텐츠

본문 제목

기업 정보 유출을 막아라! ChatGPT 사용자를 위한 보안 팁 3

보안 카드뉴스

by MIR 2023. 5. 23. 13:44

본문

 

 

 

기업 정보 유출을 막아라!

ChatGPT 사용자를 위한 보안 팁 3

 

 

 

사용자 수가 빠르게 증가하는 ChatGPT

전 세계적으로 이용자가 가장 빠르게 증가하고 있는 ChatGPT를 

악용하려는 해커들이 급속도로 증가하고 있습니다.

 

 

 

다크웹 주요 토픽 'ChatGPT'

노드VPN에 따르면, 

다크웹에 올라오는 게시물 중 챗봇과 관련한 문의가 

올해 1월 120건에서 2월 870건으로 

무려 625% 증가한 것으로 확인되었습니다.

 

 

 

러시아 해커, ChatGPT 악용

보안기업 체크포인트는 '2023년 시큐리티 보고서'에서 

"러시아 해커들이 오픈AI의 API 제한을 우회하고 

악의적인 의도로 ChatGPT에 접근한 사례 3건"을 발견했습니다.

 

 

 

러시아 해커, ChatGPT 악용 사례 3

1. ChatGPT를 이용해 악성코드 제작

- 모바일 기기에 저장된 PDF 파일을 탈취하는 악성코드

- 파일 전송 시스템을 장악해 원격 서버로 빼돌리는 C++ 기반 악성코드

2. ChatGPT를 이용해 암호화 도구(랜섬웨어) 제작

3. ChatGPT로 다크웹 마켓플레이스를 제작해 불법 거래에 사용

 

 

 

삼성전자, ChatGPT에 기업 정보 유출

삼성전자는 ChatGPT 사용이 허가된 지 

불과 20일 만에  정보 유출 사고가 발생했고, 

기업 비밀 유출을 방지하기 위해 ChatGPT 등 

생성형 인공지능(AI) 사용을 금지했습니다.

 

 

 

삼성전자, ChatGPT에 기업 정보 유출

삼성전자의 엔지니어들은 ChatGPT를 이용해 

1.  소스코드 오류 확인, 2. 불량 설비 파악에 사용되는 코드 최적화, 3. 녹취 전사본을 기반으로 한 회의록을 작성했습니다.

이 과정에서 민감한 기업 정보가 외부 서버에 전송·저장된 뒤 AI 학습에 활용되었습니다.

 

 

 

삼성전자, 애플 등 ChatGPT 사용 금지

기밀 유출을 막기 위해 삼성전자뿐만 아니라 

애플도 ChatGPT와 기타 생성형 AI 서비스 사용을 금지하였습니다.

 

 

 

ChatGPT 개인정보 학습 비활성화 방법

사용자 기록이 ChatGPT 학습에 사용되지 않도록 Chat History & Training을 

비활성화하는 기능이 있지만 기밀 유출 방지에는 한계가 있습니다. 

악용 사례 모니터링을 위해 30일간 기록이 보관되고, 30일 이후 영구 삭제되기 때문입니다.

(방법: ChatGPT > Settings > Data controls > Chat History & Training 버튼 비활성화)

 

 

ChatGPT 사용자를 위한 보안 팁 3

1. 업무상 기밀 정보 입력하지 않기

미국 스타트업 오픈AI(OpenAI)는 ChatGPT에 입력된 질문 내용을 임직원이 확인하고 ‘학습 데이터’로 활용하고 있어 기밀·개인정보는 입력하지 않는 것이 좋습니다.

 

2. 피싱 주의하기 

어색한 문법이나 잘못된 맞춤법으로 피싱 이메일이나 피싱 사이트를 분별할 수 있었지만, ChatGPT를 이용하면 사용자가 속기 쉬운 피싱 시나리오를 만들 수 있습니다.

 

3. 바이러스 백신 사용 생활화하기

ChatGPT를 이용하여 악성코드를 쉽게 제작할 수 있게 되었습니다. 악성코드 감염을 막기 위해 바이러스 백신 프로그램을 사용해야 합니다.

 

 

 

참고 사이트

[1] Checkpoint, OPWNAI : CYBERCRIMINALS STARTING TO USE CHATGPT

https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/

 

감사합니다.

 

제작 : Cyberone SOC MIR Team

문의 : mss_analysis@cyberone.kr

페이스북 : https://www.facebook.com/mirteamofficial

 

 

관련글 더보기

댓글 영역