본문 바로가기

직장인을 위한 AI 윤리 가이드

사내 보안과 AI 사용의 경계

왜 사내 보안이 중요할까?

ChatGPT와 같은 생성형 AI를 사용하는 과정에서 우리가 종종 간과하는 것이 바로 사내 정보의 유출 가능성입니다. 업무 효율을 높이기 위해 회사의 고객정보, 전략 문서, 회의 내용을 무심코 AI에게 입력하는 경우가 늘고 있는데요, 이 정보들이 제3자의 서버에 저장되거나 학습 데이터로 활용될 수 있다는 점을 기억해야 합니다.

평범한 사람들은 이런 실수를 보주합니다

"그냥 매출표라서 상관없을 줄 알았어요"
"이메일 내용인데, 다들 아는 거 아닌가요?"
이렇게 가볍게 넘긴 정보도 회사 입장에서는 기밀사항이 될 수 있습니다. 특히 고객 이름, 연락처, 계약 조건 등은 개인정보 보호법이나 회사의 정보보안 정책에 따라 민감 정보로 분류됩니다.

필요한 사례: 아이폰 수집을 AI에 마구 저장?

국내 한 스타트업에서 마케팅 팀원이 iPhone 유저들의 검색 로그를 AI 요약 서비스에 그대로 업로드했다가, 회사 내부에서 보안 감사에 걸려 징계를 받은 사례가 있었습니다. 단순한 실수라도 의도치 않은 정보 유출로 이어지면, 개인뿐 아니라 회사 전체에 타격을 줄 수 있습니다.

어느 정도까지는 안전할까?

  • 안전: 개인적인 질문, 기술 팁 요약, 코드 리팩토링 요청
  • 위험: 실시간 회의록 입력, 고객 명단 업로드, 사내 전략 문서 요약 요청
  • 최소 준수: 모든 입력 전에 "이 정보가 외부에 저장되어도 되는가?" 스스로 점검

끝내면 이렇게!

생성형 AI를 잘 쓰는 것도 중요하지만, 회사의 자산을 보호하는 것은 직장인의 기본입니다. 가벼운 판단이 예상치 못한 사고로 이어지기 전에, AI 입력 전 체크리스트를 만들어두는 것도 좋은 방법입니다. 다음 편에서는 "AI가 만든 보고서, 저작권은 누구의 것인가?"를 다룰 예정입니다.

반응형