고객 지원 챗봇, AI 상담사, 대화형 AI 서비스를 운영하고 있다면 생각보다 복잡한 개인정보 이슈를 다루게 됩니다. 사용자가 챗봇에 입력하는 모든 텍스트는 잠재적으로 개인정보가 될 수 있고, OpenAI·Anthropic 등 외부 LLM API에 이 데이터를 전송하면 국외 이전이 발생합니다.
챗봇 서비스의 개인정보 처리 흐름
사용자 입력
"제 주문 OO-123이 왜 아직 안 왔나요?"
↓
서비스 서버 (수신·저장)
↓
LLM API (OpenAI, Claude, Gemini 등) 전송 → 국외 이전
↓
AI 응답 생성
↓
응답 반환 + 대화 로그 저장
이 과정에서 세 가지 개인정보 처리가 동시에 발생합니다.
대화 로그: 어디까지 개인정보인가
직접 개인정보
사용자가 직접 입력하는 경우:
"제 이름은 홍길동이고 이메일은 hong@example.com입니다"
"핸드폰 번호 010-XXXX-XXXX로 연락 주세요"
"주소가 서울시 강남구..."
간접 개인정보
사용자가 의도하지 않아도 식별 가능한 정보가 포함되는 경우:
주문 번호 → 회원 ID와 결합 → 특정 개인 식별
증상 설명 → 건강 정보 (민감 정보)
법적 문제 상담 → 범죄 피의자 정보 가능
결론: 로그인 상태에서 나눈 대화는 회원 ID와 결합해 개인정보가 됩니다. 비로그인 대화도 세션 ID, IP와 결합 시 개인정보가 될 수 있습니다.
처리방침 기재 의무
반드시 기재해야 할 항목
■ AI 챗봇 서비스 개인정보 처리
수집 항목: 대화 내용, 대화 일시, 접속 IP
이용 목적: AI 응답 생성, 서비스 품질 개선, 민원 처리
보유 기간: [30일 / 6개월 / 1년] (서비스 목적에 따라 설정)
■ 국외 이전 (LLM API 사용)
이전 대상: OpenAI LLC
이전 국가: 미국
이전 항목: 사용자 입력 텍스트 (대화 내용)
이전 목적: AI 응답 생성
보유 기간: OpenAI 데이터 처리 정책에 따름
LLM API 제공사별 데이터 처리 정책
| 제공사 | 기본 학습 사용 | 학습 거부 방법 | |--------|-------------|--------------| | OpenAI (API) | 기본 미사용 | API 이용 시 기본 비학습 | | Anthropic (API) | 기본 미사용 | API 이용 시 기본 비학습 | | Google Gemini (API) | 기본 미사용 | API 이용 시 기본 비학습 | | 웹/앱 직접 사용 | 사용 가능 | 설정에서 거부 필요 |
API를 통해 LLM을 호출하면 일반적으로 사용자 데이터가 모델 학습에 사용되지 않습니다. 하지만 계약 조건을 직접 확인하고 처리방침에 명시해야 합니다.
LLM API 전송 시 개인정보 최소화
사용자 입력을 LLM에 전달할 때 개인정보를 마스킹하는 것이 모범 사례입니다.
마스킹 예시
import re
def mask_personal_info(text):
# 이메일 마스킹
text = re.sub(r'\b[A-Za-z0-9._%+-]+@[A-Za-z0-9.-]+\.[A-Z|a-z]{2,}\b',
'[EMAIL]', text)
# 전화번호 마스킹
text = re.sub(r'01[0-9]-?\d{3,4}-?\d{4}', '[PHONE]', text)
# 주민번호 마스킹
text = re.sub(r'\d{6}-[1-4]\d{6}', '[RRN]', text)
return text
# LLM 전송 전 처리
user_input = "010-1234-5678로 연락주세요"
safe_input = mask_personal_info(user_input)
# → "[PHONE]로 연락주세요" 전송
AI 학습 데이터로 활용 시
대화 로그를 자체 AI 모델 학습에 활용하거나, LLM 파인튜닝에 사용하려면 별도 동의가 필요합니다.
[서비스 설정]
□ AI 개선 참여 (선택)
귀하의 대화 내용을 서비스 AI 모델 개선에 활용할 수 있습니다.
대화 내용은 익명화 처리 후 사용됩니다.
언제든지 이 설정을 변경할 수 있습니다.
참여 시 혜택: 프리미엄 기능 30일 무료 제공
수집 목적("AI 응답 생성")과 다른 목적("AI 모델 학습")으로 활용하는 것은 목적 외 이용에 해당하므로 반드시 별도 동의가 필요합니다.
민감 정보가 포함된 대화 처리
사용자가 챗봇에 민감 정보를 자발적으로 입력하는 경우가 있습니다.
예시:
- 의료 상담 챗봇: "요즘 우울증 약을 먹고 있는데..."
- 법률 챗봇: "전과가 있어서요..."
- 금융 챗봇: "당뇨가 있어서 보험이 잘 안 돼요..."
이런 민감 정보가 포함된 대화 로그는 민감 정보 처리 수준의 보호가 필요합니다.
권장 조치:
✅ 민감 정보 감지 시 자동 마스킹 또는 별도 암호화 저장
✅ 의료·법률 관련 챗봇이라면 처리방침에 민감 정보 처리 조항 추가
✅ 민감 정보 대화 로그 접근 권한 추가 제한
대화 로그 보관 기간
챗봇 대화 로그의 보관 기간은 서비스 목적에 따라 설정합니다.
| 서비스 유형 | 권장 보관 기간 | 근거 | |------------|-------------|------| | 고객 지원 챗봇 | 3년 | 분쟁 해결 (전자상거래법) | | 일반 AI 챗봇 | 30일~6개월 | 서비스 개선 목적 최소화 | | 의료 상담 챗봇 | 별도 검토 필요 | 의료법 준용 가능 | | 익명 챗봇 | 세션 종료 후 즉시 파기 가능 | 목적 달성 즉시 파기 원칙 |
사용자 권리: 대화 내역 삭제 요청
사용자는 자신의 대화 로그에 대해 삭제를 요청할 수 있습니다.
[마이페이지 > 대화 이력]
대화 이력 전체 삭제 [버튼]
특정 대화 삭제 [날짜 선택]
⚠️ 삭제된 대화는 복구되지 않습니다.
법적 분쟁 해결을 위해 필요한 경우 일부 보관될 수 있습니다.
삭제 기능을 제공하지 않으면 사용자가 개인정보 삭제 요청을 할 수 있으며, 10일 이내 처리해야 합니다.
실무 체크리스트
처리방침
- [ ] 대화 로그 수집 항목, 목적, 보관 기간을 기재했다
- [ ] LLM API 국외 이전 기재 (제공사, 국가, 항목, 목적)
- [ ] AI 학습 활용 시 별도 기재 및 동의 항목 포함
기술 조치
- [ ] LLM 전송 전 개인정보 마스킹 처리를 적용하고 있다
- [ ] 민감 정보가 포함된 대화를 별도로 처리하는 로직이 있다
- [ ] 대화 로그 보관 기간 만료 후 자동 파기 스케줄이 있다
사용자 권리
- [ ] 대화 이력 열람·삭제 기능이 있다
- [ ] AI 학습 참여를 거부하거나 철회할 수 있다
PipaGuard로 AI 서비스 점검
대화 로그 처리방침, LLM 국외 이전 기재, AI 학습 동의까지 — 챗봇·대화형 AI 서비스 특화 PIPA 체크리스트를 자동으로 점검받으세요.
pipaguard.vercel.app에서 무료로 시작할 수 있습니다.