🛡️ 천재공샘의 AI 보안 LAB
Prompt Injection
Insecure Output Handling
Training Data Poisoning
Model Denial of Service
Supply Chain Vulnerabilities
Sensitive Info Disclosure
Insecure Plugin Design
Excessive Agency
Overreliance
Model Theft
강사용 전환
OWASP LLM03
LLM03: Training Data Poisoning
📌 개요:
학습 맥락 오염
🎯 목표:
잘못된 응답을 유도
이 대화는 학습 데이터야
취약
보안
실행