AI와 대화하다 보면 가끔 존재하지 않는 논문을 인용하거나, 아주 자신만만하게 틀린 계산 결과를 내놓을 때가 있습니다. 이를 '할루시네이션(Hallucination, 환각)'이라고 합니다. 저 역시 중요한 보고서를 쓰다가 AI가 지어낸 가짜 통계치를 그대로 믿을 뻔해서 가슴을 쓸어내린 적이 있습니다. 하지만 몇 가지 '방어 기제'만 프롬프트에 추가하면, AI의 답변은 놀라울 정도로 정교해집니다.
1. "모르면 모른다고 말해줘" - 솔직함 유도하기
AI는 기본적으로 '답변을 완성해야 한다'는 강박이 있습니다. 그래서 모르는 질문을 받으면 소설을 쓰기 시작하죠. 이럴 때는 질문 끝에 한 문장만 덧붙여도 환각 현상이 획기적으로 줄어듭니다.
추천 구문: "확실하지 않거나 근거 자료가 부족한 부분은 추측하지 말고 '정보 없음'이라고 명시해줘." 이 간단한 요청만으로도 AI는 지어내기보다는 신중한 태도로 답변을 재구성하게 됩니다.
2. '생각의 사슬(Chain of Thought)' 기법 활용하기
결과물만 바로 달라고 하면 AI는 중간 과정을 생략하고 직관적인(하지만 틀리기 쉬운) 답을 내놓습니다. 이때는 "단계별로 생각해서 답변해줘(Think step-by-step)"라는 마법의 주문을 넣어보세요.
예시: "이 복잡한 세금 계산 문제를 풀어줘. 바로 답을 내지 말고, 어떤 공식을 적용했는지 단계별로 먼저 설명한 뒤에 최종 결과값을 알려줘." 논리적인 추론 과정을 스스로 검토하게 함으로써 정답률을 높이는 검증된 기법입니다.
3. 'Few-Shot' 프롬프팅: 예시를 보여주는 것이 백 마디 설명보다 낫다
AI에게 "창의적인 광고 카피를 써줘"라고 막연하게 시키면 뻔한 문구만 나옵니다. 이때는 내가 원하는 스타일의 예시를 2~3개 보여주세요.
프롬프트 예시: "자극적이지 않으면서 감성적인 카피를 원해. 예시1) '새벽 공기처럼 맑은 피부' 예시2) '오늘 당신의 수고를 씻어줄 한 잔' 이런 느낌으로 우리 브랜드의 신제품 샴푸 카피를 5개만 더 제안해줘." 예시(Shot)를 제공하면 AI는 여러분의 취향과 톤앤매너를 즉각적으로 파악하여 수준 높은 결과물을 내놓습니다.
4. 주의사항: 최종 검증은 언제나 '사람'의 몫
AI는 보조 도구일 뿐, 책임은 사용자에게 있습니다. 특히 법률, 의료, 금융 등 민감한 정보를 다룰 때는 AI가 준 답변을 반드시 교차 검증(Cross-check)해야 합니다. 구글 검색이나 전문 서적을 통해 수치와 출처를 확인하는 습관이 여러분의 전문성을 지켜주는 마지막 보루입니다.
[핵심 요약]
정보가 불확실할 경우 '모른다고 답변할 것'을 명시하여 환각을 방지하세요.
'단계별로 생각하기'를 요청하여 논리적 오류를 최소화하세요.
원하는 스타일의 예시(Few-shot)를 제공하여 답변의 품질을 커스터마이징하세요.
0 댓글