📋 목차 1. 챗GPT는 왜 거짓말을 할까? 2. 환각의 근본 원인 — AI는 사실을 저장하지 않는다 3. 실제 환각 사례 — 이런 일이 실제로 있었다 4. 환각이 잘 터지는 상황 4가지 5. AI가 확신에 찬 어조로 말할수록 더 의심해야 한다 6. 환각에 속지 않는 실전 대처법 4가지 7. 오늘의 핵심 요약 안녕하세요! 복잡한 AI, 돈 되는 정보만 아주 쉽게 떠먹여 드리는 AI 읽어주는 옆집형입니다. 챗GPT를 쓰다 보면 이런 경험 한 번쯤 하셨을 겁니다. "분명히 자신 있게 대답했는데, 검색해보니 완전히 틀렸다." 심지어 존재하지 않는 논문, 죽은 사람의 최근 발언, 허구의 판례를 만들어내기도 합니다. 이걸 AI 환각(Hallucination)이라고 부릅니다. 오늘은 왜 이런 일..