그럴 듯 하지! AI의 할루시네이션(hallucination)

“AI의 할루시네이션(hallucination)”은 인공지능, 특히 자연어 처리(NLP) 모델인 GPT, BERT, Claude 같은 생성형 언어 모델에서 자주 언급되는 개념입니다. 이 용어는 인간심리학에서의 환각 현상에 빗댄 것이다. 이러한 실수, 즉 “환각”은 모델이 정확하지 않거나 무의미한 정보를 자신 있게 생성할 때 발생한다. ✅ 참고: 인간의 ‘환각’과 AI의 ‘할루시네이션’의 차이 예를 들어: 실제로 존재하지 않는 책이나 논문 제목을 만들어냄 잘못된 … Read more