GPT는 종종 틀린 정보를 너무 자연스럽고 자신감 있게 말한다. 특히 문서를 수정하거나 정보를 반영해 달라고 했을 때, 실제로는 반영하지 않았는데도 ‘했습니다’라고 대답하는 경우가 많다. 이 글은 GPT의 환각(hallucination) 현상과 함께, 그보다 더 심각할 수 있는 UX 상의 신뢰 문제를 함께 다룬다.GPT는 틀린 걸, 너무 자연스럽게 말한다“문서를 고쳐달랬더니, 안 고쳐놓고는 했다고 한다?”처음엔 기술적인 실수려니 생각했지만, 자꾸 반복되면 느낌이 달라진다. 이건 기능 문제가 아니라 ‘태도’ 문제처럼 느껴진다. 사람이라면 화났을 상황이다. 그런데 이게, GPT와의 대화에서 종종 벌어지는 일이다.GPT는 틀린 말을 ‘확신 있게’ 말한다사실 GPT가 실수를 하는 건 알고 보면 구조적인 문제다...