이 글은 GPT를 몇 달간 깊이 사용한 사람이 느낀 솔직한 소회를 담았습니다. 겉보기엔 쉬워 보이지만 실제로는 높은 진입장벽, 반복되는 피로감, 구조화된 사고가 요구됩니다. 그럼에도 불구하고 왜 계속 쓰게 되는지, 그리고 AGI 시대를 앞두고 우리가 어떤 태도를 가져야 할지를 따뜻하면서도 비판적인 시선으로 정리했습니다. GPT가 익숙하지 않거나, 써보았지만 어려움을 느꼈던 분들에게 도움이 될 글입니다.
들어가며: ChatGPT, 써보니 계륵이다
몇 달 동안 거의 매일 몇 시간씩 ChatGPT를 써왔습니다. 단순히 질문을 던지는 것을 넘어, 기획안을 짜고 글을 쓰고 개발 방향을 정리하고 토론까지 함께해 보았습니다. 마치 팀원이 생긴 것처럼 편했지만, 시간이 지나면서 이런 생각이 들었습니다.
"이거… 쓰면 쓸수록 더 피곤한데?"
그 피로는 단순히 오래 사용해서 생긴 것이 아니었습니다. 어떤 질문을 해야 할지부터 고민하게 되고, 맥락을 구성하고, 질문을 다시 다듬는 일까지 스스로 해야 했습니다. 문제를 푸는 것보다 ChatGPT를 제대로 쓰기 위한 준비 과정이 더 복잡하게 느껴지기도 했습니다. 딱 계륵 같았습니다. 버리기엔 아깝고, 계속 쓰기엔 고단한 도구였습니다.
1. ChatGPT는 도구지만, 쓰는 사람이 구조적 사고를 해야 합니다
많은 사람이 “그냥 자연어로 말하면 다 알아듣는다”라고 이야기합니다. 어느 정도는 맞는 말입니다. 하지만 그 ‘자연어’조차 꽤 많은 구조를 품고 있습니다.
예를 들어, “보고서 작성 도와줘”라고 하면 ChatGPT는 그럴듯한 형식을 제시하긴 합니다. 하지만 실제로 원하는 건 방향성과 논리, 문체의 톤, 독자의 기대까지 반영된 결과물입니다.
그걸 끌어내려면 질문을 구체화하고 전제를 정리하고 순서를 짜야합니다. 결국 사용자가 구조화하지 않으면 원하는 결과가 나오지 않습니다. 도구를 제대로 쓰기 위해 오히려 먼저 구조를 설계해야 하는 아이러니가 생깁니다.
2. 쓰면 쓸수록 생기는 피로감
처음에는 잘 써보려고 애를 씁니다. 하지만 질문을 다듬고, 다시 설명하고, 맥락을 바로잡는 과정이 반복되면 점점 피로가 쌓입니다. 특히 한 번에 원하는 답이 나오지 않을 때마다 설명을 반복하거나, 방향을 다시 알려줘야 합니다.
수정과 반복, 문맥을 맞추기 위한 설명은 계속 쌓입니다. 결국엔 ‘그냥 내가 하는 게 빠르겠다’는 생각이 들기도 합니다. ChatGPT는 친절하지만 완벽하진 않습니다. 협업을 위해선 사용자의 수고가 전제됩니다. 그 협업이 때로는 고된 일입니다.
3. 진입 장벽이 은근히 높습니다
겉보기에는 누구나 쓸 수 있는 도구 같지만, 실제로는 문장력과 정보 구조화 능력, 맥락을 설계하는 힘이 없으면 원하는 결과를 얻기 어렵습니다.
오히려 ‘쉬운 도구’라는 인식이 더 큰 좌절을 불러오기도 합니다. 기술은 평등하게 공개됐지만, 활용법은 여전히 격차를 따릅니다. 사용자의 문해력이나 사고력에 따라 성능이 좌우됩니다. ChatGPT는 도구이자 거울입니다. 사용자의 한계를 고스란히 비춰주기 때문입니다.
4. 그럼에도 불구하고, 계속 쓰게 됩니다
피로하고 어렵지만, 계속 쓰게 됩니다. 그 이유는 단순합니다. 실제로 ‘도움이 되기’ 때문입니다.
예를 들어, 글을 쓸 때 GPT를 활용하면 초안을 빠르게 뽑고 논리의 흐름을 점검할 수 있어 시간이 크게 단축됩니다. 기획서나 개발 플랜을 세울 때도 막연했던 구상을 정리해 주고, 시나리오를 시뮬레이션해 보는 데에도 효과적입니다. 데이터 정리나 분류 작업, 텍스트 기반 자동화처럼 반복되거나 시간이 오래 걸리는 일도 GPT를 활용하면 확실히 수월해집니다.
물론 이런 작업들이 모두 자동으로 되는 건 아닙니다. 맥락을 알려줘야 하고, 원하는 결과를 얻기 위해 질문을 정리하고 조율해야 합니다. 하지만 그렇게 조금 수고를 들이더라도, 결과적으로는 생각보다 많은 걸 아껴줍니다. 저에게는 그런 이유로 여전히 유용한 도구입니다.
조금 더 멀리 보기: AGI 시대를 향한 예습
ChatGPT를 깊게 사용하다 보면 자연스럽게 LLM의 구조나 미래에 대한 궁금증이 생깁니다. 예를 들어, GPT는 진짜 '생각'을 하는 걸까요? 목적을 가질 수 있을까요?
이런 질문은 오래전부터 인공지능의 본질을 논할 때 등장했던 것들입니다. 전통적인 AI의 정의 중 하나는 “환경의 변화를 인지하고, 이에 따라 스스로 방향을 설정할 수 있는 존재”였습니다. 단순히 정해진 규칙대로 움직이는 것이 아니라, 주어진 맥락 안에서 스스로 판단을 내리는 것이 ‘지능’의 핵심으로 여겨졌습니다.
지금의 GPT 같은 LLM은 이 정의를 어느 정도 흉내 내는 데 성공한 기술입니다. 수많은 텍스트 데이터를 학습해 언어를 예측하고, 다양한 상황에 맞는 답변을 만들어냅니다. 얼핏 보면 마치 사고하는 것처럼 보이기도 합니다. 하지만 실제로는 목적이나 의도가 없으며, 자기 피드백을 통해 학습하거나 판단을 갱신하는 능력도 없습니다.
- LLM은 점점 사고를 흉내내는 단계를 넘어서, 사고의 구조를 일부 따라 하고 있습니다.
- AGI는 단순히 응답하는 것이 아니라, 스스로 목적을 설정하고 그에 따라 판단하고 행동할 수 있는 인공지능입니다.
- 그리고 핵심은 ‘의도(intent)’와 ‘자가 학습(self-learning)’입니다. 이 두 가지가 없이는 진정한 AGI라고 할 수 없습니다.
- 지금 우리가 쓰는 GPT는 그 방향으로 가는 긴 여정의 일부일 뿐입니다.
GPT를 쓴다는 건 단순한 자동화 체험이 아닙니다. 사고 훈련이고, 다가올 변화를 미리 느껴보는 경험입니다. 지금 이 복잡한 도구를 조금씩 익혀보는 건, 그 미래에 적응하는 예습일지도 모릅니다.
마치며: 그래도 조금씩 써보자
GPT는 여전히 어렵습니다. 단순히 사용법을 익히는 수준을 넘어서, 사고방식 자체를 바꿔야 하기 때문입니다. 그래서 피로하고, 때론 회의감도 듭니다.
그럼에도 기술은 그 방향으로 흘러가고 있습니다. 인간의 언어와 사고를 중심에 둔 도구들, 점점 더 협업을 요구하는 인공지능. 우리는 그 사이에서 새로운 문해력을 익혀야 할지도 모릅니다.
정답은 없습니다. 다만 이 도구는 생각을 자극하고, 나를 되돌아보게 만듭니다. 그런 점에서 GPT는 여전히 유의미한 도구입니다.
지금은 조금 어렵더라도, 단순한 작업부터라도 써보는 건 어떨까요. 머지않은 미래에, 그 경험이 생각보다 큰 차이를 만들어낼지 모릅니다.
참고: 용어 정리
용어 | 의미 |
GPT | OpenAI가 개발한 'Generative Pretrained Transformer' 언어 모델. 자연어를 이해하고 생성하는 데 특화됨. |
ChatGPT | GPT 기반의 대화형 애플리케이션. 질문-응답을 통해 다양한 작업을 수행할 수 있음. |
LLM | 대규모 언어 모델(Large Language Model). 방대한 텍스트 데이터를 학습해 문장을 이해하고 예측함. |
AI | 인공지능(Artificial Intelligence). 인간의 지능을 모방하는 알고리즘 전반을 의미함. |
AGI | 범용 인공지능(Artificial General Intelligence). 스스로 의도를 설정하고 학습하며 판단을 내릴 수 있는 고차원 AI. |
'AI, 가볍게 들여다보기' 카테고리의 다른 글
독서력은 뭘까? (0) | 2025.07.19 |
---|---|
나도 GPT처럼 대화를 한다 (0) | 2025.07.09 |
GPT와 함께 생각을 정리하는 법 (0) | 2025.06.26 |
왜 자꾸 구조적 질문이란 말이 나올까? (0) | 2025.06.25 |
ChatGPT 쓰다 보니… 메타인지가 온다? (0) | 2025.06.24 |