이 글은 LLM과 생성형 AI의 핵심 구조를 이해해 가는 과정을, 처음 GPT에게 했던 질문들의 흐름을 따라 정리한 내용입니다. 개별 기술 개념(GPT, Transformer, Embedding, RAG)을 단순히 설명하기보다, ‘왜 그렇게 설계되었는가’를 질문하며 사고 흐름 중심으로 풀어갑니다.
1. 서론: 질문에서 시작한 이해
GPT를 처음 접했을 때, 단순히 텍스트를 잘 만들어내는 기술이겠거니 생각했습니다. 하지만 질문을 던질수록 단순한 자동완성기가 아니라, 무언가 구조적이고 논리적인 흐름을 갖는 ‘이해하는 모델’처럼 보였습니다. 그 과정에서 자연스럽게 LLM(Large Language Model), Transformer, Embedding, RAG 같은 개념들에 도달하게 되었고, 이 글은 그 사고 흐름을 정리한 기록입니다.
이 글은 개념 정리보다 중요한 건 질문 → 구조적 사고 → 연결로 이어지는 이해 중심형 흐름입니다.
같은 개념을 다루더라도, ‘질문하는 시선’에서 출발하면 사고 흐름이 더 선명해진다는 걸 공유하고 싶었습니다.
특히 LLM 개념을 공부하면서 기존 개념들과 충돌하거나 꼭 짚고 넘어가야 했던 지점들은 따로 글로 정리해 두었고, 이는 [AI, 기술적인 이야기들] 카테고리에 축적되고 있습니다.
2. 질문 기반 개념 이해 흐름
1) LLM과 생성형 AI의 개념
- 💬 “GPT랑 ChatGPT는 뭐가 달라?”
→ GPT는 LLM, ChatGPT는 이를 활용한 서비스 UI입니다. - 💬 “생성형 AI는 꼭 LLM이 있어야 가능한가?”
→ 기존 규칙 기반과 달리, 생성형 AI는 LLM의 언어 확률 모델이 핵심입니다. - 💬 “GPT는 학습을 안 한다면서 왜 점점 똑똑해지지?”
→ ‘학습’이 아니라 ‘추론’입니다. 입력된 문맥에 따라 바로 계산하고 생성합니다.
2) Transformer 구조: 문맥을 읽는 방식
- 💬 “GPT는 문맥을 어떻게 이해하지?”
→ Transformer는 어텐션(attention)을 통해 앞뒤 문맥을 계산합니다. - 💬 “Attention은 뭘 주의 깊게 본다는 건데, 그게 어떻게 계산되는 건데?”
→ Q/K/V 벡터 간 유사도를 기반으로 가중치를 부여합니다. - 💬 “그럼 중요한 단어만 뽑았다고 해서 말이 되나? 조립은 누가 하지?”
→ Dense Layer가 말의 구조, 어투, 흐름을 조율합니다.
🔗 관련 글: GPT는 문맥을 어떻게 이해할까? – 어텐션과 트랜스포머 구조 쉽게 보기
2025.05.25 - [AI, 기술적인 이야기들] - GPT는 문맥을 어떻게 이해할까? – 어텐션과 트랜스포머 구조 쉽게 보기
GPT는 문맥을 어떻게 이해할까? – 어텐션과 트랜스포머 구조 쉽게 보기
이 글은 GPT의 문맥 이해 방식에 핵심이 되는 어텐션과 트랜스포머 구조를 실제 질문 기반 사례를 통해 쉽게 설명합니다. LLM 구조의 작동 원리를 사고 흐름 중심으로 정리했습니다.그리고 이 글
gtpmore.tistory.com
🔗 관련 글: Dense Layer는 왜 필요할까 – GPT가 말처럼 말할 수 있는 구조적 이유
2025.06.02 - [AI, 기술적인 이야기들] - Dense Layer는 왜 필요할까 – GPT가 말처럼 말할 수 있는 구조적 이유
Dense Layer는 왜 필요할까 – GPT가 말처럼 말할 수 있는 구조적 이유
GPT가 문장을 자연스럽게 만드는 데 핵심 역할을 하는 Dense Layer에 대해 구조적으로 설명한 글이다. 어텐션 이후 정보를 어떻게 해석하고 표현하는지를 기술 흐름과 직관적 비유로 풀어내며, Transf
gtpmore.tistory.com
3) Embedding과 의미 기반 표현
- 💬 “DB 검색이랑 뭐가 다른 건데?”
→ Embedding은 단어/문장을 의미 기반 벡터로 변환해 유사도를 계산합니다. - 💬 “왜 청크를 나눠야 해?”
→ LLM의 입력 제한을 넘지 않으면서, 검색 정확도를 높이기 위한 구조적 분할입니다.
🔗 관련 글: GPT는 어떻게 의미를 판단하는가 – 벡터 공간과 거리 기반 추론
2025.05.21 - [AI, 기술적인 이야기들] - GPT는 어떻게 의미를 판단하는가 – 벡터 공간과 거리 기반 추론
GPT는 어떻게 의미를 판단하는가 – 벡터 공간과 거리 기반 추론
1. 이 글의 목적이 글은 "데이터 분석은 결국 거리 개념이다"라는 오래된 전제를, GPT 같은 최신 모델의 임베딩 구조와 연결해 풀어보려는 시도다. 대상은 딥러닝을 기술적으로는 알고 있고 GPT도
gtpmore.tistory.com
🔗 관련 글: LLM 설계자를 위한 사고 전환: DB 검색 vs 임베딩 기반 검색
2025.05.15 - [AI, 기술적인 이야기들] - LLM 설계자를 위한 사고 전환: DB 검색 vs 임베딩 기반 검색
LLM 설계자를 위한 사고 전환: DB 검색 vs 임베딩 기반 검색
들어가며: 지금 왜 이 이야기를 해야 할까?GPT와 같은 LLM의 등장은 단순히 '새로운 툴'의 등장을 넘어서, 정보 탐색과 연결 방식 자체의 변화로 이어진다. 많은 개발자들은 여전히 RDB나 키워드 중
gtpmore.tistory.com
🔗 관련 글: LLM에서는 청크가 단위가 아니라 구조다
2025.05.24 - [AI, 기술적인 이야기들] - LLM에서는 청크가 단위가 아니라 구조다
LLM에서는 청크가 단위가 아니라 구조다
들어가며: 익숙하지만 다른 개념청크(Chunk)라는 단어는 낯설지 않다. 개발자라면 누구나 '단위를 나눈다'는 감각으로 익숙하게 받아들이는 개념이다. API 설계, 로그 스트리밍, 배치 처리 등에서
gtpmore.tistory.com
4) RAG와 외부 지식 결합
- 💬 “결국 RAG는 왜 필요한데?”
→ GPT는 최신 정보를 모르기 때문에, 외부 문서를 연결해 문맥을 보강해야 합니다. - 💬 “프롬프트 엔지니어링은 질문 만드는 기술이네?”
→ 좋은 질문을 구조화하는 것이 곧 설계 역량입니다.
* RAG는 다른 글들에서 직간접적으로 다뤄서 별도로 작성된 글은 없습니다.
3. 마무리: 구조를 따라가는 사고
이 글은 LLM 개념을 처음 공부할 때 던졌던 질문들을 정리한 내용입니다. 개념 설명보다는, ‘왜 그런 구조가 필요한가’를 생각해 보는 과정이 중요하다는 걸 느꼈고, 앞으로 이어질 글들은 각 기술을 구조와 활용 맥락 속에서 계속 풀어갈 예정입니다.
기술은 연결될 때 더 잘 이해됩니다.
'AI, 기술적인 이야기들' 카테고리의 다른 글
ML에서 DL로 ① 거리 개념과 구부러진 공간 (1) | 2025.06.10 |
---|---|
ChatGPT는 왜 그렇게 'AI처럼' 느껴질까? – AI UX의 착시 현상을 파헤치다 (0) | 2025.06.09 |
Dense Layer는 왜 필요할까 – GPT가 말처럼 말할 수 있는 구조적 이유 (0) | 2025.06.02 |
GPT는 문맥을 어떻게 이해할까? – 어텐션과 트랜스포머 구조 쉽게 보기 (0) | 2025.05.25 |
LLM에서는 청크가 단위가 아니라 구조다 (0) | 2025.05.24 |