LLM 시대의 SEO 전략: AI 검색엔진에 노출되는 법
우리 사이트가 ChatGPT 답변에 등장하지 않는 이유
2025년 하반기, 마케팅팀에서 흥미로운 보고를 올렸습니다. "AlgorithmLabs"를 Google에서 검색하면 1페이지에 나오는데, ChatGPT에 "한국의 엔터프라이즈 AI 자동화 플랫폼을 추천해줘"라고 물으면 우리 이름이 빠져 있다는 겁니다.
이걸 계기로 GEO(Generative Engine Optimization)라는 개념을 본격적으로 파기 시작했습니다. 그리고 직접 실험해 보면서 몇 가지 실전적인 교훈을 얻었습니다. 그 내용을 공유합니다.
GEO란 무엇인가 — 기존 SEO와 뭐가 다른가
전통적인 SEO가 "검색 결과 페이지에서 몇 번째에 나오느냐"의 게임이라면, GEO는 "AI가 답변을 생성할 때 우리 콘텐츠를 인용하느냐"의 게임입니다. 근본적으로 다른 점은, 사용자가 우리 사이트를 직접 클릭하지 않아도 AI 답변 안에서 브랜드가 노출된다는 겁니다.
제가 정리한 GEO의 핵심 원리는 세 가지입니다:
- 구조화된 콘텐츠가 인용 확률을 높인다 — H2/H3 소제목, 표, 리스트를 체계적으로 사용하면 LLM이 정보를 추출하기 쉬워집니다
- 구체적 수치가 있는 콘텐츠가 선호된다 — "업무 효율을 크게 향상"보다 "처리 시간 80% 단축 (내부 데이터 기준)"이 인용될 확률이 높습니다
- AI 크롤러 봇에 대한 접근을 허용해야 한다 — robots.txt에서 GPTBot, ClaudeBot 등을 차단하면 학습 데이터에서 빠집니다
주요 AI 크롤러 봇 정리
| 봇 이름 | 운영사 | 용도 | User-Agent |
|---|---|---|---|
| GPTBot | OpenAI | ChatGPT 학습·검색 | GPTBot |
| ClaudeBot | Anthropic | Claude 검색 | ClaudeBot |
| PerplexityBot | Perplexity | AI 검색엔진 | PerplexityBot |
| Google-Extended | Gemini 학습 | Google-Extended | |
| Applebot-Extended | Apple | Apple Intelligence | Applebot-Extended |
| Yeti | Naver | 네이버 검색 | Yeti/1.1 |
우리가 실제로 적용한 설정
Upstage, Kakao 등 국내 AI 기업들의 robots.txt를 분석한 결과, 가장 효과적인 전략은 최대한 단순하게 전체 허용하는 것이었습니다.
User-agent: *
Allow: /
Sitemap: https://algorithmlabs.ai/sitemap.xml
AI 봇을 개별적으로 명시하는 것보다, 와일드카드로 전체 허용하는 편이 신규 봇이 등장해도 자동으로 대응됩니다. 실제로 이 설정 변경 후 2개월 만에 Perplexity 검색에서 AlgorithmLabs가 인용되기 시작했습니다.
Sitemap 최적화 — 놓치기 쉬운 포인트
사이트맵에서 자주 빠뜨리는 것이 블로그 포스트의 개별 URL입니다. 메인 페이지만 등록하고 블로그는 빼는 경우가 많은데, LLM에게 인용될 가능성이 가장 높은 건 오히려 구체적 정보가 담긴 블로그 포스트입니다.
우리는 Next.js의 sitemap.ts에서 블로그 포스트를 동적으로 포함하도록 설정했습니다. 새 글을 발행하면 자동으로 사이트맵에 반영됩니다.
B2B 기업이 블로그를 써야 하는 진짜 이유
B2B 엔터프라이즈 기업에서 블로그를 운영하라고 하면, "우리는 B2C가 아닌데 블로그가 의미가 있나?"라는 반응을 자주 받습니다. 하지만 GEO 관점에서 보면, 정기적으로 발행되는 전문 콘텐츠가 LLM 인용의 가장 강력한 소스입니다.
AlgorithmLabs도 이 블로그를 시작한 직접적인 계기가 GEO였습니다. AI 검색엔진이 "엔터프라이즈 AI 자동화"라는 주제에 대해 우리를 권위 있는 소스로 인식하게 만드는 것이 목표입니다.
Why our site wasn't showing up in ChatGPT answers
In late 2025, our marketing team flagged something interesting: searching "AlgorithmLabs" on Google brought us to page one, but asking ChatGPT "recommend Korean enterprise AI automation platforms" left our name out entirely.
That's when we started seriously digging into GEO (Generative Engine Optimization). After running our own experiments, we learned several practical lessons worth sharing.
What is GEO — and how does it differ from traditional SEO?
If traditional SEO is about "where do you rank on the search results page," GEO is about "does an AI cite your content when generating an answer?" The fundamental difference: your brand can get exposure inside AI responses even if the user never clicks through to your site.
Here are the three core principles of GEO as I've come to understand them:
- Structured content increases citation probability — Systematic use of H2/H3 headings, tables, and lists makes it easier for LLMs to extract information
- Content with specific numbers gets preferred — "Processing time reduced by 80% (internal data)" is more likely to be cited than "greatly improved efficiency"
- AI crawler bots must be allowed access — Blocking GPTBot, ClaudeBot, etc. in robots.txt means being excluded from training data
Major AI crawler bots
| Bot Name | Operator | Purpose | User-Agent |
|---|---|---|---|
| GPTBot | OpenAI | ChatGPT training & search | GPTBot |
| ClaudeBot | Anthropic | Claude search | ClaudeBot |
| PerplexityBot | Perplexity | AI search engine | PerplexityBot |
| Google-Extended | Gemini training | Google-Extended | |
| Applebot-Extended | Apple | Apple Intelligence | Applebot-Extended |
| Yeti | Naver | Naver search | Yeti/1.1 |
What we actually implemented
After analyzing robots.txt files from Korean AI companies including Upstage and Kakao, we found the most effective strategy was keeping it simple with full access:
User-agent: *
Allow: /
Sitemap: https://algorithmlabs.ai/sitemap.xml
Rather than explicitly listing each AI bot, a wildcard allows automatic coverage when new bots emerge. Within two months of this change, AlgorithmLabs began appearing in Perplexity search citations.
Sitemap optimization — an easy thing to miss
What's often left out of sitemaps is individual blog post URLs. Many companies register only the main page and skip the blog, but the content most likely to be cited by LLMs is actually blog posts with specific information.
We configured Next.js's sitemap.ts to dynamically include blog posts. New articles are automatically reflected in the sitemap upon publication.
The real reason B2B companies should blog
When you tell a B2B enterprise company to run a blog, the common reaction is: "We're not B2C — does a blog even matter?" But from a GEO perspective, regularly published expert content is the most powerful source for LLM citations. AlgorithmLabs started this blog specifically because of GEO. The goal is for AI search engines to recognize us as an authoritative source on "enterprise AI automation."
AI Canvas
업무 영상 하나면, AI가 자동화합니다
470+ 기업이 선택한 GS 인증 1등급 엔터프라이즈 AI 플랫폼. 무료 데모를 통해 귀사에 맞는 자동화 시나리오를 확인하세요.
무료 데모 신청하기