ChatGPT로는 못 하는 것들 — AI Canvas로 미디어 모니터링 Agent 만들기
"ChatGPT한테 물어보면 되지 않나요?"
AI Canvas를 처음 소개할 때 가장 많이 듣는 질문입니다. "그냥 ChatGPT에 '삼성화재 최신 뉴스 분석해줘'라고 하면 되지 않나요?"
맞습니다. ChatGPT도 Gemini도 이제 웹 검색 기능이 있습니다. 최신 뉴스를 물어보면 실제로 답을 줍니다. 그런데 여기서 직접 테스트해보시기 바랍니다.
ChatGPT에 이렇게 입력해보세요:
"삼성화재 뉴스 기사 1,000개 가져와봐"
결과는 항상 동일합니다. 아래 이미지처럼 핵심 이슈별로 요약된 내러티브만 돌아옵니다. 분량과 저작권 문제로 원문 기사 전체를 줄 수 없기 때문입니다. ChatGPT가 잘못한 게 아닙니다. 채팅 인터페이스 자체의 구조적 한계입니다.
![]()
AI Canvas의 Crawling 노드는 다릅니다. 네이버 뉴스 API를 직접 호출해서 기사 제목·본문 요약·링크·날짜를 행(row) 단위 구조화 데이터로 수집합니다. 100건이든 1,000건이든 테이블로 받습니다. LLM은 누군가 요약한 텍스트를 읽는 게 아니라, 실제 기사 데이터를 행별로 분석합니다. 그 결과를 파이차트로 시각화하고 이메일로 자동 발송합니다.
ChatGPT 웹검색과 AI Canvas의 차이는 "요약본을 읽느냐, 원본 데이터를 분석하느냐" 입니다.
ChatGPT 채팅과 AI Canvas의 결정적 차이
| 구분 | ChatGPT / Gemini 채팅 | AI Canvas |
|---|---|---|
| 데이터 출처 | 웹 검색 요약본 | API로 수집한 원문 구조화 데이터 |
| 결과 형태 | 내러티브 텍스트 (편집됨) | 행 단위 테이블 (원본 그대로) |
| 건수 제어 | 불가 (임의 선별) | 지정한 수량 그대로 수집 |
| 반복 실행 | 매번 수동 입력 필요 | 스케줄로 자동 반복 |
| 결과 포맷 | 텍스트 | 차트·테이블·이메일 등 구조화 |
| 협업 | 불가 | 캔버스 공유·복제 가능 |
완성된 워크플로우 전체 흐름
이 튜토리얼에서 만들 것은 삼성화재 미디어 모니터링 Agent입니다.
네이버 뉴스를 수집하는 것이 시작점입니다. 수집된 기사를 LLM이 긍정/중립/부정으로 분류하고, 그 결과를 파이차트로 시각화하거나 부정 기사만 뽑아서 리스크 보고서를 별도로 작성합니다. 전체 요약 보고서는 이메일로 자동 발송됩니다.
![]()
Step 1. 뉴스 수집 — Crawling 노드
이 노드가 하는 일: 네이버 뉴스에서 특정 키워드의 최신 기사를 자동으로 수집합니다.
좌측 메뉴 서비스 연동 카테고리에서 크롤러를 캔버스로 Drag & Drop합니다.
설정 항목은 세 가지만 기억하면 됩니다.
| 설정 | 값 | 설명 |
|---|---|---|
| 소스 | naverNews | 네이버 뉴스에서 수집 |
| 검색 키워드 | 삼성화재 | 분석하고 싶은 기업명 |
| 수집 건수 | 100 | 최신 뉴스 100건 |
팁: 키워드를
삼성화재 실적처럼 구체적으로 넣으면 더 정밀한 기사를 수집할 수 있습니다.
수집이 완료되면 title, description, link, postdate 등의 컬럼이 담긴 테이블 데이터가 만들어집니다. LLM에게 건네줄 실제 입력 소스가 준비된 것입니다. ChatGPT가 추측으로 만들어내는 정보와 달리, 이 데이터는 오늘 실제 보도된 기사입니다.
Step 2. LLM 감성 분류 — Prompt 노드
이 노드가 하는 일: 수집된 뉴스 기사 하나하나를 LLM이 읽고 긍정/중립/부정으로 분류합니다.
서비스 연동 카테고리에서 프롬프트를 캔버스로 Drag & Drop한 뒤, Crawling 노드와 선으로 연결합니다.
프롬프트 입력창에 아래처럼 작성합니다.
{{title}}
{{description}}
-----
위 뉴스기사가 삼성화재 관점에서 긍정기사인지 부정기사인지 판단해봐.
##규칙##
- 반드시 긍정, 중립, 부정으로만 대답 할 것
{{title}}, {{description}}은 앞 노드에서 넘어온 실제 기사 제목과 내용이 자동으로 채워지는 자리입니다. LLM은 이 실제 텍스트를 읽고 판단하기 때문에 할루시네이션이 발생할 여지가 없습니다.
모델은 gpt-4o-mini를 선택합니다. 단순 분류 작업이므로 고성능 모델을 쓸 필요가 없고, 비용을 낮출 수 있습니다.
이것이 핵심: ChatGPT에게 "삼성화재 뉴스 분석해줘"라고 하면 LLM이 기억 속에서 추측합니다. AI Canvas에서는 LLM이 방금 수집한 실제 기사 원문을 읽고 판단합니다. 완전히 다른 프로세스입니다.
Step 3. 데이터 시각화 — 파이차트 노드
이 노드가 하는 일: 긍정/중립/부정 분류 결과를 파이차트로 자동 시각화합니다.
시각화 카테고리에서 파이차트를 Drag & Drop한 뒤, Step 2의 Prompt 노드와 선으로 연결합니다.
설정은 두 가지입니다.
| 설정 | 값 |
|---|---|
| 분석 컬럼 | output_response (Step 2에서 LLM이 채운 컬럼) |
| 기준값 | 긍정 |
노드를 실행하면 즉시 파이차트가 캔버스 안에서 렌더링됩니다. "이 기간 동안 삼성화재 관련 뉴스 100건 중 긍정 몇 %, 부정 몇 %"가 시각화됩니다.
스프레드시트나 별도 BI 툴을 열 필요가 없습니다. 데이터가 흐르는 파이프라인 안에서 차트가 함께 만들어집니다.
Step 4. 보고서 작성 및 이메일 자동 발송
이 노드가 하는 일: 수집된 전체 뉴스 데이터를 LLM이 요약 분석 보고서로 만들고, 지정한 이메일로 자동 발송합니다.
두 개의 노드를 추가합니다.
① 보고서 작성 Prompt 노드 (Crawling 노드에서 연결)
{{dataset}}
---
위 데이터 토대로 삼성화재의 미디어모니터링 분석 보고서 작성해봐.
{{dataset}}은 앞 Crawling 노드의 전체 데이터 테이블을 프롬프트 안에 통째로 삽입하는 문법입니다. LLM은 100개 기사를 모두 읽고 요약합니다. 모델은 gemini-2.5-flash를 선택합니다 — 장문 데이터 처리에 강합니다.
② sendEmail 노드 (보고서 Prompt 노드에서 연결)
| 설정 | 값 |
|---|---|
| 받는 사람 | 이메일 주소 입력 |
| 제목 | 삼성화재 미디어 분석 보고서 - {{date()}} |
| 본문 | {{output_response}} |
{{date()}}는 실행 날짜가 자동으로 입력되는 함수입니다. 매일 실행하면 "삼성화재 미디어 분석 보고서 - 2025년 12월 20일" 형식으로 제목이 자동 생성됩니다.
팁: 부정 기사만 별도로 분석하는 리스크 보고서도 추가할 수 있습니다. Step 2의 분류 결과에서
selectRows노드로output_response = 부정인 행만 걸러낸 뒤 별도 Prompt에 연결하면 됩니다. 실제 캔버스에 구현된 구조입니다.
Step 5. 스케줄 설정 — 매일 자동 실행
이 기능이 하는 일: 워크플로우를 지정한 시간에 자동으로 실행합니다. 한 번 설정하면 매일 아침 보고서가 이메일로 도착합니다.
캔버스 좌측 사이드바에서 스케줄 아이콘을 클릭합니다.
| 설정 | 권장값 |
|---|---|
| 실행 주기 | 매일 |
| 실행 시각 | 오전 8:00 |
| 시작 노드 | Crawling 노드 |
저장을 누르면 끝입니다. 이제 매일 오전 8시에 당일 삼성화재 관련 뉴스가 자동 수집되고, LLM이 분석하고, 보고서가 이메일로 발송됩니다. 담당자가 아무것도 하지 않아도 됩니다.
ChatGPT와의 차이: ChatGPT에 매일 같은 질문을 반복하려면 매일 수동으로 입력해야 합니다. 스케줄이 없습니다. AI Canvas에서는 한 번 설정으로 무기한 자동화됩니다.
Step 6. 협업 및 캔버스 복제
협업 기능: 만든 워크플로우를 팀원과 공유할 수 있습니다.
캔버스 우측 상단 공유하기 버튼 → 이메일 주소 입력 → 권한 설정(뷰/편집).
팀원은 초대 링크를 클릭하기만 하면 동일한 캔버스에서 함께 작업할 수 있습니다. 코드가 없어도, 서버가 없어도, IT 부서에 요청하지 않아도 됩니다.
캔버스 복제 기능: 만든 워크플로우를 다른 키워드에 그대로 재사용할 수 있습니다.
캔버스 상단 복제하기 버튼을 클릭합니다. 동일한 구조의 새 캔버스가 생성됩니다. 거기서 Crawling 노드의 키워드만 현대해상이나 DB손해보험으로 바꾸면, 경쟁사 모니터링 워크플로우가 즉시 완성됩니다.
노드를 다시 연결하거나 프롬프트를 처음부터 쓸 필요가 없습니다. 복제 → 키워드 변경 → 실행, 이 세 단계면 됩니다.
전체 체크리스트
AI Canvas 미디어 모니터링 Agent를 완성했다면 아래 항목을 확인하세요.
- Crawling 노드 키워드가 분석하려는 기업명으로 설정되어 있는가
- Prompt 노드에
{{title}}과{{description}}변수가 올바르게 들어가 있는가 - Prompt 노드와 Crawling 노드가 엣지(선)로 연결되어 있는가
- sendEmail 노드의 수신자 이메일이 입력되어 있는가
- 스케줄이 설정되어 있고 시작 노드가 Crawling으로 지정되어 있는가
- 한 번 수동 실행해서 이메일이 정상 수신되는지 확인했는가
마무리하며
ChatGPT와 Gemini는 훌륭한 도구입니다. 하지만 그 도구의 본질은 텍스트 생성기입니다. 입력 소스를 제어할 수 없고, 반복 실행이 불가능하며, 결과를 구조화하거나 자동화할 수 없습니다.
AI Canvas는 LLM을 파이프라인의 한 부품으로 사용합니다. 데이터 수집, 필터링, 분류, 시각화, 발송 — 이 전체 흐름이 하나의 워크플로우 안에서 자동으로 돌아갑니다. 그리고 이 모든 것을 코드 한 줄 없이 만들 수 있습니다.
10년간 대기업 AX 프로젝트를 총괄하면서 배운 것이 있다면, AI 도입에서 가장 중요한 건 "얼마나 좋은 모델을 쓰느냐"가 아니라 "얼마나 신뢰할 수 있는 데이터를 입력으로 주느냐"입니다. 이 튜토리얼에서 만든 워크플로우가 그 원칙의 가장 단순한 구현입니다.
이 캔버스를 그대로 복제해서 원하는 키워드로 바꿔보고 싶다면 → 캔버스 직접 확인하기
도입 검토 또는 커스터마이징 문의 → 데모 신청하기
"Can't I Just Ask ChatGPT?"
This is the most common question I hear when introducing AI Canvas. "ChatGPT and Gemini both have web search now — why not just ask them?"
That's fair. They do have web search, and they will give you an answer about recent news. But try this test first.
Type this into ChatGPT:
"Give me 1,000 news articles about Samsung Fire & Marine Insurance."
The response is always the same. You get a summarized narrative organized by category — not the raw articles. ChatGPT can't deliver the full original text of 1,000 articles due to volume and copyright constraints. This isn't a flaw in ChatGPT. It's a structural limitation of the chat interface itself.
![]()
AI Canvas's Crawling node works differently. It calls the Naver News API directly and collects article titles, summaries, links, and dates as row-level structured data — a proper table. 100 articles or 1,000, it's all in rows. The LLM doesn't read someone else's summary. It analyzes the actual article data, row by row.
The difference between ChatGPT web search and AI Canvas is "reading a summary vs. analyzing the source data."
The Fundamental Difference Between Chat AI and AI Canvas
| ChatGPT / Gemini Chat | AI Canvas | |
|---|---|---|
| Data source | Web search summary (edited) | Raw structured data via API |
| Result format | Narrative text | Row-level table (original) |
| Volume control | Not available (arbitrary selection) | Exact count as specified |
| Repeat execution | Manual every time | Automated via schedule |
| Output format | Text only | Charts, tables, emails |
| Collaboration | Not available | Canvas sharing and cloning |
The Complete Workflow
Here's what we'll build — a Samsung Fire & Marine Insurance media monitoring Agent.
News collection is the entry point. Collected articles are classified as positive/neutral/negative by an LLM. Results are visualized as a pie chart, and negative articles are isolated for a separate risk report. The full summary report is sent automatically by email.
![]()
Step 1. Collect News — Crawling Node
What this node does: Automatically collects the latest articles from Naver News for a specific keyword.
From the left sidebar, find the Crawler under the Service Integration category and Drag & Drop it onto the canvas.
There are only three settings to configure.
| Setting | Value | Description |
|---|---|---|
| Source | naverNews | Collect from Naver News |
| Keyword | Samsung Fire | The company to monitor |
| Count | 100 | Latest 100 articles |
Tip: Use a more specific keyword like
Samsung Fire earningsto get more targeted articles.
Once collected, you'll have a structured table with columns like title, description, link, and postdate. This is the real input source you'll pass to the LLM — articles actually published today, not guesses from a model's memory.
Step 2. LLM Sentiment Classification — Prompt Node
What this node does: The LLM reads each collected article and classifies it as positive, neutral, or negative.
Drag & Drop a Prompt node from the Service Integration category and connect it to the Crawling node. Enter the following:
{{title}}
{{description}}
-----
From Samsung Fire & Marine Insurance's perspective, classify this news article as positive, neutral, or negative.
##Rules##
- Answer with only one of: positive, neutral, negative
{{title}} and {{description}} are automatically filled with the actual article content from the previous node. The LLM reads this real text to make its judgment — no room for hallucination.
Set the model to gpt-4o-mini. This is a simple classification task, so a lightweight model keeps costs low.
This is the key difference: Asking ChatGPT to "analyze Samsung Fire news" means the LLM reaches into its memory to guess. In AI Canvas, the LLM reads the actual article text collected moments ago. Completely different processes.
Step 3. Data Visualization — Pie Chart Node
What this node does: Automatically visualizes the positive/neutral/negative breakdown as a pie chart.
Drag & Drop a Pie Chart from the Visualize category and connect it to the Step 2 Prompt node.
| Setting | Value |
|---|---|
| Column | output_response (the column the LLM filled in Step 2) |
| Reference value | positive |
Run the node and a pie chart renders instantly inside the canvas. You'll see: out of 100 Samsung Fire articles in this period, X% positive, Y% negative.
No spreadsheet, no BI tool needed. The chart is built inside the pipeline as the data flows through.
Step 4. Report Writing and Auto Email Dispatch
What this node does: The LLM summarizes the full dataset into an analysis report and sends it to a specified email address automatically.
Add two nodes:
① Report Writing Prompt Node (connected from Crawling node)
{{dataset}}
---
Based on the above data, write a media monitoring analysis report for Samsung Fire & Marine Insurance.
{{dataset}} inserts the entire data table from the Crawling node into the prompt. The LLM reads all 100 articles and summarizes them. Use gemini-2.5-flash — it handles long-form data well.
② sendEmail Node (connected from the Report Prompt node)
| Setting | Value |
|---|---|
| To | Your email address |
| Subject | Samsung Fire Media Report - {{date()}} |
| Body | {{output_response}} |
{{date()}} automatically inserts the execution date. Run it daily and the subject line becomes "Samsung Fire Media Report - December 20, 2025" automatically.
Tip: You can add a separate risk-focused report using only negative articles. Filter with a
selectRowsnode whereoutput_response = negative, then connect to a separate Prompt. This is exactly what the example canvas does.
Step 5. Schedule — Automatic Daily Execution
What this feature does: Runs the workflow automatically at a specified time. Set it once and the report arrives in your inbox every morning.
Click the Schedule icon in the left sidebar.
| Setting | Recommended value |
|---|---|
| Frequency | Daily |
| Time | 8:00 AM |
| Start node | Crawling node |
Save and you're done. Every morning at 8 AM, that day's Samsung Fire news is automatically collected, analyzed by the LLM, and delivered to your inbox. No one needs to do anything.
vs. ChatGPT: To repeat the same prompt in ChatGPT every day, you type it manually every day. There's no schedule. In AI Canvas, one configuration runs indefinitely.
Step 6. Collaboration and Canvas Cloning
Collaboration: Share your workflow with teammates.
Click Share in the top right → enter email addresses → set permissions (view or edit).
Teammates click the invite link and work on the same canvas together. No code, no server, no IT request required.
Canvas Cloning: Reuse the workflow for different keywords.
Click Clone at the top of the canvas. An identical canvas is created. Change the Crawling node keyword to Hyundai Marine & Fire or DB Insurance and a competitor monitoring workflow is instantly ready.
No need to reconnect nodes or rewrite prompts. Clone → change keyword → run. Three steps.
Final Checklist
Before calling your media monitoring Agent complete:
- Crawling node keyword is set to the company you want to monitor
- Prompt node contains
{{title}}and{{description}}variables correctly - Prompt node and Crawling node are connected with an edge
- sendEmail node has a recipient email address entered
- Schedule is set with the Crawling node as the start node
- You've run it once manually and confirmed the email arrives correctly
Closing Thoughts
ChatGPT and Gemini are excellent tools. But their fundamental nature is text generation. You can't control the input source, can't repeat execution automatically, and can't structure or automate the output.
AI Canvas uses LLMs as components in a pipeline. Data collection, filtering, classification, visualization, delivery — the entire flow runs automatically inside one workflow. And all of it without a single line of code.
After a decade of leading enterprise AX projects, the most important lesson I've taken away is this: what matters in AI adoption isn't which model you use — it's how reliably you can ground the AI in real input data. The workflow in this tutorial is the simplest possible expression of that principle.
To clone this canvas and try it with your own keywords → View the Canvas
Enterprise inquiries and demo requests → Request a Demo
AI Canvas
업무 영상 하나면, AI가 자동화합니다
470+ 기업이 선택한 GS 인증 1등급 엔터프라이즈 AI 플랫폼. 무료 데모를 통해 귀사에 맞는 자동화 시나리오를 확인하세요.
무료 데모 신청하기