데이터 설계가 프로젝트를 잡아먹는 순간 — 연*대 AI Blueprint 도입 사례
프로젝트가 미궁으로 빠지는 순간
AI 프로젝트를 오래 하다 보면, 어느 순간 현장의 분위기가 미묘하게 바뀌는 걸 감지할 때가 있습니다. 회의 자리에서 전산팀 담당자가 "일단 테이블 전체를 다 가져와서 보여주면 안 되겠냐"는 말을 꺼내는 그 순간입니다.
연*대와 AI 시스템 구축 프로젝트를 시작했을 때도 그런 순간이 왔습니다. 과제는 명확했습니다. 학생 데이터를 기반으로 자퇴 가능성이 높은 학생을 조기에 예측하고, 학생별로 맞는 전공을 추천하는 AI 시스템을 만드는 것이었습니다.
문제는 그다음부터 시작됐습니다.
"어떤 테이블에서 뭘 가져와야 하나요?"
대학교 전산팀과의 첫 미팅에서 저는 이 질문을 받았을 때 상황이 녹록지 않음을 직감했습니다. 전산팀 입장에서는 학교 ERP를 여러 외주 업체가 나눠 구축하다 보니, 자신들도 전체 데이터 구조를 한눈에 파악하기가 어렵습니다. 수강 이력, 성적, 출결, 장학금, 상담 이력, 학생 기본 정보 등이 각각 다른 시스템에, 다른 테이블 구조로 흩어져 있었습니다.
AI 분석팀이 "자퇴 예측에 쓸 수 있는 변수를 찾아야 한다"며 관련 테이블을 하나씩 들여다보기 시작했습니다. 이 순간이 위험합니다. 분석팀이 DB 구조를 테이블 단위로 직접 까보기 시작하면, 그때부터 범위는 걷잡을 수 없이 커집니다. "이 컬럼도 필요할 것 같은데요", "이 테이블이랑 저 테이블이 조인이 되나요?" 하는 식으로 질문이 이어지고, 전산팀은 매번 확인하고 답해야 합니다.
이게 쌓이면 어떻게 될까요. 데이터 컨설팅 비용 견적이 1억 원 가까이 나오고, 프로젝트 기간의 절반이 데이터 구조 파악과 연동 작업에 소진됩니다. 실제 AI 모델을 만들기도 전에 프로젝트가 지쳐버리는 것입니다. 고객도, 우리도 모두 험난한 여정을 시작하게 되는 거죠.
AI Blueprint가 이 교착 상태를 뚫다
이 시점에 AI Blueprint를 적용했습니다. AI Blueprint는 과제의 목표(자퇴 예측, 전공 추천)와 기존 시스템 정보를 입력하면, AI가 해당 과제에 필요한 데이터 온톨로지를 자동으로 설계해주는 도구입니다.
결과는 구체적으로 이렇게 달랐습니다.
기존 방식이라면 분석팀이 수십 개 테이블을 일일이 열어보면서 "자퇴와 상관 있을 것 같은" 변수를 추려내야 했습니다. 전산팀은 요청이 올 때마다 데이터 접근 권한을 열어주고, 테이블 명세를 설명하고, 조인 관계를 안내하는 작업을 반복해야 했습니다. 이 과정이 3개월은 족히 걸립니다.
AI Blueprint를 쓰면, 과제 목표를 입력하는 것만으로 "자퇴 예측에 필요한 핵심 변수는 무엇이고, 그 변수들이 어떤 데이터 테이블에서 나와야 하며, 테이블 간 관계는 어떻게 맺어야 하는가"를 다이어그램 형태로 70% 수준까지 자동 설계해줍니다. 전산팀과의 첫 데이터 설계 미팅에 이 다이어그램을 가져가는 순간, 대화의 질이 완전히 달라집니다.
"이 엔터티에서 필요한 컬럼이 맞나요?" "여기 조인 관계가 실제 구조와 동일한가요?"
이렇게 구체적으로 확인하고 수정하는 방식으로 전환되기 때문에, 전산팀 입장에서는 막연하게 "뭘 줘야 하지?"를 고민할 필요가 없어집니다. 도메인 전문 지식은 여전히 사람이 반영하지만, 처음부터 바닥을 긁어가며 설계하는 작업이 사라지는 겁니다.
![]()
두 방식의 흐름 비교
AS-IS — 기존 방식 · 약 3개월 · 약 1억 원
TO-BE — AI Blueprint 적용 · 약 2주 · 약 3천만 원
숫자로 본 결과
| 항목 | 기존 방식 | AI Blueprint 적용 | 절감 |
|---|---|---|---|
| 데이터 설계 기간 | 3개월 | 2주 | 약 83% 단축 |
| 데이터 컨설팅 비용 | ~1억 원 | ~3천만 원 | 약 70% 절감 |
| 전체 프로젝트 중 데이터 작업 비중 | 50% | 10% 미만 | — |
| 데이터 설계 자동화율 | 0% | 70% 수준 | — |
3개월짜리 작업이 2주로 줄어든다는 건 단순히 시간이 빨라지는 게 아닙니다. 프로젝트의 모멘텀이 살아 있다는 의미입니다. 의사결정자가 기다리다 지쳐서 프로젝트를 축소하거나 포기하는 일이 없어지는 거죠. 비용 측면에서도 데이터 컨설팅 비용 약 7천만 원이 절감됐고, 그 예산을 실제 AI 모델 고도화에 쓸 수 있었습니다.
데이터 설계 이후 — 전문 지식과의 결합
AI Blueprint가 만들어준 설계는 완성품이 아닙니다. 70%짜리 초안입니다. 나머지 30%는 도메인 전문가, 전산팀, AI 분석팀이 함께 검토하며 채워야 합니다. 예를 들어 연*대 프로젝트에서는 "수강 취소 이력"이라는 변수가 자퇴 예측에 유효한지 여부는 결국 학생 상담 데이터를 수년간 봐온 학생처 담당자가 판단해야 했습니다. AI는 그 판단을 대신할 수 없습니다.
하지만 중요한 건 그 30%에 집중할 수 있게 됐다는 점입니다. 전문 지식이 필요한 곳에 전문 인력의 시간이 쓰이도록 구조가 바뀐 것입니다.
마무리하며
데이터 설계가 프로젝트를 잡아먹는 건 비단 이 대학만의 이야기가 아닙니다. 우리가 지금까지 만난 대부분의 엔터프라이즈 고객, 특히 ERP나 내부 시스템을 다수의 외주 업체를 통해 구축한 조직에서는 예외 없이 이 문제를 겪습니다. 시스템은 있지만 데이터 전체를 꿰뚫고 있는 사람이 없는 상태. 그게 현실입니다.
AI Blueprint는 이 문제를 완전히 없애주지는 않습니다. 하지만 프로젝트가 미궁에 빠지기 전에 탈출구를 만들어줍니다. 데이터 설계 작업을 70%까지 자동화하고, 남은 전문적인 판단에만 인력이 집중할 수 있도록요.
저는 앞으로도 이런 사례를 계속 공유할 생각입니다. AI 기술 그 자체보다, 실제 프로젝트에서 어떤 문제가 생기고 어떻게 극복했는지가 훨씬 더 실질적인 도움이 된다고 믿기 때문입니다.
AI Blueprint 도입 문의 및 데모 신청: algorithmlabs.ai
The Moment a Project Starts Spiraling
After years of running AI projects, you learn to sense when things are about to go sideways. It usually starts with a quiet moment in a meeting, when someone from the IT team says: "Can we just pull all the tables and go through them together?"
That moment arrived early in our project with a major Korean university. The mission was clear: build an AI system to predict student dropout risk and recommend optimal majors based on student data. The goal was well-defined. What came next was not.
"Which Tables Do We Even Need?"
The first meeting with the university's IT team confirmed my suspicion — this wasn't going to be straightforward. The university's ERP had been built over the years by multiple outsourcing vendors. Enrollment records, grades, attendance, scholarships, counseling history, and student profiles all lived in different systems, structured differently, with different ownership.
When our AI team started digging into "which variables might predict dropout," they began opening tables one by one. This is where it gets dangerous.
Once an analysis team starts manually exploring a database at the table level, the scope explodes. "This column might be useful." "Can we join this table with that one?" The IT team gets pulled into an endless loop of answering questions, granting access, and explaining schemas.
That pattern has a predictable outcome: data consulting fees approaching ₩100 million, and half the project timeline consumed before a single model is built. Both the client and our team enter a grueling journey — not because the AI work is hard, but because the data work has no clear end.
AI Blueprint Breaks the Deadlock
This is where we introduced AI Blueprint. By inputting the project goals — dropout prediction and major recommendation — AI Blueprint automatically generated a data ontology design: which entities are needed, which tables they map to, and how those tables should relate to each other.
Here's the concrete difference it made:
Without AI Blueprint, our team would manually search through dozens of tables, trying to identify variables likely correlated with dropout. The IT team would respond to every request — granting access, explaining table structures, clarifying joins. That process alone takes three months.
With AI Blueprint, inputting the project objective produced a structured diagram covering ~70% of the required data design: relevant entities, key variables, and relationship mappings. When we walked into the first data design meeting with that diagram, the entire conversation shifted.
Instead of "What data do you need from us?", the discussion became:
- "Is this the right column for this entity?"
- "Does this join relationship match your actual schema?"
Precise, targeted questions. The IT team no longer had to guess what we needed — they were reviewing and refining a concrete proposal. Domain expertise still mattered for the remaining 30%, but the open-ended exploration was gone.
![]()
Comparing the Two Approaches
AS-IS — Without AI Blueprint · ~3 months · ~₩100M
TO-BE — With AI Blueprint · ~2 weeks · ~₩30M
Results by the Numbers
| Metric | Previous Approach | With AI Blueprint | Reduction |
|---|---|---|---|
| Data design timeline | 3 months | 2 weeks | ~83% faster |
| Data consulting cost | ~₩100M | ~₩30M | ~70% reduction |
| Project time spent on data work | 50% | Under 10% | — |
| Data design automation rate | 0% | ~70% | — |
Cutting three months to two weeks isn't just about speed. It's about keeping project momentum alive. Stakeholders don't lose patience. Scope doesn't get cut. And ₩70M in savings went directly into model development and refinement — where it actually matters.
What AI Blueprint Doesn't Do
The output from AI Blueprint is a 70% draft — not a finished design. The remaining 30% requires domain experts, IT staff, and AI analysts working together. In this project, whether "course withdrawal history" was a meaningful predictor of dropout was a judgment call that required input from a student affairs counselor with years of experience. No model replaces that.
But the key shift is that expert time was now spent on the decisions that needed expertise — not on reconstructing data architecture from scratch.
What This Tells Us About Enterprise AI Projects
This university's experience isn't unique. Almost every enterprise we work with — especially those whose internal systems were built by multiple vendors over time — faces the same problem: the data exists, but no single person fully understands its structure. That's the reality of most large organizations today.
AI Blueprint doesn't eliminate this problem. But it prevents projects from drowning in it. By automating 70% of the data design work, it gives teams a concrete starting point and frees expert capacity for the work that genuinely requires human judgment.
I'll keep sharing cases like this. Not because the AI technology is the interesting part, but because the real story is in what breaks on the ground — and how we got through it.
For AI Blueprint demos and inquiries: algorithmlabs.ai
AI Canvas
업무 영상 하나면, AI가 자동화합니다
470+ 기업이 선택한 GS 인증 1등급 엔터프라이즈 AI 플랫폼. 무료 데모를 통해 귀사에 맞는 자동화 시나리오를 확인하세요.
무료 데모 신청하기