Lee Chaeyeon·이채연
AI / NLP Engineer

Building LLM systems
that actually work.

I build retrieval and generation systems designed to work reliably in production — from RAG pipelines and model compression to domain-specific Korean NLP.

View Projects →View Resume →
이채연

Impact

주요 성과

0%

모델 경량화

경량화 76% 달성으로 모바일 온디바이스 추론 가능 수준 확보

LoRA + 4-bit NF4 + Token Pruning · 14GB → 3.0GB

0.0000

BERTScore F1

난독화 한글 복원 AI에서 BERTScore 0.9812 달성

KoELECTRA 분류 → 분기형 KoBART 복원 아키텍처

0.00

RAG 성능 향상

하이브리드 RAG 파이프라인 개선으로 BERTScore +0.16↑, Accuracy +0.04↑

BM25 + FAISS 하이브리드 검색 + bge-reranker 도입

Capabilities

기술 스택

LLM / RAG
LangChainFAISS(IVF)BM25Hybrid Searchbge-reranker-v2-m3온프레미스 LLMCPTSFTGDPOMulti-Reward RL
NLP / LLM
PythonHuggingFaceKoBARTKoELECTRALoRAT5QuantizationNougat/MarkerarXiv/PubMed 파이프라인
CV / ML
PyTorchXGBoostScikit-learnOpenCVCycleGANSHAPKMeansSMOTE
Backend
FastAPIPostgreSQLDockerRedisFlaskSQLiteUiPath RPA
Frontend
Next.jsTypeScriptTailwind CSSReact NativeD3.js
자격증 · 어학
빅데이터분석기사 (2025.12)ADsP (2026.03)OPIc IH (2025.08)

Projects

프로젝트

Selected work in LLM, NLP, and applied AI

GitHub
AUTOMATION FLOW · AiRPAAutomate이질적 소스 → UiPath 자동 수집 → T5 요약 → 학과 맞춤 추천 리포트교육부 포털대학알리미졸업생 블로그UiPath RPAlogin · parse · crawlHuggingFace T5abstractive summ.안정형성장형+3 유형자동화율95%+처리 시간8h→3h수집량/회200건★ 한국지능정보사회진흥원 특별상 · UiPath · HuggingFace T5 · TF-IDF
01한국지능정보사회진흥원 해커톤 특별상

AiRPA — 학생 진로 탐색 자동화 시스템

한국지능정보사회진흥원 해커톤

95%+
자동화율
8h→3h
처리 시간
200건
수집량/회
UiPath RPAPythonHuggingFace T5TF-IDFExcel 자동화

진로 상담 교사가 학생 한 명을 위해 교육부 포털·대학알리미·졸업생 블로그를 수동 탐색·요약하는 데 인당 30분 이상을 소비한다는 현장 관찰에서 시작했습니다. 문제의 본질은 소스마다 로그인 방식·동적 로딩 구조·데이터 포맷이 달라 단일 스크래퍼로 통합 불가하다는 이질성이었습니다. RPA로 소스 이질성을 흡수하고, T5 모델로 수집된 비정형 텍스트를 일관된 요약으로 압축한 뒤, 학생 가치관 설문 기반 5개 시나리오로 개인화 추천까지 연결했습니다.

  • UiPath RPA로 로그인·동적 로딩 포함 3개 이질적 소스에서 학과 정보·졸업생 후기 평균 200건 자동 수집
  • TF-IDF 대비 문장 자연도 23% 향상, 학과 100개 처리 시간 8h→3h — T5의 추상 요약이 핵심 차이
  • 설문 기반 '안정성 중시형·성장 지향형' 등 5가지 시나리오로 개인화 추천, 전체 자동화율 95%+
HIGH-TRUST RAG · MEDICAL BOTPrecisionBM25 + FAISS → bge-reranker → EXAONE · 5.5만건 코퍼스Query Inputmedical questionHybrid RetrievalBM25(k=20) · FAISS(k=20)Rerank Layer40 candidates → Top-5ResponseEXAONE 3.5-7.8BAccuracy+0.04↑BERTScore+0.16↑코퍼스5.5만건BM25 · FAISS · bge-reranker-v2-m3 · EXAONE
02

이지스-바이오 센티넬스 — 의료자문봇

멋쟁이사자처럼 AI 자연어처리 집중과정 · 팀 프로젝트

+0.04
Accuracy
+0.16
BERTScore
5.5만건
코퍼스
EXAONE-3.5BM25FAISSRAGbge-reranker-v2-m3+2

Naive RAG의 구조적 한계—단일 벡터 검색은 전문 의학 용어의 Recall 상한이 낮고, 검색된 문서 전부를 컨텍스트에 넣으면 LLM이 노이즈에 흔들린다—를 2단계 아키텍처로 정밀 해소했습니다. BM25가 용어 매칭 정확도를, FAISS가 의미적 유사성을 보완하고, bge-reranker가 최종 후보를 질문-문서 정합성 기준으로 Top-5로 압축해 LLM이 받는 컨텍스트 품질을 최대화했습니다. 5.5만 건 전문 의학 JSON(약 2.2억 토큰)을 처리한 코퍼스 기반 시스템입니다.

  • 하이브리드 검색 설계: BM25(k=20, 용어 매칭) + FAISS(k=20, 의미 검색) 병렬 수행으로 Recall 상한 제거
  • BAAI/bge-reranker-v2-m3 재순위: 40개 후보→Top-5 압축으로 LLM 컨텍스트 노이즈 최소화
  • ReRanker 전후 비교: 객관식 정확도 +0.04, 서술형 BERTScore +0.16 — 단일 벡터 RAG 대비 명확한 개선
NLP · BRANCH CLASSIFIERRestorationJAMO 전처리 → KoELECTRA 분류 → 분기형 KoBART 복원Noisynoise textJAMO전처리ClassifierKoELECTRAKoBART-A야민정음 복원KoBART-B음운오류 복원BERTScore0.9812CER0.0426향상폭+5.6%pKoBART · KoELECTRA · JAMO 분해 · PyTorch
03

난독화된 한글 리뷰 복원 AI

2026.01 · AI 자연어처리 집중 과정 3기

0.9812
BERTScore F1
0.0426
CER
+5.6%p
개선폭
KoBARTKoELECTRAJAMONoise ClassifierPyTorch+1

야민정음(시각 유사도 기반 변형: '머 → 뫄')과 음운 오류(발음 유사 변형: '됩니다 → 됩니당')는 복원 방향이 근본적으로 다릅니다. 전자는 자모 그래픽 매핑 규칙이, 후자는 음성 전사 역변환이 필요합니다. 단일 모델은 두 방향 사이에서 최적점을 찾지 못해 출력이 불안정해집니다. 문제를 '모델 성능 부족'이 아닌 '태스크 정의 오류'로 재진단하고, 유형 분류 → 전용 복원 분기로 구조 자체를 바꿨습니다.

  • KoELECTRA Noise Classifier로 입력 유형 판별 후 야민정음·음운오류 전용 KoBART 모델로 분기 처리
  • 핵심 선행 과제: BPE 토크나이저가 야민정음 자모를 분해 실패 → JAMO(초·중·종성) 전처리로 토큰 손상 원천 차단
  • BERTScore 0.9812 · CER 0.0426 달성 — 분기 설계 도입 전 베이스라인 대비 +5.6%p
ON-DEVICE LLM · MODEL COMPRESSIONCompressionLoRA · 4-bit NF4 · Token Pruning → 온디바이스 실시간 추론Before14 GBLoRA fine-tuning · 4-bit NF4 quantization · Multilingual token pruning ~10%After3.0 GB ↓76%응답 지연0.47sCPU 추론0.3s모바일 일관성92%+★ 포스코 인재창조원 장려상 · Qwen2.5 · LoRA · FAISS · FastAPI
04포스코 인재창조원 장려상 · 팀 리더

KillKong — 콩글리쉬 교정 AI Agent

2025.07–08 · 포스코 AI·BigData 아카데미 30기

76%
모델 경량화
0.47s
응답 지연
92%+
모바일 일관성
Qwen2.5LoRA4-bit 양자화FAISSBM25+4

'블랙 컨슈머', 'after 신청'처럼 한국인 특화 콩글리쉬는 GPT 학습 분포에서 극히 희소해 교정 품질이 불안정합니다. 온디바이스 목표를 설정하자 두 번째 제약이 즉시 발생했습니다: 14GB 모델을 스마트폰 CPU에서 실시간 추론해야 한다는 것. 모델 압축과 지식 분리를 동시에 설계해 해결했습니다—LLM은 문법·문맥 판단만, 콩글리쉬 용례 검색은 전용 벡터 DB가 담당하는 역할 분업입니다.

  • 모델 압축: LoRA + 4-bit NF4 양자화 + 멀티링구얼 토큰 Pruning(~10%) 조합으로 14GB→3.0GB(76%), CPU 추론 0.3s
  • 지식 분리: FAISS(IVF) + SQLite LRU 캐시 하이브리드로 630개 콩글리쉬 패턴 DB를 0.02초 내 검색하는 개인화 메모리
  • 응답 지연 2.3s→0.47s(5배 단축), 모바일 일관성 92%+ — 모델과 DB의 역할 분업이 만든 속도·정확도 동시 달성
FINTECH · GENERATIVE REPORTAnalysisDART ETL → XGBoost 분류 → GPT-4 서사 해설 · 환각 80%↓DART API500사 ETLXGBoost신용등급 91%KMeans군집화GPT-4서사 해설군집 패턴·리스크 태그 → GPT-4 컨텍스트 주입 → LLM 수치 계산 원천 차단 · 환각 80%↓분류 정확도91%처리 속도10x만족도4.4/5GPT-4 · XGBoost · KMeans · SHAP · DART API · D3.js
05

FinView — 생성형 AI 재무보고서 시스템

2024.09–11 · 성신여자대학교 · 팀장

91%
신용등급 분류
10배
생성 속도
4.4/5
만족도
GPT-4XGBoostKMeansSHAPSMOTE+3

LLM에게 '삼성전자의 부채비율이 높은가?'를 직접 물으면 환각이 발생합니다. 수치 계산 책임을 LLM에 주는 것 자체가 설계 오류입니다. 역할을 명확히 분리했습니다: XGBoost가 500개 상장사 재무지표를 A~D 등급으로 분류하고, KMeans가 유사 기업을 군집화합니다. GPT-4는 이미 통계 모델이 계산·태깅한 결과를 받아 서사적 해설만 생성합니다. 수치 연산을 LLM 바깥으로 완전히 빼낸 아키텍처입니다.

  • ETL 파이프라인: DART API(500개 상장사 재무제표) + 네이버 뉴스 200건 자동 수집 → XGBoost 신용 등급 분류(91%) + KMeans 군집화
  • 환각 차단 설계: 군집 평균 패턴·리스크 태깅을 GPT-4 컨텍스트에 주입, LLM은 해설 전담 → 환각 80% 개선
  • 리포트 생성 5분→30초(10배), 사용자 문장 이해도 만족도 4.4/5.0 — 수치와 언어의 역할 분리가 핵심
CROWD SAFETY · DENSITY ROUTINGDispersionFP-Growth 패턴 → 가중치 추천 엔진 → SQLite 오프라인 캐시홍대이태원강남여의도추천 가중치혼잡도40%거리30%유사도20%시간대10%밀집도 예측84%혼잡 회피율87%이동 로그10만건★ 성신여대 IT경진대회 장려상 · FP-Growth · SQLite · 위치 API
06성신여자대학교 IT경진대회 장려상

눈치게임 — 위치 기반 인파 분산 서비스

성신여자대학교 IT경진대회

84%
밀집도 예측
87%
혼잡 회피율
10만건
이동 로그
FP-GrowthSQLitePython위치 API히트맵+1

압사 사고의 공통 선행 조건은 '군중이 대안을 인지하지 못한 채 단일 지점에 집중된다'는 것입니다. 경고만으로는 부족하고, 사람들이 실제로 이동할 구체적인 대안 장소를 즉시 제시해야 합니다. FP-Growth로 10만 건 이동 로그에서 잠재 이동 패턴을 추출하고, 혼잡도·거리·장소 유사도·시간대 4개 가중치로 개인화 추천을 설계했습니다. 재난 상황의 네트워크 불안정을 고려해 오프라인 SQLite 캐시 아키텍처를 반드시 포함시켰습니다.

  • FP-Growth로 10만 건 이동 로그 패턴 분석 → '홍대 방문객 70%는 이태원으로 이동' 등 잠재 이동 연관 규칙 추출
  • 추천 점수 엔진: 혼잡도(40%)·거리(30%)·장소 유사도(20%)·시간대(10%) 정규화 가중치 설계
  • 오프라인 내성: SQLite 기기 내 캐시로 히트맵·추천 오프라인 동작 보장 — 실시간 밀집도 예측 84%, 혼잡 회피율 87%
COMMERCE AI · SCENARIO SIMULATIONSimulation160 페르소나 · 2-Stage GPT · Before / After 11지표 검증매장 조건160 페르소나분석가 GPTTemp 0.1전략가 GPTTemp 0.7Before / After 11지표매출 변화방문 빈도객단가재방문율경쟁 지수사용 의향80%검증 지표11개AI 페르소나160명★ AI NLP 집중과정 3기 장려상 · GPT-4.1 · Gemma-2-9b · Flask
07

lovelop — 상권 분석 AI 시뮬레이션 SaaS

2026.02 · AI 자연어처리 집중 과정 3기

160명
AI 페르소나
80%
사용 의향
11개
검증 지표
GPT-4.1LLM AgentGemma-2-9bEXAONEPython+2

자영업자 15명 현장 인터뷰에서 반복적으로 나온 말은 '예측 정확도보다 내 매장 조건이 바뀌면 어떻게 되는지 미리 보고 싶다'였습니다. 예측 모델이 아닌 시뮬레이션 엔진이 필요했습니다. GPT-4.1을 단일 호출하면 창의성과 신뢰성을 동시에 얻을 수 없어 Temperature를 분리한 2-Stage 구조를 설계했고, 다양한 실제 고객 유형을 재현하기 위해 160개 AI 페르소나가 5단계 Agent 의사결정으로 시나리오를 독립 검증하는 구조를 구축했습니다.

  • 2-Stage GPT: Temp 0.1 '분석가' 모듈(신뢰성)→ Temp 0.7 '전략가' 모듈(창의성) 순차 처리로 신뢰+창의 동시 확보
  • 160 페르소나 시뮬레이션: 방문 목적 4유형 × 세대 5종 × 성별·인원 구성으로 실제 고객 분포 재현, Agent 5단계 의사결정
  • Before/After 11지표 검증 리포트 — '조건 변경 시나리오'를 정량화, 자영업자 사용 의향 80%

Research & Exploration

논문 탐구 및 실험 프로젝트

MEDICAL CV · UNPAIRED DOMAIN TRANSFERCT → MRICycleGAN · ResNet-9 · VGG Loss · Unpaired · PyTorchCTInputCycleGANG: X→Y F: Y→XMRIOutputSSIM0.88의료진 평가80%+학습 데이터800장
08

CycleGAN 기반 CT→MRI 교차-모달리티 변환

2023.06–09 · 딥러닝연구개발소 (한성대학교 단기근무 연구원)

0.88
SSIM
+6.2%p
SSIM 개선
80%
의료진 평가
CycleGANResNet-9PatchGANVGG Perceptual LossSpectral Norm+2

CT·MRI 도메인 간 Cycle-Consistency Loss 기반 비지도 교차-모달리티 변환 연구입니다. 임상 환경의 핵심 제약—1:1 Paired 데이터 획득 불가—을 Unpaired Image-to-Image Translation으로 극복하고, Generator·Discriminator 학습 불균형이라는 GAN 고유 불안정성을 실험적으로 탐색·해소했습니다.

  • Loss 조합 실험: ResNet-9 + VGG Perceptual Loss + Identity Loss로 저주파 구조(뼈·장기 경계) 보존, Spectral Norm으로 학습 안정성 확보
  • GAN 학습 불균형 해소: G·D 학습률 분리(2e-4/1e-4) + 업데이트 비율 G:D=2:1 설계로 모드 콜랩스 없이 수렴
  • 정량 평가: SSIM 0.82→0.88(+6.2%p), 해부학적 구조 유실률 30% 감소 · 의료진 맹검 평가 80% '진단 보조 가치 있음'
SCIENTIFIC LLM · CPT + GDPO ALIGNMENTAlignmentarXiv · PubMed → Nougat → Nemotron CPT → GDPODataarXiv · PubMedCPTNemotronGDPO×3 RewardsBase ModelNemotronRewards×3MethodGDPO
09

LLM for Science — 과학 도메인 특화 CPT·GDPO 연구

Pseudo Lab · 오픈 리서치 커뮤니티 · 진행 중

3단계
연구 구조
CPT
Phase 2
GDPO
Phase 3
NemotronCPTSFTGDPOarXiv/PubMed+4

과학 도메인 LLM 구축에는 세 개의 독립적인 병목이 있습니다: ① 일반 텍스트 파서가 수식·표를 손실시키는 파싱 문제, ② 도메인 특화 학습이 일반 언어 능력을 훼손하는 Catastrophic Forgetting, ③ 사실 정확도·형식 준수·응답 간결성 세 지표가 동일 보상 스칼라에서 상충하는 보상 붕괴. 이 세 병목을 하나의 파이프라인이 아닌 각기 다른 기술로 타겟팅하는 3단계 연구에 참여 중입니다.

  • Phase 1 — Nougat/Marker(VLM 파서)로 arXiv·PubMed·OpenStax 수식(LaTeX)·표(Markdown) 무손실 파싱 파이프라인 이해 및 GPT-4o Teacher 기반 SFT 합성 데이터 생성 구조 분석
  • Phase 2 — Nemotron CPT: 과학 데이터 80~85% / 일반 도메인 15~20% 혼합 전략으로 Catastrophic Forgetting 억제 원리 및 next-token prediction 기반 도메인 지식 주입 실험 참여
  • Phase 3 — GDPO: Rubric(RaR)·Format·Length 세 보상 신호의 그룹 내 독립 정규화로 보상 붕괴 없이 다차원 정렬을 달성하는 메커니즘 분석 및 실험 중

Background

학력 · 경력 · 이력

학력

AI융합학부

성신여자대학교졸업 예정 2026.08
경력 · 활동

CT·MRI 의료영상 AI 연구개발 · 논문 작성

(주)딥러닝연구개발 · 한성대학교 단기근무 연구원2023.06–09

RAG 기반 강의 자동 퀴즈·학습 가이드 생성

멋쟁이사자처럼 로켓단 인턴십 · LangChain · FAISS2026.03–04

정부지원 사업 Pre-TIPS 최종 합격 · 프로젝트 'MOIM' 개발

중소벤처기업부2025.01

Scientific LLM · CPT · SFT · GDPO 리서치

가짜연구소 (Pseudo Lab) 12기 러너 · 오픈 리서치 커뮤니티진행 중
교육이수

청년 AI·BigData 아카데미 30기 수료

포스코 인재창조원2025.06–08

AI NLP 엔지니어 집중과정 3기 수료

멋쟁이사자처럼2025.12–2026.02

스마트공장 제품 품질 상태 분류 AI 모델 개발

LG Aimers 2기 · LG AI Research2023.01–02

Phase 1 수료

LG Aimers 3기 · LG AI Research2023.08

MQL 데이터 기반 B2B 영업 기회 창출 예측 모델 개발

LG Aimers 4기 · LG AI Research2024.01–02

정보보안과정 수료

Microsoft2024.10
수상

Bias-A-Thon Track 2 리더보드 3위

성균관대 지능형멀티미디어연구센터 · 딥페이크연구센터2025.05

AI 프로젝트 대회 장려상

포스코 인재창조원2025.08

AiRPA 해커톤 특별상

한국지능정보사회진흥원2023.11

소프트웨어 경진대회 장려상

성신여자대학교2023.09

학생창업경진대회 A등급

교육부 · 연세대학교2022.08
자격증

빅데이터분석기사

한국데이터산업진흥원2025.12

ADsP — 데이터분석 준전문가

한국데이터산업진흥원2026.03
어학

OPIc IH — Intermediate High

ACTFL2025.08

Contact

채용 기회를
찾고 있습니다.

AI 리서치 및 NLP 엔지니어링 분야에서
새로운 기회에 열려 있습니다.

이름이채연 / Lee Chaeyeon
소속성신여자대학교 AI융합학부
졸업예정2026년 8월
가용즉시 가능

© 2026 이채연

Lee Chaeyeon