본문 바로가기

AI113

[논문 리뷰] SoK: Agentic Retrieval-Augmented Generation (RAG): Taxonomy, Architectures, Evaluation, and Research Directions Agentic RAG 서베이 논문(Singh et al., 2501.09136)을 읽은 후 이 논문을 발견했다. SoK(Systematization of Knowledge) 논문은 단순한 서베이가 아니다. 기존 연구들을 수학적으로 정형화하고 체계적으로 재정립하는 데 초점을 둔다.Singh et al.이 "무엇이 있는가"를 정리했다면, 이 논문은 "왜 그것이 Agentic RAG인가"를 수학적으로 증명하고, 기존 평가 방법의 구조적 한계와 시스템 리스크까지 다룬다.1. 이 논문의 핵심 기여Singh et al.과 가장 큰 차이점부터 짚고 가면:관점Singh et al. (2501.09136)이 논문 (2603.07379)접근 방식아키텍처 분류 중심수학적 정형화 + 분류핵심 기여7가지 아키텍처 Taxonom.. 2026. 4. 24.
[논문 리뷰] Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG 랩 세미나를 준비하다가 RAG 관련 서베이 논문을 읽게 됐다. 단순히 RAG의 최신 트렌드를 정리한 수준이 아니라, Agentic RAG 시스템 전체에 대한 분류 체계(Taxonomy) 를 새로 제안한 논문이라 꽤 인상적이었다.1. 왜 Agentic RAG인가?문제의식 : 3단계 논리① LLM의 근본적 한계GPT, LLaMA 같은 LLM은 정적인 사전 학습 데이터에만 의존하기 때문에:오래된 정보를 사실처럼 답함없는 내용을 지어냄 (Hallucination)현실이 바뀌어도 적응하지 못함② RAG가 해결사로 나왔지만 그것도 한계RAG는 추론 시점에 외부 데이터를 실시간으로 끌어와 LLM에 붙이는 방식이다. 그런데 전통적인 RAG 파이프라인은 정적이고 선형이라서:복잡한 멀티스텝 추론 불가깊은 맥락적 이해 부족.. 2026. 4. 24.
[논문 리뷰] Large Language Models Are Natural Video Popularity Predictors [논문 리뷰] LLM은 자연스러운 비디오 인기 예측기다 — VLM+LLM 기반 멀티모달 접근법1. 문제 정의 — 기존 연구의 한계비디오 인기 예측은 콘텐츠 제작자, 소셜 미디어 플랫폼, 광고주들에게 매우 중요한 과제다. 그러나 기존 연구는 두 가지 근본적인 문제를 안고 있었다. 첫째, post-hoc user engagement data에 대한 과의존이다. 업로더 평판, 조회수·댓글·좋아요 수, 외부 소셜 네트워크 규모 같은 사후적 집계 지표는 초기 사용자 반응을 반영할 뿐, 비디오 콘텐츠 자체의 품질을 포착하지 못한다.둘째, 멀티모달 데이터 처리 능력의 부재다. 텍스트, 음성, 시각적 콘텐츠가 복합적으로 얽혀 있는 비디오 데이터를 기존의 전통적 방법들은 통합적으로 처리하기 어렵다.셋째, 인기도의 1차원.. 2026. 4. 13.
[Edge Computing] Ch.11 Edge-Cloud Collaboration for Industrial IoT - An Online Approach 1. 배경과 문제 의식5G와 Industry 4.0의 확산으로 스마트 제조, 스마트 공장 등 IIoT 기기가 생성하는 데이터가 폭발적으로 증가했다. 전통적인 클라우드 컴퓨팅만으로는 이 방대한 데이터를 효율적으로 처리하기 어렵다. 엣지 서버(ES)를 데이터 소스 근처에 배치하면 클라우드의 부하를 크게 줄이고 통신 오버헤드를 낮출 수 있다.그러나 엣지-클라우드 협업에는 해결되지 않은 근본적인 문제가 있다.첫째, IIoT 기기는 고정밀 제어가 필요하다. 작은 오차가 산업 장비의 오작동으로 이어질 수 있어 데이터 처리 정확도가 매우 중요하다. 둘째, 산업 현장에는 전자기 노이즈 등 다양한 산업 노이즈가 존재하므로 센서 데이터를 바로 분석할 수 없다. ES에서 데이터 전처리(노이즈 제거, 데이터 클리닝)를 수행해.. 2026. 4. 13.
[Edge Computing] Ch.10 EdgeComputing in Digital Epidemiology and Global Health 1. 배경: 엣지 컴퓨팅과 글로벌 헬스의 접점엣지 컴퓨팅(EC)은 데이터를 중앙 클라우드로 보내지 않고 수집 지점 근처에서 즉시 처리하는 패러다임이다. MIT MTL Seminar(2015)는 EC를 "클라우드 외부에서 발생하는, 실시간 데이터 처리가 필요한 모든 컴퓨팅"으로 정의했다. 클라우드가 Big Data를 다룬다면, EC는 센서·사용자가 실시간으로 생성하는 Instant Data를 다룬다.이 관점에서 공중보건과 EC의 결합은 자연스럽다. 스마트워치·스마트링 같은 웨어러블 기기가 24시간 생체 데이터를 수집하고, 스마트폰 앱에서 로컬 분석을 수행하는 구조 자체가 EC 아키텍처다. 클라우드 연결 없이도 작동하므로 통신 인프라가 취약한 지역에서도 활용 가능하다.2. AI와 정보과학 : 역사적 맥락과 .. 2026. 4. 12.
[논문 리뷰] TurboQuant: Online Vector Quantization withNear-optimal Distortion Rate TurboQuant : 근-최적 왜곡률을 달성하는 온라인 벡터 양자랩실 세미나에서 한 분이 발표하셨는데, 최근 매우 핫한 주제여서 관심이 생겨 더 찾아보았다.1. Introduction: 벡터 양자화란 무엇인가Vector Quantization(VQ)은 고차원 벡터를 낮은 비트폭의 정수로 압축하면서, 그 과정에서 발생하는 왜곡(distortion)을 최소화하는 문제다. 즉, floating point number → lower bitwidth integer 변환이 핵심이다.VQ의 이론적 뿌리는 Shannon의 소스 코딩 이론까지 거슬러 올라간다. 핵심 개념인 Shannon distortion-rate function R(D)는 다음을 묻는다:주어진 비트 수(R) 안에서, 원본과 압축본 사이의 오차(D)를.. 2026. 4. 12.
[논문 리뷰] Edge-AI Battery Prognostics System for EV Batteries Using TinyML Implementation 전기차(EV) 배터리의 건강 상태와 충전 상태를 클라우드 없이 마이크로컨트롤러에서 직접 예측하는 Edge-AI 시스템 논문 리뷰를 시작하겠다.TinyML을 통해 복잡한 ML 모델을 초소형 임베디드 기기에서 실행하는 것이 핵심이다. 전기차가 오프라인 상태이거나 네트워크 지연이 발생해도 배터리 상태를 실시간으로 예측할 수 있게 된다는 점이 매력적인 연구다.Motivation : 왜 배터리 예측이 중요한가?전기차 보급이 확산되면서 배터리 관리 시스템(BMS, Battery Management System)의 중요성이 커지고 있다.배터리 상태를 정확히 알아야 하는 이유는 두 가지다.SOC (State of Charge) : 현재 충전 상태 배터리의 잔여 용량을 0~100%로 나타낸 값이다. 스마트폰 배터리 잔량.. 2026. 3. 25.
[논문 리뷰] Large Language Models Are Natural Video Popularity Predictors LLM이 YouTube 영상의 인기도를 예측할 수 있다는 아이디어를 다룬 논문 리뷰를 시작하겠다.이 논문은 기존 연구들이 조회수, 좋아요 수 같은 사후적(post-hoc) 메타데이터에 의존하던 영상 인기 예측을 영상 콘텐츠 자체의 내재적 품질에 집중하는 방식으로 전환한다는 아이디어를 제안한다.Motivation : 왜 기존 방법이 부족한가?영상 인기 예측은 콘텐츠 제작자, 소셜 미디어 플랫폼, 광고주들에게 매우 중요한 과제다.기존 연구들은 주로 다음과 같은 특성에 의존했다.uploader reputation, view/comment/like counts, external social network size...이런 지표들은 영상이 올라간 이후 발생하는 초기 사용자 반응을 반영하기 때문에, 영상 콘텐츠 자.. 2026. 3. 25.
[논문 리뷰] Compressing Context to Enhance Inference Efficiency of Large Language Models LLM의 추론 효율을 높이기 위한 Context 압축 기법, Selective Context에 대한 논문 리뷰를 시작하겠다.이 논문은 LLM이 긴 Context를 처리할 때 발생하는 메모리·속도 문제를 해결하기 위해, 입력 Context에서 중복된(redundant) 내용을 자동으로 제거하는 방법을 제안한다.Motivation (왜 이 연구가 필요한가?)요즘 LLM을 활용할 때 RAG(Retrieval-Augmented Generation) 를 많이 사용한다.RAG : 모델이 학습하지 않은 정보를 Context로 주어 Hallucination(환각)을 줄이는 방식그런데 만약 이 Context가 점점 길어진다면 어떻게 될까?문제 1 : 메모리와 속도 Transformer 기반 LLM은 Self-Attent.. 2026. 3. 25.
[세미나 발표] Edge Computing Ch.9 Technology, Management and Integration [Edge Computing] Ch.9 엣지 컴퓨팅을 위한 연합학습 하이퍼파라미터 튜닝 — FedTuneEdge Computing: Technology, Management and Integration Chapter 9 발표 내용을 정리한 글이다. 이번 챕터는 Federated Learning(FL, 연합학습)을 엣지 환경에서 운용할 때 직면하는 이질성 문제와, 이를 하이퍼파라미터 자동 튜닝으로 해결하는 FedTune 기법을 다룬다.1. Federated Learning이란?연합학습(FL)은 원시 데이터를 중앙 서버로 보내지 않고, 각 기기(Edge Device)에서 로컬로 모델을 학습한 뒤 그 파라미터(가중치)만 서버로 전송하여 글로벌 모델을 만드는 분산 학습 방식이다.[Edge Device 1] → .. 2026. 3. 24.