Summary
Moonlight는 연구 논문을 읽는 과정에서 AI가 실시간으로 설명·번역·요약·참조 탐색을 도와주는 크롬 확장 프로그램이다. 회사에서 Pro 플랜을 지원받았기에, 무제한 문서 접근과 GPT-5 mini 모델을 활용해 논문 읽기 워크플로우를 어떻게 세팅했는지 정리해봤다.
들어가며
솔직히 말하면 나는 논문을 잘 읽지 못한다.
석사 과정을 밟은 것도 아니고, 학부 때도 논문을 체계적으로 읽어본 경험이 많지 않다. 그래서 업무에서 최신 AI 기술 트렌드를 따라잡으려 할 때 arxiv 논문 하나를 펼쳐놓고 멍하니 바라보는 일이 종종 있었다.
그러다 회사에서 Moonlight Pro 플랜을 지원해줬고, 꽤 쓸만한 방식을 찾아냈다. 이 글은 그 경험을 정리한 것이다.
Moonlight이란?
Moonlight는 “AI Colleague for Research Papers” 라는 슬로건을 가진 크롬/엣지 브라우저 확장 프로그램이다. 논문 PDF를 열면 사이드바에서 AI가 자동으로 붙어서 다음 기능들을 제공한다:
- 요약: 3줄 요약 + 반 페이지 분량의 방법론 요약
- 설명: 선택한 문장, 수식, 표를 즉시 설명
- 번역: 문장/페이지 단위 번역 (원문·번역 나란히 표시)
- AI 채팅: 논문 내용에 대해 자유롭게 질문
- 스마트 인용: 참고문헌을 스크롤 없이 바로 미리보기
- 자동 하이라이트: 핵심 기여·방법론·결과를 AI가 자동 강조
- 어노테이션: 형광펜 + 메모, 사이드바에 자동 정리
기본적으로 크롬 확장 형태라 별도 앱 없이 브라우저에서 바로 쓸 수 있다는 게 큰 장점이다. arXiv, Semantic Scholar, PubMed 등 웹에서 열리는 논문 PDF라면 어디서든 작동한다.
플랜 비교
| 구분 | Free | Pro | Premium |
|---|---|---|---|
| 주간 문서 수 | 3개/주 | 무제한 | 무제한 |
| AI 모델 | 기본 | 아래 참고 | 아래 참고 |
| 가격 | 무료 | 유료 | 유료 |
실제 UI에서 선택 가능한 모델 목록은 다음과 같다:
- Gemini 2.5 Flash Lite
- Gemini 2.5 Flash
- Gemini 3 Flash
- GPT-5 nano
- GPT-5 mini
공식 changelog에는 GPT-5 계열만 명시되어 있는데, 실제로는 Gemini 계열도 포함되어 있다. 플랜별로 사용 가능한 모델이 다를 수 있으니 가입 후 직접 확인하는 게 정확하다.
하루에 논문을 여러 편 훑어봐야 하는 상황이라면 Free의 주 3회 제한은 금방 차기 때문에 Pro가 실질적으로 필요하다.
설치 및 초기 설정
1. 확장 프로그램 설치
- Chrome Web Store 또는 Microsoft Edge Addons 에서 설치
2. 로컬 PDF 파일 허용 (선택사항)
로컬에 저장된 PDF도 Moonlight로 열고 싶다면:
- 브라우저 주소창에
chrome://extensions입력 - Moonlight 찾아서 “파일 URL에 대한 액세스 허용” 활성화
3. 계정 연결 및 Pro 플랜 설정
회사에서 Pro 코드나 팀 플랜 링크를 받았다면 해당 방법으로 연결하면 된다. 새 계정 가입 시에는 1주일 무료 Pro 체험이 자동으로 적용된다.
기본 사용법
논문 열기
arXiv 등에서 논문 PDF 링크를 클릭하면 브라우저 오른쪽에 Moonlight 사이드바가 자동으로 열린다. 만약 자동으로 열리지 않는다면 툴바의 Moonlight 아이콘을 클릭한다.
자동 하이라이트 확인하기
논문을 열면 AI가 자동으로 핵심 부분을 분석해서 하이라이트 처리해준다. 색상별로 의미가 다르다:
- 노벨티(기여점): 이 논문이 기존 연구와 다른 점
- 방법론: 어떤 방식으로 문제를 풀었는지
- 핵심 결과: 실험 결과 및 수치
논문을 처음 보는 상황에서 자동 하이라이트만 훑어도 논문의 80%를 파악할 수 있다.
3줄 요약 보기
사이드바 상단에서 Summary 탭을 누르면:
- 3-line summary: 논문 핵심을 3문장으로
- Method summary: 방법론을 반 페이지 분량으로 상세 설명
논문을 읽을지 말지 결정하는 스크리닝 단계에서 매우 유용하다.
모르는 문장/수식 즉시 설명 받기
이해가 안 되는 부분을 드래그로 선택하면 팝업이 뜨고, “Explain” 버튼을 누르면 AI가 해당 내용을 쉽게 설명해준다. 수식은 LaTeX 복사도 지원한다.
예시 질문 결과:
- 복잡한 어텐션 메커니즘 수식 → "이건 쿼리와 키의 내적을 스케일링한 후 소프트맥스를 취하는 구조입니다..."
- 통계 용어 → "p-value < 0.05는 결과가 우연이 아닐 가능성이 95% 이상임을 의미합니다..."
참고문헌 스마트 인용
본문 중간에 등장하는 [12] 같은 인용 번호에 마우스를 올리면, 스크롤 없이도 해당 논문의 제목·저자·요약이 바로 팝업으로 표시된다. 관련 논문을 탐색할 때 흐름이 끊기지 않는다.
번역
한국어로 읽고 싶은 부분을 선택하고 Translate를 누르면 원문과 번역문을 나란히 볼 수 있다. 페이지 전체 번역도 가능하다. 학술 용어는 맥락에 맞는 번역어를 선택해주는 것이 특징이다.
고급 활용법 (Pro 플랜 최대 활용)
1. AI 채팅으로 논문 토론하기
단순 번역이나 설명을 넘어, 사이드바 채팅에서 논문 전체를 컨텍스트로 삼아 자유롭게 대화할 수 있다. 논문을 다 읽지 않아도 AI에게 먼저 물어보고 파악하는 방식이 효율적이다.
실전 질문 예시:
"이 논문의 핵심 contribution이 뭐야?"
"기존 방법들과 비교해서 어떤 점이 다른 거야?"
"이 방법의 한계나 약점은 뭐야?"
"실험 세팅에서 특이한 점이 있어?"
"이게 실무에 어떻게 적용될 수 있어?"
"이 논문이 전제로 깔고 있는 배경 지식이 뭐가 있어?"
특히 마지막 질문(“배경 지식이 뭐가 있어?“)은 논문을 읽기 전에 물어보면 예비 학습 목록을 만들 수 있어 유용하다.
2. Discussion 기능 활용 (v1.5.0+)
Discussion 탭은 단순 Q&A를 넘어 논문 내용에 대한 심층 토론을 할 수 있는 공간이다.
활용 방법:
- “이 논문 방법론의 가정이 실제로 타당한가?” 같은 비판적 질문 던지기
- 내가 이해한 내용을 정리해서 쓰고 AI에게 틀린 부분 검토 요청
- 논문의 실험 결과 해석에 대한 대안적 시각 탐색
3. Scholar Deep Search로 관련 논문 탐색 (v1.3.0+)
Scholar Deep Search 기능은 내 라이브러리 폴더를 기반으로 연관 논문을 추천해준다.
워크플로우:
- 읽은 논문을 주제별로 라이브러리 폴더에 정리
- Scholar Deep Search 실행 → 폴더 선택
- 유사 논문 추천 목록 확인
특정 주제를 깊이 파고들 때 관련 논문 맵을 만들기 좋다.
4. Citation 탭으로 논문 계보 파악 (v1.6.0+)
Citation 탭에서는 해당 논문이:
- 어떤 논문을 인용했는지 (cited papers)
- 어떤 논문에 의해 인용됐는지 (citing papers)
를 한눈에 볼 수 있다. 내 라이브러리에 이미 있는 논문과 연결도 표시된다.
이 기능은 논문의 지적 계보를 추적하거나 특정 아이디어가 어떻게 발전해왔는지 파악하는 데 유용하다.
5. 어노테이션 + 사이드바 정리 시스템
Moonlight의 하이라이트와 메모는 사이드바에 자동으로 모여서 정리된다. 이 기능을 활용해 논문 리뷰 노트를 체계적으로 만들 수 있다.
색상 코딩 전략 예시:
- 🟡 노란색: 핵심 기여 / 꼭 기억할 것
- 🟢 초록색: 방법론 / 구현 참고사항
- 🔴 빨간색: 의문점 / 추가 확인 필요
- 🔵 파란색: 재미있는 아이디어 / 응용 가능성
사이드바에서 모든 어노테이션을 보면서 나만의 논문 요약 노트를 완성할 수 있다.
6. 수식 LaTeX 복사
논문에서 수식에 마우스를 올리면 LaTeX 형식으로 클립보드에 복사할 수 있다. 수식을 Obsidian 노트나 코드에 그대로 사용할 때 직접 타이핑하는 수고를 덜어준다.
실전 워크플로우
논문 스크리닝 (10분)
처음 논문을 접할 때 모든 내용을 다 읽으려 하면 시간이 너무 걸린다. Moonlight를 활용한 스크리닝:
- 자동 하이라이트 확인 (2분): 핵심 기여·방법론·결과를 빠르게 파악
- 3줄 요약 읽기 (1분): 이 논문이 무엇을 주장하는지
- AI 채팅으로 물어보기 (5분): “이 논문 읽을 가치가 있어? 내가 [분야/업무] 하는 사람인데”
- 인용 논문 미리보기 (2분): 관련 논문 체크
이 과정에서 “이 논문 더 읽겠다” / “패스” 결정을 내린다.
논문 정독 (30~60분)
읽기로 결정했다면:
- 배경 지식 파악: “이 논문 이해하려면 뭘 알아야 해?” 먼저 질문
- 섹션별 읽기: 모르는 부분은 즉시 드래그 → Explain
- 방법론 집중 이해: Method summary + 직접 채팅 질문 병행
- 결과 해석: 표/그래프를 선택해서 “이 결과가 의미하는 게 뭐야?” 질문
- 어노테이션: 중요한 부분 형광펜 + 메모
- 번역 활용: 영어가 막히는 부분은 번역해서 확인
논문 리뷰 노트 작성 (15분)
- 사이드바 어노테이션 전체 확인
- Discussion에 내가 이해한 내용 정리해서 입력
- AI에게 “내가 정리한 내용 중 잘못 이해한 부분 있어?” 검토 요청
- Obsidian 등 노트 앱으로 최종 정리 이동
논문 읽기가 처음인 분들에게
나처럼 논문 읽기가 익숙하지 않다면 아래 순서를 추천한다:
첫 번째 단계: 구조 파악
논문은 보통 Abstract → Introduction → Related Work → Method → Experiment → Conclusion 순서다. Moonlight 요약으로 Abstract와 Conclusion을 먼저 읽고 전체 맥락을 잡는다.
두 번째 단계: 핵심만 뽑기 AI 채팅에 이렇게 물어본다:
"이 논문의 핵심 아이디어를 초등학생도 이해할 수 있게 설명해줘"
"기존 방법 대비 어떤 문제를 어떻게 해결했어?"
세 번째 단계: 모르는 용어 즉시 해결 드래그 → Explain으로 모르는 용어나 개념을 바로 해결한다. 모르는 게 생길 때마다 넘기지 말고 그 자리에서 해결하는 습관이 중요하다.
네 번째 단계: 실무 연결하기
"이 방법을 [내 업무 상황]에 적용하면 어떻게 될까?"
"이 논문의 아이디어 중 실제로 구현하기 어려운 부분이 어디야?"
AI 개발자 관점에서 뜯어보기
사용자 입장을 넘어서, 이런 도구가 내부적으로 어떻게 만들어졌을지 생각해보는 것도 좋은 학습이다.
Moonlight의 개발사는 한국 AI B2B SaaS 회사인 Corca(corca-ai GitHub)다. TypeScript + Python을 주력으로 쓰고, 이전에 LangChain 기반 에이전트 프레임워크 EVAL을 오픈소스로 공개한 팀이다. 공식 기술 블로그나 아키텍처 문서는 공개되어 있지 않아서, 아래는 구조적으로 추론한 내용이다.
1. Chrome Extension 구조 (Manifest V3)
[브라우저]
├── Content Script — PDF 페이지 감지, 사이드바 DOM 주입, 텍스트 선택 이벤트 처리
├── Service Worker — 백엔드 API 프록시, 인증 토큰 관리
└── Sidebar UI — React/Preact 기반 사이드바 렌더링
크롬 확장이 PDF를 열면 기본 PDF 뷰어를 대체하거나 그 위에 오버레이를 씌우는 방식으로 동작한다. Content Script가 PDF 내 텍스트 선택 이벤트를 감지해서 “Explain / Translate” 팝업을 띄우고, Service Worker를 통해 Corca 백엔드로 요청을 보낸다. API 키는 확장 소스코드에 노출되지 않고 서버에서만 관리한다.
2. 학술 논문 전용 PDF 파싱 파이프라인
일반 PDF 파서로는 학술 논문을 제대로 처리하기 어렵다. 논문은 다단(multi-column) 레이아웃, 수식, 그림, 표, 인용 번호가 복잡하게 섞여 있어서 읽기 순서 자체를 AI가 판단해야 한다.
PDF 업로드
→ 레이아웃 분석 (Layout Detection)
- 텍스트 블록 / 그림 / 표 / 수식 영역 분리
- 다단 레이아웃의 읽기 순서 복원
→ 영역별 추출
- 텍스트: 섹션 구조 파악 (Abstract / Method / Experiment 등)
- 수식: LaTeX 변환 (corca-ai의 fastlatex 레포가 이 역할 추정)
- 그림/표: 캡션과 함께 묶어서 VLM으로 처리
- 참조 번호: [12] → 참고문헌 매핑 테이블 생성
→ 구조화된 JSON 출력
오픈소스로는 MinerU, Marker, Layout Parser 같은 도구들이 비슷한 문제를 풀고 있다. Moonlight가 이 중 하나를 쓰는지, 자체 파이프라인을 구축했는지는 확인할 수 없다.
3. LLM 레이어
[Extension] → [Corca 백엔드] → [OpenAI API]
↑
구조화된 논문 JSON 캐시
사용자 라이브러리 DB
벡터 임베딩 DB (Scholar Deep Search용)
요약이나 자동 하이라이트 같은 기능은 논문 전체를 한 번에 LLM에 던지는 게 아니라, 파싱 단계에서 뽑아낸 섹션 구조를 활용해 프롬프트를 분할해서 처리하는 방식일 가능성이 높다. 논문 전체를 Context Window에 넣으면 비용과 지연시간 문제가 생기기 때문이다.
Scholar Deep Search는 라이브러리에 저장된 논문들을 벡터 임베딩으로 인덱싱해두고, 새 논문이 들어오면 유사도 검색으로 관련 논문을 추천하는 RAG 패턴이다.
스마트 인용은 Semantic Scholar나 OpenAlex 같은 학술 논문 API를 통해 인용 논문 메타데이터를 실시간으로 가져오는 구조로 추정된다.
4. EVAL에서 Moonlight로 이어진 흐름
Corca의 이전 오픈소스 프로젝트 EVAL은 LangChain 기반으로 “원하는 결과를 말하면 스스로 검색, 코드 작성, 실행, 테스트까지 하는” 에이전트였다. 당시 쌓은 LLM 에이전트 설계 경험이 Moonlight의 “AI와 대화하듯 논문 읽기” 패턴으로 이어진 것으로 보인다.
결국 Moonlight의 핵심 기술 스택을 한 줄로 요약하면: 학술 논문 특화 PDF 파서 + 구조화된 컨텍스트 기반 LLM 호출 + Chrome Extension UI 조합이다. 요소 하나하나는 이미 공개된 기술들이지만, 논문이라는 도메인에 맞게 잘 조합하고 UX를 다듬은 것이 차별점이다.
마치며
Moonlight는 논문 읽기의 진입장벽을 크게 낮춰준다. 특히 논문이 익숙하지 않은 실무자에게는 AI가 동료처럼 옆에서 설명해주는 느낌이다.
Pro 플랜의 무제한 문서 접근과 GPT-5 mini 모델 조합은 하루에 여러 편의 논문을 훑어봐야 하는 리서치 업무에서 실질적인 차이를 만든다.