원문
리뷰
OP-RAG에 대해서 말 할거면 왜 굳이 LongContext를 꺼내서 얘기하는지는 잘 모르겠음
OP-RAG가 실험적으로 증명할게 많이 없나 이생각도 하게 되는
원문
리뷰
OP-RAG에 대해서 말 할거면 왜 굳이 LongContext를 꺼내서 얘기하는지는 잘 모르겠음
OP-RAG가 실험적으로 증명할게 많이 없나 이생각도 하게 되는
https://moonjae.tistory.com/35
[Paper] Large Language Models Are Zero-Shot Reasoners
29 Jan 2023 논문
moonjae.tistory.com
0 shot CoT는 여기 리뷰했어요!
만관부..

회사 세미나 준비하면서 개인적으로 해본 결과인데
뭐.. 저는 멍청이라 좀 좋은 프롬프트가 생각이 안 나네요
| [RAG] RAG 성능 끌어올리기 (0) | 2024.07.23 |
|---|---|
| Pandas 기초와 활용 (0) | 2023.09.07 |
| Numpy 기초와 선형 대수에서의 Numpy 함수 (0) | 2023.09.04 |
| [Paper] HoT: Highlighted Chain of Thought 논문 리뷰 (0) | 2025.03.19 |
|---|---|
| [Paper] Tree of Thoughts (0) | 2024.09.05 |
| [Paper] Self-Consistency (0) | 2024.09.03 |
| [Paper] Concise Thoughts: Impact of Output Length on LLM Reasoning and Cost (0) | 2024.08.08 |
| [Paper] Large Language Models Are Zero-Shot Reasoners (1) | 2024.08.06 |
| [Paper] HoT: Highlighted Chain of Thought 논문 리뷰 (0) | 2025.03.19 |
|---|---|
| [Paper] SCoT - Strategic Chain of Thought (0) | 2024.09.09 |
| [Paper] Self-Consistency (0) | 2024.09.03 |
| [Paper] Concise Thoughts: Impact of Output Length on LLM Reasoning and Cost (0) | 2024.08.08 |
| [Paper] Large Language Models Are Zero-Shot Reasoners (1) | 2024.08.06 |
| [Paper] HoT: Highlighted Chain of Thought 논문 리뷰 (0) | 2025.03.19 |
|---|---|
| [Paper] SCoT - Strategic Chain of Thought (0) | 2024.09.09 |
| [Paper] Tree of Thoughts (0) | 2024.09.05 |
| [Paper] Concise Thoughts: Impact of Output Length on LLM Reasoning and Cost (0) | 2024.08.08 |
| [Paper] Large Language Models Are Zero-Shot Reasoners (1) | 2024.08.06 |
9/2
[Fine-tuning] Smaller, Weaker, Yet Better: Training LLM Reasoners via Compute-Optimal Sampling
https://moonjae.tistory.com/40
[Paper] Smaller, Weaker, Yet Better
moonjae.tistory.com
여기에 정리 합성 데이터의 고비용 모델과 저비용 모델간의 트레이드 오프 비교
9/3
[Prompting] Self-consistency
https://moonjae.tistory.com/41
[Paper] Self-Consistency
원문 리뷰
moonjae.tistory.com
CoT의 자가 일관성을 결합한 프롬프팅 방식
9/4
[RAG] Corrective Retrieval Augmented Generation
https://arxiv.org/abs/2401.15884
Corrective Retrieval Augmented Generation
Large language models (LLMs) inevitably exhibit hallucinations since the accuracy of generated texts cannot be secured solely by the parametric knowledge they encapsulate. Although retrieval-augmented generation (RAG) is a practicable complement to LLMs, i
arxiv.org
RAG 관련있는 문서 판단 후 Web search로 보고 프롬프트에 추가
자동화
9/5
[Prompting] Tree of Thoughts
https://moonjae.tistory.com/42
[Paper] Tree of Thoughts
원문 리뷰
moonjae.tistory.com
Tree 구조로 CoT작업을 수행함
탐색을 많이 해서 푸는 문제들에 효과가 있음
9/9
[prompting] Strategic Chain of Thought
https://moonjae.tistory.com/43
[Paper] Tree of Thoughts
원문 리뷰
moonjae.tistory.com
문제 해결을 위한 전략을 먼저 CoT하고 답을 도출해 내는 프롬프팅 방법
9/10
[Eval] RAGAS
https://arxiv.org/pdf/2309.15217
RAG 평가를 위한 프레임워크를 기술
직접 구현도 해봤는데.. 그닥 믿을만하지는 않는 그런..
9/11
[RAG] In Defense of RAG in the Era of Long Context Language Models
https://moonjae.tistory.com/45
[Paper] In Defense of RAG in the Era of Long Context Language Models
원문 리뷰 OP-RAG에 대해서 말 할거면 왜 굳이 LongContext를 꺼내서 얘기하는지는 잘 모르겠음OP-RAG가 실험적으로 증명할게 많이 없나 이생각도 하게 되는
moonjae.tistory.com
유사도 기반으로 순서를 바꾸는게 아니라 원래의 순서 그대로 유지하는게
RAG에 있어서 더 효과적으로 작용한다는 주장이 담긴 논문
9/12~13
출장...
9/15~18
추석...
9/19
[Model] Learning to Reason with LLMs (GPT-o1)
https://moonjae.tistory.com/46
[Paper] Learning to Reason with LLMs (GPT-o1)
원문https://openai.com/index/learning-to-reason-with-llms/ 리뷰
moonjae.tistory.com
| Day Paper Read 8/19~8/31 (0) | 2024.08.19 |
|---|
집에 컴터가 없어성.. 주말은 안 할거임
8/19
[RAG] EfficientRAG: Efficient Retriever for Multi-Hop Question Answering
multi-hop 추론에서 효율적으로 처리하는 RAG기법 소개
[Terminate], [Continue] 테그를 달아서 관련 문서 분류
모든 top_k가 Terminate거나 특정 반복횟수가 넘어가면 종료 하고 Continue로 쌓인 문서들을 참조해 최종 답변 생성
[Terminate], [Continue] 트랜스포머 인코더를 사용하는 듯
8/20
예비군때매 어려웠음(핑계)
8/21
[Train] To Code, or Not To Code? Exploring Impact of Code in Pre-training
Pretrain시에 Data의 code를 넣는것이 효과가 있다라는게 암묵적인 룰로 여겨지는데 이를 실험을 통해 실제 성능이 오른다는 걸 발견
Code Task뿐만 아니라 일반적인 Reasoning Task에서도 성능의 상승을 보임
또한 Cooldown에 대해서 성능 효과를 보여주는 것도 있기에 Cooldown에 대해서 지식 습득하기도 괜찮은 논문
8/22
[Prompting] Program of Thoughts Prompting: Disentangling Computation from Reasoning for Numerical Reasoning Tasks
수학문제를 수학문제 그 자체로써 푸는것이 아닌 코딩 문제로 변환 후 처리하는 프롬프팅 방식
zero-shot이나 few-shot모두 수학에서 높은 결과를 보여줌
ex) Q: what is 123*789?
Nomal : The answer is 97047
PoT : print(123*789)
8/23
[Model] LLM Pruning and Distillation in Practice: The Minitron Approach
PretrainModel의 MLP단계나 임베딩 단계에서 Pruning을 진행하여 파라미터수를 줄임
후 재학습을 하면서 모델의 안정화? 진행하는 것 같음
llama 3.1 8b -> 4b 상황에서 8b에 비해 mmlu등에서 5퍼센트의 acc하락이 있었고 4b급 모델에서는 유의미한 성능 향상을 보여줌
8/26
[Model] EXAONE 3.0 7.8B Instruction Tuned Language Model
LG에서 제작한 7.8B 오픈소스 LLM(inst) 4096Token
RoPE/GQA 사용
크롤링한 데이터 정제 및 규제에 대한 고려 6T개의 데이터 선처리 후 응용 2T개 학습
SFT/DPO로 fine-tuned
한국어(Token 압축)와 수학 코딩에서 강점을 보이는 벤치마크
8/27
[ETC] Leak, Cheat, Repeat: Data Contamination and Evaluation Malpractices in Closed-Source LLMs
closed LLM에 대한 유출 및 치팅에 관한 감독에 대해서 이야기 함
8/29
[RAG] Writing in the Margins: Better Inference Pattern for Long Context Retrieval
https://moonjae.tistory.com/38 여기에 정리
8/30
[Finetuning] LoRA Learns Less and Forgets Less
Lora - Full fine tuning의 성능 Trade-off를 Math 와 Coding을 통해서 보여줌
| Day Paper Read 9/1~9/31 (0) | 2024.09.02 |
|---|
뭔가 되게 당연하다고 생각한 그런 방식이였는데 실제로 실험에 옮긴 느낌쓰..
| [Paper] HoT: Highlighted Chain of Thought 논문 리뷰 (0) | 2025.03.19 |
|---|---|
| [Paper] SCoT - Strategic Chain of Thought (0) | 2024.09.09 |
| [Paper] Tree of Thoughts (0) | 2024.09.05 |
| [Paper] Self-Consistency (0) | 2024.09.03 |
| [Paper] Large Language Models Are Zero-Shot Reasoners (1) | 2024.08.06 |