9/2

[Fine-tuning] Smaller, Weaker, Yet Better: Training LLM Reasoners via Compute-Optimal Sampling

https://moonjae.tistory.com/40

 

[Paper] Smaller, Weaker, Yet Better

 

moonjae.tistory.com

여기에 정리 합성 데이터의 고비용 모델과 저비용 모델간의 트레이드 오프 비교 

 

9/3

[Prompting] Self-consistency

https://moonjae.tistory.com/41

 

[Paper] Self-Consistency

원문 리뷰

moonjae.tistory.com

CoT의 자가 일관성을 결합한 프롬프팅 방식

 

9/4 

[RAG] Corrective Retrieval Augmented Generation

https://arxiv.org/abs/2401.15884

 

Corrective Retrieval Augmented Generation

Large language models (LLMs) inevitably exhibit hallucinations since the accuracy of generated texts cannot be secured solely by the parametric knowledge they encapsulate. Although retrieval-augmented generation (RAG) is a practicable complement to LLMs, i

arxiv.org

RAG 관련있는 문서 판단 후 Web search로 보고 프롬프트에 추가

자동화

 

9/5

[Prompting] Tree of Thoughts

https://moonjae.tistory.com/42

 

[Paper] Tree of Thoughts

원문  리뷰

moonjae.tistory.com

Tree 구조로 CoT작업을 수행함

탐색을 많이 해서 푸는 문제들에 효과가 있음

 

9/9 

[prompting] Strategic Chain of Thought

https://moonjae.tistory.com/43

 

[Paper] Tree of Thoughts

원문  리뷰

moonjae.tistory.com

문제 해결을 위한 전략을 먼저 CoT하고 답을 도출해 내는 프롬프팅 방법

 

9/10

[Eval] RAGAS

https://arxiv.org/pdf/2309.15217

RAG 평가를 위한 프레임워크를 기술

직접 구현도 해봤는데.. 그닥 믿을만하지는 않는 그런..

 

9/11

[RAG] In Defense of RAG in the Era of Long Context Language Models

https://moonjae.tistory.com/45

 

[Paper] In Defense of RAG in the Era of Long Context Language Models

원문 리뷰  OP-RAG에 대해서 말 할거면 왜 굳이 LongContext를 꺼내서 얘기하는지는 잘 모르겠음OP-RAG가 실험적으로 증명할게 많이 없나 이생각도 하게 되는

moonjae.tistory.com

유사도 기반으로 순서를 바꾸는게 아니라 원래의 순서 그대로 유지하는게

RAG에 있어서 더 효과적으로 작용한다는 주장이 담긴 논문

 

9/12~13

출장...

 

9/15~18

추석...

 

9/19

[Model] Learning to Reason with LLMs (GPT-o1)

https://moonjae.tistory.com/46

 

[Paper] Learning to Reason with LLMs (GPT-o1)

원문https://openai.com/index/learning-to-reason-with-llms/ 리뷰

moonjae.tistory.com

 

'Daily Paper Read > 2024년' 카테고리의 다른 글

Day Paper Read 8/19~8/31  (0) 2024.08.19

집에 컴터가 없어성.. 주말은 안 할거임

 

8/19

[RAG] EfficientRAG: Efficient Retriever for Multi-Hop Question Answering

EfficientRAG.pdf
0.38MB

 

multi-hop 추론에서 효율적으로 처리하는 RAG기법 소개

[Terminate], [Continue] 테그를 달아서 관련 문서 분류

모든 top_k가 Terminate거나 특정 반복횟수가 넘어가면 종료 하고 Continue로 쌓인 문서들을 참조해 최종 답변 생성

[Terminate], [Continue] 트랜스포머 인코더를 사용하는 듯

 

8/20 

예비군때매 어려웠음(핑계)

 

8/21

[Train] To Code, or Not To Code? Exploring Impact of Code in Pre-training

Exploring Impact of Code in Pre-training.pdf
2.00MB

 

Pretrain시에 Data의 code를 넣는것이 효과가 있다라는게 암묵적인 룰로 여겨지는데 이를 실험을 통해 실제 성능이 오른다는 걸 발견

Code Task뿐만 아니라 일반적인 Reasoning Task에서도 성능의 상승을 보임

또한 Cooldown에 대해서 성능 효과를 보여주는 것도 있기에 Cooldown에 대해서 지식 습득하기도 괜찮은 논문

 

8/22 

[Prompting] Program of Thoughts Prompting: Disentangling Computation from Reasoning for Numerical Reasoning Tasks

 

PoT.pdf
2.86MB

 

수학문제를 수학문제 그 자체로써 푸는것이 아닌 코딩 문제로 변환 후 처리하는 프롬프팅 방식

zero-shot이나 few-shot모두 수학에서 높은 결과를 보여줌

ex) Q: what is 123*789?

       Nomal : The answer is 97047

       PoT : print(123*789) 

 

8/23

[Model] LLM Pruning and Distillation in Practice: The Minitron Approach

LLM Pruning and Distillation in Practice- The Minitron Approach.pdf
2.33MB

 

PretrainModel의 MLP단계나 임베딩 단계에서 Pruning을 진행하여 파라미터수를 줄임

후 재학습을 하면서 모델의 안정화? 진행하는 것 같음

llama 3.1 8b -> 4b 상황에서 8b에 비해 mmlu등에서 5퍼센트의 acc하락이 있었고 4b급 모델에서는 유의미한 성능 향상을 보여줌

 

8/26

[Model] EXAONE 3.0 7.8B Instruction Tuned Language Model

Exaone 3.0.pdf
0.33MB


LG에서 제작한 7.8B 오픈소스 LLM(inst) 4096Token

RoPE/GQA 사용 

크롤링한 데이터 정제 및 규제에 대한 고려 6T개의 데이터 선처리 후 응용 2T개 학습

SFT/DPO로 fine-tuned

한국어(Token 압축)와 수학 코딩에서 강점을 보이는 벤치마크

 

8/27

[ETC] Leak, Cheat, Repeat: Data Contamination and Evaluation Malpractices in Closed-Source LLMs

 

Leak, Cheat, Repeat- Data Contamination and Evaluation Malpractices in Closed-Source LLMs.pdf
1.11MB

 

closed LLM에 대한 유출 및 치팅에 관한 감독에 대해서 이야기 함

 

8/29 

[RAG] Writing in the Margins: Better Inference Pattern for Long Context Retrieval

Writing in the Margins.pdf
1.16MB

 

https://moonjae.tistory.com/38 여기에 정리

 

8/30

[Finetuning] LoRA Learns Less and Forgets Less

LoRA Learns Less and Forgets Less.pdf
5.59MB

 

Lora - Full fine tuning의 성능 Trade-off를 Math 와 Coding을 통해서 보여줌

'Daily Paper Read > 2024년' 카테고리의 다른 글

Day Paper Read 9/1~9/31  (0) 2024.09.02

+ Recent posts