9/2

[Fine-tuning] Smaller, Weaker, Yet Better: Training LLM Reasoners via Compute-Optimal Sampling

https://moonjae.tistory.com/40

 

[Paper] Smaller, Weaker, Yet Better

 

moonjae.tistory.com

여기에 정리 합성 데이터의 고비용 모델과 저비용 모델간의 트레이드 오프 비교 

 

9/3

[Prompting] Self-consistency

https://moonjae.tistory.com/41

 

[Paper] Self-Consistency

원문 리뷰

moonjae.tistory.com

CoT의 자가 일관성을 결합한 프롬프팅 방식

 

9/4 

[RAG] Corrective Retrieval Augmented Generation

https://arxiv.org/abs/2401.15884

 

Corrective Retrieval Augmented Generation

Large language models (LLMs) inevitably exhibit hallucinations since the accuracy of generated texts cannot be secured solely by the parametric knowledge they encapsulate. Although retrieval-augmented generation (RAG) is a practicable complement to LLMs, i

arxiv.org

RAG 관련있는 문서 판단 후 Web search로 보고 프롬프트에 추가

자동화

 

9/5

[Prompting] Tree of Thoughts

https://moonjae.tistory.com/42

 

[Paper] Tree of Thoughts

원문  리뷰

moonjae.tistory.com

Tree 구조로 CoT작업을 수행함

탐색을 많이 해서 푸는 문제들에 효과가 있음

 

9/9 

[prompting] Strategic Chain of Thought

https://moonjae.tistory.com/43

 

[Paper] Tree of Thoughts

원문  리뷰

moonjae.tistory.com

문제 해결을 위한 전략을 먼저 CoT하고 답을 도출해 내는 프롬프팅 방법

 

9/10

[Eval] RAGAS

https://arxiv.org/pdf/2309.15217

RAG 평가를 위한 프레임워크를 기술

직접 구현도 해봤는데.. 그닥 믿을만하지는 않는 그런..

 

9/11

[RAG] In Defense of RAG in the Era of Long Context Language Models

https://moonjae.tistory.com/45

 

[Paper] In Defense of RAG in the Era of Long Context Language Models

원문 리뷰  OP-RAG에 대해서 말 할거면 왜 굳이 LongContext를 꺼내서 얘기하는지는 잘 모르겠음OP-RAG가 실험적으로 증명할게 많이 없나 이생각도 하게 되는

moonjae.tistory.com

유사도 기반으로 순서를 바꾸는게 아니라 원래의 순서 그대로 유지하는게

RAG에 있어서 더 효과적으로 작용한다는 주장이 담긴 논문

 

9/12~13

출장...

 

9/15~18

추석...

 

9/19

[Model] Learning to Reason with LLMs (GPT-o1)

https://moonjae.tistory.com/46

 

[Paper] Learning to Reason with LLMs (GPT-o1)

원문https://openai.com/index/learning-to-reason-with-llms/ 리뷰

moonjae.tistory.com

 

'Daily Paper Read > 2024년' 카테고리의 다른 글

Day Paper Read 8/19~8/31  (0) 2024.08.19

+ Recent posts