9/2
[Fine-tuning] Smaller, Weaker, Yet Better: Training LLM Reasoners via Compute-Optimal Sampling
https://moonjae.tistory.com/40
[Paper] Smaller, Weaker, Yet Better
moonjae.tistory.com
여기에 정리 합성 데이터의 고비용 모델과 저비용 모델간의 트레이드 오프 비교
9/3
[Prompting] Self-consistency
https://moonjae.tistory.com/41
[Paper] Self-Consistency
원문 리뷰
moonjae.tistory.com
CoT의 자가 일관성을 결합한 프롬프팅 방식
9/4
[RAG] Corrective Retrieval Augmented Generation
https://arxiv.org/abs/2401.15884
Corrective Retrieval Augmented Generation
Large language models (LLMs) inevitably exhibit hallucinations since the accuracy of generated texts cannot be secured solely by the parametric knowledge they encapsulate. Although retrieval-augmented generation (RAG) is a practicable complement to LLMs, i
arxiv.org
RAG 관련있는 문서 판단 후 Web search로 보고 프롬프트에 추가
자동화
9/5
[Prompting] Tree of Thoughts
https://moonjae.tistory.com/42
[Paper] Tree of Thoughts
원문 리뷰
moonjae.tistory.com
Tree 구조로 CoT작업을 수행함
탐색을 많이 해서 푸는 문제들에 효과가 있음
9/9
[prompting] Strategic Chain of Thought
https://moonjae.tistory.com/43
[Paper] Tree of Thoughts
원문 리뷰
moonjae.tistory.com
문제 해결을 위한 전략을 먼저 CoT하고 답을 도출해 내는 프롬프팅 방법
9/10
[Eval] RAGAS
https://arxiv.org/pdf/2309.15217
RAG 평가를 위한 프레임워크를 기술
직접 구현도 해봤는데.. 그닥 믿을만하지는 않는 그런..
9/11
[RAG] In Defense of RAG in the Era of Long Context Language Models
https://moonjae.tistory.com/45
[Paper] In Defense of RAG in the Era of Long Context Language Models
원문 리뷰 OP-RAG에 대해서 말 할거면 왜 굳이 LongContext를 꺼내서 얘기하는지는 잘 모르겠음OP-RAG가 실험적으로 증명할게 많이 없나 이생각도 하게 되는
moonjae.tistory.com
유사도 기반으로 순서를 바꾸는게 아니라 원래의 순서 그대로 유지하는게
RAG에 있어서 더 효과적으로 작용한다는 주장이 담긴 논문
9/12~13
출장...
9/15~18
추석...
9/19
[Model] Learning to Reason with LLMs (GPT-o1)
https://moonjae.tistory.com/46
[Paper] Learning to Reason with LLMs (GPT-o1)
원문https://openai.com/index/learning-to-reason-with-llms/ 리뷰
moonjae.tistory.com
'Daily Paper Read > 2024년' 카테고리의 다른 글
Day Paper Read 8/19~8/31 (0) | 2024.08.19 |
---|