다음과 같이 수정하였습니다. 감사합니다! :D
- 정보 검색을 통해 생각의 사슬(CoT)을 반복적으로 수정하면 장기-단위의 생성 작업에서 LLM 추론과 생성을 크게 개선할 수 있음을 보여줍니다. 핵심 아이디어는 각 생각 단계가 작업 쿼리, 현재 및 과거의 생각 단계에 관련된 검색된 정보로 수정된다는 것입니다. 검색 증강 생각(RAT)은 GPT-4 및 CodeLlama-7b 같은 다른 모델에 적용하여 긴-단위의 생성 작업(예, 창의적 글쓰기 및 구체화된 작업 계획); RAT는 제로 샷 프롬프트 방식이며 제로 샷 침대 프롬프트, 기본 RAG 및 기타 기준선을 포함한 기준선을 크게 개선합니다.
RAT 부분의 논문 소개에서 rat, rag가 각각 쥐, 걸레로 번역된 거 같습니다
아마 모델이 소문자를 그대로 읽어낸 거 같아요