▲neo 1달전 | parent | favorite | on: GN⁺: LLM의 불확실성 감지 기술(thariq.io)Hacker News 의견 Charles Babbage는 잘못된 입력이 올바른 출력을 낼 수 있는지에 대한 질문에 혼란스러움을 느꼈음 소비자 하드웨어를 사용한 샘플링 기반 기술이 SOTA 모델을 개선할 수 있는 드문 기회임. 그러나 이는 지속되지 않을 것이며, 궁극적으로는 훈련 가능한 샘플러가 필요할 것임 optillm은 이러한 기술을 구현한 프로젝트임 Entropics의 추가 계산이 CoT 디코딩보다 나은 결과를 가져오지 않음 LLM의 많은 문제는 의미 누출이나 관련 없는 정보에 의해 발생함. 주의력 개선의 여지가 있을 수 있음 관련 블로그 포스트 작성: 의미 누출, LLM과 추론, O(1) 추론 시간 튜링 머신 현대의 GPT는 토큰 어휘에 대한 큰 분류기로부터 로짓을 출력함. 이는 공간 내에 존재하며, 비정상적인 볼록성 속성을 가진 다양체를 계산할 수 있음 높은 엔트로피 상황에서 모델이 불확실성을 감지하고 사용자에게 경고할 수 있는 기능이 필요함 LLM의 불확실성을 판단하는 기술이 있는지 확신할 수 없음. 최근 연구는 의미 엔트로피를 사용하여 LLM의 추측 여부를 통계적으로 정량화함 모델이 불확실성을 허용하지 않을 때의 출력을 실험해본 사람이 있는지 궁금함. 모든 토큰이 임계값 이상의 확실성을 가질 때까지 샘플러가 되돌아가는 방식임 LLM을 신뢰하여 최소한의 감독으로 작업을 수행하는 것에 대한 의문이 있음. 모든 것이 "환각"이나 추측일 수 있음 LLM의 문제는 단순히 "불확실성"뿐만 아니라 다양한 차원이 있음. 질문의 의미 부족, 정보 부족, 전문가 합의의 부재 등 다양한 이유가 있음 언어 모델을 위한 수많은 샘플링 전략이 존재함. 특정 샘플링 전략이 표준 top-k 또는 top-p 샘플링보다 우수하다는 것을 실증적으로 입증하기 어려움
Hacker News 의견
Charles Babbage는 잘못된 입력이 올바른 출력을 낼 수 있는지에 대한 질문에 혼란스러움을 느꼈음
소비자 하드웨어를 사용한 샘플링 기반 기술이 SOTA 모델을 개선할 수 있는 드문 기회임. 그러나 이는 지속되지 않을 것이며, 궁극적으로는 훈련 가능한 샘플러가 필요할 것임
LLM의 많은 문제는 의미 누출이나 관련 없는 정보에 의해 발생함. 주의력 개선의 여지가 있을 수 있음
현대의 GPT는 토큰 어휘에 대한 큰 분류기로부터 로짓을 출력함. 이는 공간 내에 존재하며, 비정상적인 볼록성 속성을 가진 다양체를 계산할 수 있음
높은 엔트로피 상황에서 모델이 불확실성을 감지하고 사용자에게 경고할 수 있는 기능이 필요함
LLM의 불확실성을 판단하는 기술이 있는지 확신할 수 없음. 최근 연구는 의미 엔트로피를 사용하여 LLM의 추측 여부를 통계적으로 정량화함
모델이 불확실성을 허용하지 않을 때의 출력을 실험해본 사람이 있는지 궁금함. 모든 토큰이 임계값 이상의 확실성을 가질 때까지 샘플러가 되돌아가는 방식임
LLM을 신뢰하여 최소한의 감독으로 작업을 수행하는 것에 대한 의문이 있음. 모든 것이 "환각"이나 추측일 수 있음
LLM의 문제는 단순히 "불확실성"뿐만 아니라 다양한 차원이 있음. 질문의 의미 부족, 정보 부족, 전문가 합의의 부재 등 다양한 이유가 있음
언어 모델을 위한 수많은 샘플링 전략이 존재함. 특정 샘플링 전략이 표준 top-k 또는 top-p 샘플링보다 우수하다는 것을 실증적으로 입증하기 어려움