▲neo 5달전 | parent | favorite | on: GN⁺: 의미 엔트로피를 이용한 대형 언어 모델의 환각 탐지(nature.com)Hacker News 의견 수학적 문제: LLM의 출력 분포를 평가하는 접근법이 수학적으로 문제가 있음. 유사성 예시: 톰 크루즈와 테일러 스위프트의 예시를 통해 단어 벡터 공간에서의 유사성과 정확성의 차이를 설명함. 분포 특성: 출력 분포의 특성을 모르면 정확성을 평가할 수 없다는 의견. 통계 모델: ANN의 불확실성을 평가하는 통계 모델이 있지만, LLM 규모에서는 비현실적일 수 있음. 환각 문제: 대부분의 환각이 매우 그럴듯하고 설득력 있게 보이지만 실제로는 잘못된 정보임. 논리적 시스템: LLM이 논리적 시스템을 포함하여 훈련되어야 한다는 의견. 훈련 과정: 기존 모델을 사용해 논리적 관계를 생성하고, 이를 새로운 LLM 훈련에 사용해야 함. 언어의 역할: 언어는 지능의 기본이 아니며, 일관된 시뮬레이션이 더 중요하다는 의견. 환각과 진실: LLM이 진실과 거짓과는 무관하다는 의견. 환각의 본질: LLM이 환각을 일으키는지 여부를 알기 위해서는 이미 정답을 알고 있어야 함. AI 마케팅: AI를 텍스트 생성 도구로 마케팅하는 것이 더 나을 수 있음. 민감도 분석: 입력을 변경하여 출력의 의미가 어떻게 달라지는지 보는 방법이 흥미로울 수 있음. 엔론 사례: 엔론 사태 이후 'bullshitometer'를 사용해 예측할 수 있었던 사례를 언급함. 정량적 측정: 입력이 임의의 답변을 생성할 가능성을 정량적으로 측정하는 방법을 개발함. 환각 최소화: 환각을 최소화하기 위해 다양한 수준의 조치를 취해야 한다는 의견. 지식 그래프: 지식 그래프와 FAQ를 사용해 환각을 줄이려는 시도. 이중 LLM: 두 번째 LLM을 사용해 의미적 동등성을 감지하는 것이 불필요한 복잡성을 초래할 수 있음.
Hacker News 의견