▲neo 2달전 | parent | favorite | on: GN⁺: LLMs의 영원한 환각 현상, 우리가 받아들여야 할 현실(arxiv.org)Hacker News 의견 수학적 확실성을 통해 환각을 증명함으로써, 환각이 완전히 해결될 수 있다는 기존의 개념에 도전함 "환각"이라는 용어가 모델의 정상적인 기능에 문제가 있다는 인식을 주기 때문에, 다른 용어를 선택했으면 오해를 피할 수 있었을 것임 환각은 모델의 오작동이 아니라, 생성된 텍스트가 목적에 맞지 않는다는 가치 판단임 환각을 줄이는 것과 "정렬"을 만드는 것은 동일한 문제임 환각은 질문에 대한 첫 번째 가능한 답변을 말하는 결과임 인간은 대부분의 질문에 대해 이전에 답변한 경험이 있고, 실수를 기억하여 반복하지 않음 인간은 말을 하기 전에 생각하고, 초기 반응을 다른 지식과 연관시킴 LLM이 즉시 올바른 답변을 생성할 것으로 기대해서는 안 됨 인간의 사고 과정은 다양한 역할과 페르소나를 가짐 초기 "초안" 답변이 형성된 후에야 추가적인 맥락을 생성함 LLM의 첫 번째 "직감적 반응"을 기반으로 지능을 평가하는 것은 잘못된 판단임 현재의 아키텍처는 근본적으로 "환각"이 내재되어 있어 실용적인 사용을 제한함 이 기사에서는 "환각하지 않음"의 불가능한 한계를 제시함 형식적 시스템과 기계적 계산의 근본적인 한계를 재확인함 이 한계는 인간에게도 적용됨 LLM의 환각은 지식을 표현하는 방식과 관련이 있음 모델이 환각할 때도 여전히 훈련된 대로 가능성 있는 텍스트를 생성함 훈련 데이터의 일반적인 패턴, 즉 문법과 단어 선택에 의존함 적절한 아키텍처 변경으로 환각 문제를 해결할 수 있을 것임 그러나 이러한 변경이 효율적인 모델 훈련과 양립할 수 있을지는 미지수임 불완전한 훈련 데이터는 측정할 가치가 없음 불완전한 데이터는 학습의 본질임 완전한 데이터가 있다면 기계 학습이 필요 없고, 입력을 출력으로 매핑하는 함수를 만들면 됨 기계 학습은 예측을 기반으로 간극을 메우는 것임 인간 지능과 학습에도 동일하게 적용됨 LLM은 항상 환각할 것이지만, 인간도 항상 환각함 진정한 문제는 LLM이 인간처럼 환각하도록 만드는 것임 LLM은 '전문가 시스템'처럼 될 것임 AI 전문가로서 자신을 한정하지 말 것을 권장함 LLM과 효과적으로 작업하기 위해서는 본질적으로 신뢰할 수 없고 비결정론적인 기술을 사용하는 능력이 필요함 많은 사람들이 이 장애물을 극복하기 어려워함 이제 거품이 터질 때가 되었음 우리는 LLM을 "수용"할 필요가 없음 사용하지 않거나 무시하거나 확산과 수용에 반대할 수 있음 이 논문은 잘못 작성되었고, 의미 있는 수학적 이론이 개발되었다는 믿음이 낮음 예시: 첫 10페이지는 의미 없는 내용임
Hacker News 의견
수학적 확실성을 통해 환각을 증명함으로써, 환각이 완전히 해결될 수 있다는 기존의 개념에 도전함
환각은 질문에 대한 첫 번째 가능한 답변을 말하는 결과임
현재의 아키텍처는 근본적으로 "환각"이 내재되어 있어 실용적인 사용을 제한함
LLM의 환각은 지식을 표현하는 방식과 관련이 있음
불완전한 훈련 데이터는 측정할 가치가 없음
LLM은 '전문가 시스템'처럼 될 것임
LLM과 효과적으로 작업하기 위해서는 본질적으로 신뢰할 수 없고 비결정론적인 기술을 사용하는 능력이 필요함
이제 거품이 터질 때가 되었음
우리는 LLM을 "수용"할 필요가 없음
이 논문은 잘못 작성되었고, 의미 있는 수학적 이론이 개발되었다는 믿음이 낮음