▲neo 5달전 | parent | favorite | on: GN⁺: Meta LLM 컴파일러 발표(twitter.com/AIatMeta)Hacker News 의견 LLM을 컴파일러/디컴파일러로 사용하는 것은 흥미로운 응용임 컴파일러는 신뢰성과 정확성이 중요함 LLM은 본질적으로 예측 불가능하므로 빌드 파이프라인에 포함하는 것이 이상하게 느껴짐 논문에서는 CodeLlama를 시작으로 세 가지 작업에 모델을 훈련시켰음 첫 번째 작업은 컴파일: 입력 코드와 컴파일러 플래그를 주고 출력 어셈블리를 예측하는 것 두 번째 작업은 컴파일러 플래그 예측/최적화: 어셈블리 크기를 최적화하는 것 세 번째 작업은 디컴파일: 이전 접근 방식보다 장점이 있다고 주장함 디컴파일 접근 방식의 검증 가능성에 문제가 있음 디컴파일된 코드를 다시 컴파일하여 정확성을 확인하는 방법을 사용함 정확도가 약 45%로 아직 신뢰할 수 없지만 전통적인 디컴파일러와 함께 사용하면 유용할 수 있음 이 모델이 성능 최적화로 확장될 수 있는지 탐구해보고 싶음 LLM이 직관을 제공하고 기계적/엄격한 방식으로 처리하는 시스템이 증가할 것 같음 LLM이 입력의 의미를 보존하는지 확인하는 방법이 궁금함 이전 연구는 GitHub에서 확인할 수 있음 Twitter는 이 연구에 감명받았지만, 프로그램을 망칠 가능성이 높다고 생각함 Meta의 다른 AI 논문과 달리 Instagram, Facebook, Meta에서 사용된다는 언급이 없음 "LLM Compiler"보다 "Compiler LLM"이 더 정확한 이름일 것 같음 이 작업의 목적을 이해하지 못하겠음 <i>Deus Ex</i> 게임에서 Meta Technologies Neural Optimizer와 Disassembler를 거래했던 기억이 있음
Hacker News 의견