▲neo 2달전 | parent | favorite | on: GN⁺: Show HN: Wordllama – LLM의 토큰 임베딩으로 할 수 있는 것들(github.com/dleemiller)Hacker News 의견 작은 크기가 마음에 듦, SBERT의 가장 작은 모델보다 유리함 기술적으로 구식이지만 성능을 위한 타협임 다양한 유사성 유형(예: 의미론적, NLI, 명사-추상적)을 전환할 수 있는 방법 제공 요청 예를 들어, "Freezing"과 "Burning"을 신문 기사 분류에서는 유사하게, 화학 기사에서는 반대로 하고 싶음 NLI 임베딩을 사용하여 인과 관계를 파악하고 싶음 SBERT는 크기가 크고 여러 모델을 로드해야 하므로 자원 소모가 큼 임베딩은 많은 의미 정보를 캡처하며 독립적으로 유용한 작업에 사용 가능함 CLIP 모델의 텍스트 인코더 임베딩을 사용하여 프롬프트를 보강함 예를 들어, "building"이라는 단어가 주어지면 임베딩 매트릭스에서 "concrete", "underground" 등을 찾아 대체하거나 추가함 제한된 실험에서 대부분의 쿼리에 대해 높은 리콜을 얻음 영어 외 다른 언어에 대한 계획이 있는지 질문 프랑스어에 완벽한 도구가 될 것임 토큰 자체에 많은 의미 내용이 포함되어 있음을 보여줌 임베딩을 사용하여 Little Alchemy를 해결하는 것에 대한 생각 게임 제작에 매우 유용함, 감사함 멋져 보임, mini-lm 모델의 장점에 대해 질문 대부분의 mteb 작업에서 더 나은 것 같지만 추론 등에서 더 나은지 궁금함 몇 년 전 비슷한 기능을 사용한 "언어 게임"을 작성함 Language-games
Hacker News 의견
작은 크기가 마음에 듦, SBERT의 가장 작은 모델보다 유리함
임베딩은 많은 의미 정보를 캡처하며 독립적으로 유용한 작업에 사용 가능함
영어 외 다른 언어에 대한 계획이 있는지 질문
토큰 자체에 많은 의미 내용이 포함되어 있음을 보여줌
임베딩을 사용하여 Little Alchemy를 해결하는 것에 대한 생각
게임 제작에 매우 유용함, 감사함
멋져 보임, mini-lm 모델의 장점에 대해 질문
몇 년 전 비슷한 기능을 사용한 "언어 게임"을 작성함