▲neo 6달전 | parent | favorite | on: GN⁺: 일리야 수츠케버: "이 모든 것을 배우면 중요한 것의 90%를 알게 될 것입니다"(reddit.com)Hacker News 의견 해커뉴스 댓글 모음 요약 The headline belies the scope of this task. If you click in to see what these are: 하나는 컨볼루션 신경망에 대한 전체 코스임 링크 하나는 500페이지짜리 교과서임 링크 또 다른 하나는 80페이지짜리 교과서임 링크 이 목록을 전업으로 1년 정도 공부하면 가능할 수도 있음. 우선순위에 따라 가치가 있을 수도 있음. Some time ago I also copied the list at 링크 so its easier to wget (e.g. get all the arxiv pdfs) wget 명령어를 사용하여 모든 arxiv pdf를 다운로드할 수 있음. 친구와 함께 pdfunite를 사용해 하나의 pdf로 합치고, 인쇄소에서 스파이럴 북으로 인쇄했음. 결과물이 매우 좋았음. Keep in mind there is no confirmation that this is the actual list. 이 목록이 실제 목록인지 확인되지 않았음. 이 목록은 1년 전에 Ilya가 John Carmack에게 준 목록이라고 함. How long does it take to learn the prerequisites to learn these if you don't already have a CS background? 목록을 읽어보니 절반 정도의 제목도 이해하기 어려웠음. 이 목록을 시작하면 이해할 수 있을지, 아니면 다른 곳에서 시작해야 할지 궁금함. What people forget is without a proper, tangible goal, no matter how many core or interesting papers you read, you will still remember nothing. 명확하고 구체적인 목표가 없으면, 아무리 많은 논문을 읽어도 기억에 남지 않음. There are a few past discussions, going back to October 2022. I wonder how out of date the list is now. 이 목록이 얼마나 오래되었는지 궁금함. 2022년 10월부터 몇 가지 논의가 있었음. This is just someone’s bookmarks folder. Where’s the proof these were recommended by Ilya? 이 목록이 Ilya가 추천한 것이라는 증거가 없음. 단순히 누군가의 북마크 폴더일 수도 있음. The argument that this is 90% of what matters in ML seems a bit bold. 이 목록이 머신러닝에서 중요한 것의 90%를 차지한다는 주장은 과감함. 강화 학습이나 그래프 신경망 같은 중요한 주제가 빠져 있음. This has nothing on it about llms, where in context learning, retrieval augmention, tool using, and multi modality is really blazing ground. 목록에 대형 언어 모델(LLM)에 대한 내용이 없음. 문맥 학습, 검색 증강, 도구 사용, 다중 모달리티 같은 중요한 주제가 빠져 있음. Reading 30 studies does not mean "learned and understood". Especially if you start from zero. 30개의 논문을 읽는다고 해서 "배우고 이해했다"는 의미는 아님. 특히 처음부터 시작하는 경우에는 더더욱 그렇음.
Hacker News 의견
해커뉴스 댓글 모음 요약
The headline belies the scope of this task. If you click in to see what these are:
Some time ago I also copied the list at 링크 so its easier to wget (e.g. get all the arxiv pdfs)
Keep in mind there is no confirmation that this is the actual list.
How long does it take to learn the prerequisites to learn these if you don't already have a CS background?
What people forget is without a proper, tangible goal, no matter how many core or interesting papers you read, you will still remember nothing.
There are a few past discussions, going back to October 2022. I wonder how out of date the list is now.
This is just someone’s bookmarks folder. Where’s the proof these were recommended by Ilya?
The argument that this is 90% of what matters in ML seems a bit bold.
This has nothing on it about llms, where in context learning, retrieval augmention, tool using, and multi modality is really blazing ground.
Reading 30 studies does not mean "learned and understood". Especially if you start from zero.