/users
/posts
/slides
/apps
/books
mysetting
/users
/posts
/slides
/apps
/books
5:08 5/30
likejazz.com
5:08
likejazz.com
70+ Books in a yr
https://likejazz.com/
저작도구: Tumblr (3.0; @likejazz)
최종 피드 수집: 2024-12-20 20:16
전체 (110)
4M
llama.cpp의 내부 구현을 분석하다가 ggml을 이용한 간단한 matmul 샘플을 구현해 봤습니다(프로젝트 링크는 댓글에). 원래 llama.cpp도 Georgi…
llama.cpp의 내부 구현을 분석하다가 ggml을 이용한 간단한 matmul 샘플을 구현해 봤습니다(프로젝트 링크는 댓글에). 원래 llama.cpp도 Georgi...
0
0
0
읽기모드
4M
벌써 두 번의 모임과 한 번의 번개를 진행했습니다.
벌써 두 번의 모임과 한 번의 번개를 진행했습니다.첫 모임 때는 저자가 직접 진행하는 모임이라 그런지 참석자가 너무 많아서 몇몇 분은 모시지도 못했고, 빈 의자가 없을 정도로...
0
0
0
읽기모드
4M
지난 번 클로드의 마인드 맵핑 연구에 이어 이번에 인터뷰 영상이 공개됐네요.
지난 번 클로드의 마인드 맵핑 연구에 이어 이번에 인터뷰 영상이 공개됐네요.여기서 “It’s almost like doing biology of a new...
Youtube
+ 더보기
0
0
0
읽기모드
4M
mamba의 numpy 구현이 나왔네요.
mamba의 numpy 구현이 나왔네요.https://github.com/idoh/mamba.np저도 mamba 구조를 정확히 알진 못하는데, 이걸 보면 쉽게 이해할 수 있을거라...
0
0
0
읽기모드
4M
지난번 라마3 모델의 순수 NumPy 구현에 이어 이번에는 라마3 모델을 순수 C/CUDA로 구현해봤습니다.
지난번 라마3 모델의 순수 NumPy 구현에 이어 이번에는 라마3 모델을 순수 C/CUDA로 구현해봤습니다.GitHub:...
0
0
0
읽기모드
4M
llm.c 프로젝트로 요즘 pure C/CUDA training 코드를 만들고 있는 카파시가 이번에 GPT-2 124M 모델 학습을 1장의 GPU로 90분만에 재현했네요….
llm.c 프로젝트로 요즘 pure C/CUDA training 코드를 만들고 있는 카파시가 이번에 GPT-2 124M 모델 학습을 1장의 GPU로 90분만에 재현했네요....
0
0
0
읽기모드
4M
llm.c 프로젝트로 요즘 pure C/CUDA training 코드를 만들고 있는 카파시가 이번에 GPT-2 124M 모델 학습을 1장의 GPU로 90분만에 재현했네요….
llm.c 프로젝트로 요즘 pure C/CUDA training 코드를 만들고 있는 카파시가 이번에 GPT-2 124M 모델 학습을 1장의 GPU로 90분만에 재현했네요....
0
0
0
읽기모드
4M
저는 유료 자문도 웬만하면 진행하지 않습니다. 회사에 적을 두고 있기 때문에 회사 업무에 집중하기 위해서죠. 그런데 무료로 자문해 달라는 분들이 너무 많네요. 그나마 원래 알던…
저는 유료 자문도 웬만하면 진행하지 않습니다. 회사에 적을 두고 있기 때문에 회사 업무에 집중하기 위해서죠. 그런데 무료로 자문해 달라는 분들이 너무 많네요. 그나마 원래 알던...
0
0
0
읽기모드
4M
곧 출시되는 ollama의 신규 버전에는 드디어 CJK 문제가 해결되면서 CLI에서 문제 없이 한글 처리가 될 것으로 보이네요. 이외에도 llama.cpp에 flash…
곧 출시되는 ollama의 신규 버전에는 드디어 CJK 문제가 해결되면서 CLI에서 문제 없이 한글 처리가 될 것으로 보이네요. 이외에도 llama.cpp에 flash...
0
0
0
읽기모드
4M
곧 출시되는 ollama의 신규 버전에는 드디어 CJK 문제가 해결되면서 CLI에서 문제 없이 한글 처리가 될 것으로 보이네요. 이외에도 llama.cpp에 flash…
곧 출시되는 ollama의 신규 버전에는 드디어 CJK 문제가 해결되면서 CLI에서 문제 없이 한글 처리가 될 것으로 보이네요. 이외에도 llama.cpp에 flash...
0
0
2
읽기모드
4M
영문으로 소개 글을 하나 더 작성해서 LocalLLaMA 게시판 1등으로 올라갔습니다. 주말 동안 해킹한 결과 치고는 나쁘지 않은 성과네요 ^^
영문으로 소개 글을 하나 더 작성해서 LocalLLaMA 게시판 1등으로 올라갔습니다. 주말 동안 해킹한 결과 치고는 나쁘지 않은 성과네요 ^^
0
0
0
읽기모드
4M
5월은 종합소득세 신고의 달입니다.
5월은 종합소득세 신고의 달입니다.몇 년 전부터는 기타 소득까지 전부 사업 소득으로 잡혀서 세금이 제법 나오는 편인데, 다행히 홈택스가 좋아져서 마음만 먹으면 5분 만에도 신고를...
0
0
0
읽기모드
4M
평소에 책을 좋아하다 보니 트레바리 독서 모임에 종종 참여하는 편입니다. 이번에는 좋은 기회가 되어 클럽장으로 모임을 직접 운영하게 됐습니다. 주제는 책 제목과 비슷한 ‘비전공자도…
평소에 책을 좋아하다 보니 트레바리 독서 모임에 종종 참여하는 편입니다. 이번에는 좋은 기회가 되어 클럽장으로 모임을 직접 운영하게 됐습니다. 주제는 책 제목과 비슷한...
0
0
0
읽기모드
4M
간밤에 메타에서 드디어 라마3를 공개했습니다. 역시나 기대했던 대로 압도적인 스케일과 성능을 자랑하네요. 2만 4천 장의 GPU, 15T 학습 데이터, 1천만 건의 인스트럭션…
Meta Llama 3간밤에 메타에서 드디어 라마3를 공개했습니다. 역시나 기대했던 대로 압도적인 스케일과 성능을 자랑하네요. 2만 4천 장의 GPU, 15T 학습 데이터, 1천만...
0
0
0
읽기모드
4M
42dot LLM에 대한 소개 글이 회사 공식 블로그에 올라왔습니다. LLM의 구조가 어떻게 되어 있고, 어떻게 만들었는지 그 과정을 일반인도 이해할 수 있는 수준으로 매우 쉽게…
42dot LLM 1.3B42dot LLM에 대한 소개 글이 회사 공식 블로그에 올라왔습니다. LLM의 구조가 어떻게 되어 있고, 어떻게 만들었는지 그 과정을 일반인도 이해할 수...
0
0
0
읽기모드
5M
이번 GTC에서 발표한 GB200 NVL72 상세 스펙을 보면 GPU 72장을 하나로 묶어서 13.5TB까지 메모리 활용이 가능합니다. 기존에는 최대 80GB여서 GPT-4…
NVIDIA GB200 NVL72 Delivers Trillion-Parameter LLM Training and Real-Time Inference | NVIDIA...
0
0
0
읽기모드
5M
최근에 읽은 반도체 교양서 몇 권을 소개해봅니다.
최근에 읽은 반도체 교양서 몇 권을 소개해봅니다.그간 저는 소프트웨어만 해와서 반도체에 관해서는 일반인 보다도 훨씬 더 무지했습니다. 심지어 HBM이 뭔지도 얼마전에 알았을...
0
0
0
읽기모드
5M
The Era of 1-bit LLMs: All Large Language Models are in 1.58…
The Era of 1-bit LLMs: All Large Language Models are in 1.58...
0
0
0
읽기모드
5M
llama.cpp의 K-Quantization https://github.com/ggerganov/llama.cpp/pull/1684 을 따라서 구현해보다가 길을 잃고 😑 좀 더…
llama.cpp의 K-Quantization https://github.com/ggerganov/llama.cpp/pull/1684 을 따라서 구현해보다가 길을 잃고 😑 좀 더...
0
0
0
읽기모드
5M
현대자동차그룹의 후원으로 MIT 윤킴 교수님과 지난 1년여간 함께 진행해온 산학 연구 논문이 요즘 화제네요.
현대자동차그룹의 후원으로 MIT 윤킴 교수님과 지난 1년여간 함께 진행해온 산학 연구 논문이 요즘 화제네요.LQ-LoRA: Low-rank Plus Quantized Matrix...
0
0
0
읽기모드
About
Badge
Contact
Activity
Terms of service
Privacy Policy