/users
/posts
/slides
/apps
/books
mysetting
/users
/posts
/slides
/apps
/books
2025-07-19 01:18
[ollama] ollama를 이용하여 로컬에서 llm 모델을 구동해보자
안녕하세요 멍개입니다. 지난번에 lm studio를 통해 OpenAI와 호환되는 LLM 서버를 구동하는 방법을 알아보았습니다. 이번 포스트에서는 오픈소스 기반인 Ollama를 다뤄보겠습니다. ollama의 핵심 컨셉은 도커와 유사...
더보기
인공지능 활용
+ 더보기
삽질하는 멍개씨
0
0
0
댓글
댓글 달기
About
Badge
Contact
Activity
Terms of service
Privacy Policy