nativemind
Nativemind - 로컬 LLM 기반의 브라우저 확장
Nativemind - 로컬 LLM 기반의 브라우저 확장
2025.07.11Ollama 로컬 LLM을 사용해 브라우저 확장 형식으로 AI기능을 제공하는 앱입니다. 웹페이지 여기. 깃헙 여기고 기본적인 ollama 사용법만 알면 모델 하나 받아서 쉽게 설정할 수 있습니다. 다만 모델 크기가 큰 걸 사용하면 시스템에 따라 느린 속도는 당연하기도 하니 필요에 따라 사용하시면 되지 않나 싶습니다. 확장 설치하고 ollama 페이지에서 모델 다운로드도 되니까 사용해 보도록 합시다. 비교적 낮은 사양에서도 구동되는 개인적인 추천은 qwen3에요...**GPU 메모리 사용률이 오르니 완전 종료는 ollama를 종료하는게 좋고, 게임하면서 쓰기는 어렵습니다.