Nexa.ai에서 제공하는 로컬 LLM 구동 인터페이스입니다. 스크린샷/스캔, 사진, 파일 등을 참조해 답을 해줄 수 있기도 하고요. NPU가속을 지원한다는 게 장점이지 않나 싶네요. 그리고 모델 로딩/언로딩하는 시간 없이 쾌적하기도 하고요.
**
기본 모델의 응답성도 괜찮고, 컨텍스트 크기도 커서 이것저것 횡설수설하는 경우도 적습니다. 그냥 클릭클릭해서 모델 받고 사용하기에도 충분히 괜찮은 앱이라 생각이 되네요. 글카 가격이랑 램 가격만 좀 떨어지면 좋겠어요....
***
오 이거 텍스트 파일이랑 이런 거 인덱싱하면 이것저것 질문하면 답변해줍니다. 이거 좋아요... 옛날에 받아두거나 지난 회사서 일할 때 정리해둔 자료들 읽혀서 해봤는데 NotebookLM 비슷하게 쓰는 느낌으로 쓸 수 있네요=)