doesnt work (with anythingllm/ollama) #wontwork
#15
by
jjwsl
- opened
안녕하세요.
anythingllm(ollama)를 이용해 사용해 보려고 했는데 뭔가 제대로 안 되는 듯 해서 리포트 드립니다.
exaone-deep:7.8b-q4_K_M 이랑 exaone-deep:7.8b (같은 건가요?) 사용해서 두번 테스트 해 봤습니다.
이상한 대답을 출력하다 끝나네요. 아래 스크린샷 참고 부탁드립니다.
감사합니다.
Hello,
I can't get the model to answer simple questions.
Maybe it is ollama/anythingllm incompatibility? However I doubt so since other models work fine.
I was expecting more in line of this: