doesnt work (with anythingllm/ollama) #wontwork

#15
by jjwsl - opened

안녕하세요.
anythingllm(ollama)를 이용해 사용해 보려고 했는데 뭔가 제대로 안 되는 듯 해서 리포트 드립니다.
exaone-deep:7.8b-q4_K_M 이랑 exaone-deep:7.8b (같은 건가요?) 사용해서 두번 테스트 해 봤습니다.
이상한 대답을 출력하다 끝나네요. 아래 스크린샷 참고 부탁드립니다.
감사합니다.

Hello,
I can't get the model to answer simple questions.
Maybe it is ollama/anythingllm incompatibility? However I doubt so since other models work fine.

i get:
image.png
and eventually:

image.png

I was expecting more in line of this:

image.png
Thanks.

Your need to confirm your account before you can post a new comment.

Sign up or log in to comment