srbmihaicode commited on
Commit
5384fa5
·
verified ·
1 Parent(s): 4cb7b20

Changed to llama

Browse files
Files changed (1) hide show
  1. app.py +10 -23
app.py CHANGED
@@ -1,8 +1,7 @@
1
  from flask import Flask, request, jsonify
2
- from huggingface_hub import InferenceClient
 
3
  app = Flask(__name__)
4
- client = InferenceClient("meta-llama/Llama-3.1-8B-Instruct")
5
- DEFAULT_MAX_TOKENS = 512
6
  DEFAULT_TEMPERATURE = 0.7
7
  DEFAULT_TOP_P = 0.95
8
 
@@ -12,30 +11,18 @@ def generate_journal_suggestion(current_page):
12
  f"""Pe baza înregistrării din jurnal: '{current_page}', generează o singură întrebare pe care utilizatorul ar putea să și-o pună într-un jurnal.
13
  Întrebarea ar trebui să încurajeze reflecția personală mai profundă, explorarea sentimentelor sau clarificarea obiectivelor."""
14
  )
15
- # logger.info("Generated suggestion prompt: %s", suggestion_prompt)
16
-
17
- suggestion_response = ""
18
- response_stream = client.chat_completion(
19
- [
20
- {"role": "user", "content": suggestion_prompt}
21
- ],
22
- max_tokens=150,
23
- stream=True,
24
- temperature=DEFAULT_TEMPERATURE,
25
- top_p=DEFAULT_TOP_P,
26
  )
27
- # logger.info("Response stream received.")
28
-
29
- for message in response_stream:
30
- logger.info("Message received: %s", message)
31
- token = message.choices[0].delta.content
32
- suggestion_response += token
33
-
34
- return suggestion_response
35
-
36
  except Exception as e:
37
  return f"Error: {str(e)}"
38
 
 
39
  @app.route("/", methods=["POST", "GET"])
40
  def home():
41
  return "Hi!"
 
1
  from flask import Flask, request, jsonify
2
+ import ollama
3
+
4
  app = Flask(__name__)
 
 
5
  DEFAULT_TEMPERATURE = 0.7
6
  DEFAULT_TOP_P = 0.95
7
 
 
11
  f"""Pe baza înregistrării din jurnal: '{current_page}', generează o singură întrebare pe care utilizatorul ar putea să și-o pună într-un jurnal.
12
  Întrebarea ar trebui să încurajeze reflecția personală mai profundă, explorarea sentimentelor sau clarificarea obiectivelor."""
13
  )
14
+
15
+ response = ollama.chat(
16
+ model="llama3",
17
+ messages=[{"role": "user", "content": suggestion_prompt}],
18
+ options={"temperature": DEFAULT_TEMPERATURE, "top_p": DEFAULT_TOP_P}
 
 
 
 
 
 
19
  )
20
+
21
+ return response["message"]["content"]
 
 
 
 
 
 
 
22
  except Exception as e:
23
  return f"Error: {str(e)}"
24
 
25
+
26
  @app.route("/", methods=["POST", "GET"])
27
  def home():
28
  return "Hi!"