from flask import Flask, request, jsonify from huggingface_hub import InferenceClient app = Flask(__name__) client = InferenceClient("HuggingFaceH4/zephyr-7b-beta") DEFAULT_MAX_TOKENS = 512 DEFAULT_TEMPERATURE = 0.7 DEFAULT_TOP_P = 0.95 def generate_journal_suggestion(current_page): suggestion_prompt = ( f"""Pe baza înregistrării din jurnal: '{current_page}', generează o singură întrebare pe care utilizatorul ar putea să și-o pună în jurnalul său. Întrebarea ar trebui să încurajeze reflecția personală mai profundă, explorarea sentimentelor sau clarificarea obiectivelor.""" ) suggestion_response = "" for message in client.chat_completion( [{"role": "user", "content": suggestion_prompt}], max_tokens=150, stream=True, temperature=DEFAULT_TEMPERATURE, top_p=DEFAULT_TOP_P, ): token = message.choices[0].delta.content suggestion_response += token return suggestion_response @app.route("/", methods=["POST", "GET"]) def home(): return "Hi!" @app.route("/chat", methods=["POST"]) def chat(): try: data = request.json message = data.get("message", "") system_message = data.get("system_message", "You are a friendly chatbot.") journal_page = data.get("journal_page", "") suggestion = "" if journal_page: suggestion = generate_journal_suggestion(journal_page) return jsonify({"journal_suggestion": suggestion}) except Exception as e: return jsonify({"error": str(e)}), 500 if __name__ == "__main__": app.run(debug=True)