travol_API / app.py
Segizu's picture
simple modelo
ea9bb38
raw
history blame
877 Bytes
from transformers import pipeline
import gradio as gr
import torch
# Cargar un modelo de texto de Hugging Face (puede ser de completado, traducci贸n, etc.)
dispositivo = 0 if torch.cuda.is_available() else -1
modelo = pipeline("text-generation", model="microsoft/Phi-4-multimodal-instruct", device=dispositivo) # Cambia el modelo si lo deseas
# Funci贸n para generar texto
def generar_texto(prompt):
resultado = modelo(prompt, max_length=100, do_sample=True)
return resultado[0]["generated_text"]
# Interfaz con Gradio
interfaz = gr.Interface(
fn=generar_texto,
inputs=gr.Textbox(label="Introduce tu texto"),
outputs=gr.Textbox(label="Texto generado"),
title="Generador de Texto con Hugging Face",
description="Escribe un prompt y el modelo generar谩 un texto basado en 茅l."
)
# Ejecutar la app
if __name__ == "__main__":
interfaz.launch()