Deepseek-r1-finetuned-drone-safty

基于 DeepSeek-R1-Distill-Qwen-1.5B 微调的无人机飞行安全问答专家测试模型

这是一个基于 DeepSeek-R1-Distill-Qwen-1.5B,使用 PEFT LoRA 进行微调的语言模型。它的主要特点是能够针对无人机飞行安全监控和风险相关问题,生成包含思考过程(以 <think> 标签标识)和最终答案的形式化的回复。

微调数据集来源: (GabrielCheng/Drone-flight-monitoring-reasoning-SFT)

注:微调数据集中只有问答文本数据,没有实时的飞行轨迹、环境信息等数据。所以模型不具备在真实动态场景中的实用性。仅用于展示形式化的微调训练的效果。

模型调用示例

from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline

model_id = "GabrielCheng/Deepseek-r1-finetuned-drone-safty"
model = AutoModelForCausalLM.from_pretrained(model_id).to("cuda")
tokenizer = AutoTokenizer.from_pretrained(model_id)

pipe = pipeline("text-generation", model=model, tokenizer=tokenizer)

question = "在低能见度环境下,如何利用飞行轨迹数据综合评估无人机的安全风险?"

prompt = f"""以下指令描述了一项任务,并附带了相关背景信息。
请用中文编写一个回复,以恰当地完成此任务请求。
在回答之前,请仔细思考问题,并创建一个逻辑连贯的思考过程,以确保回答准确无误。

### 指令:
你是一位无人机飞行安全监测专家。
请回答以下关于无人机飞行的安全和风险相关问题。

### 问题:
{question}

### 回答:
<think>""" 

response = pipe(prompt, max_length=1000, num_return_sequences=1, eos_token_id=tokenizer.eos_token_id)  
print(response[0]['generated_text'])
Downloads last month
29
Safetensors
Model size
1.78B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for GabrielCheng/Deepseek-r1-finetuned-drone-safty

Adapter
(71)
this model

Dataset used to train GabrielCheng/Deepseek-r1-finetuned-drone-safty