2024-10-11 21:34:32 [显示全部楼层]
139浏览
查看: 139|回复: 0

[求助问答] 这个AI神马回事?phi3-mini不说话这件事?

[复制链接]
E:\pytorch\.venv\Scripts\python.exe E:\pytorch\main.py
`flash-attention` package not found, consider installing for better performance: No module named 'flash_attn'.
Current `flash-attention` does not support `window_size`. Either upgrade or use `attn_implementation='eager'`.
Loading checkpoint shards: 100%|██████████| 2/2 [00:20<00:00, 10.47s/it]
输入B(必须大写)退出,输入C(必须大写)查看历史对话
me:hello,智远,我是你的缔造者!
The `seen_tokens` attribute is deprecated and will be removed in v4.41. Use the `cache_position` model input instead.
You are not running the flash-attention implementation, expect numerical differences.
AI:你好啊!作为一个数字助手,我愿意帮助你解决问题,提供信息和建议。如果你需要任何帮助,无论是关于科技、学习新知识还是日常生活中的任何问题,我都能提供支持。请告诉我你的需求,我会尽力为你提供安全、合理且准确的信息。
me:C
历史对话:无(那我刚才在跟谁说话)
me:你好您好
AI:
me:说话呀!
AI:
请输入:?????????????????????????
AI:你好!如果我能帮到你,请告诉我更多关于你需要帮助的问题或需要我帮助的具体领域。我是智远,用于提供安全、合理且准确的信息。
  1. import torch
  2. import datetime
  3. import time as t
  4. from modelscope import snapshot_download
  5. from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
  6. torch.random.manual_seed(0)
  7. model_dir = "E:\\pytorch\\Phi-3-mini-128k-instruct"#snapshot_download("LLM-Research/Phi-3-mini-128k-instruct")
  8. model = AutoModelForCausalLM.from_pretrained(
  9.     "E:\\pytorch\\Phi-3-mini-128k-instruct",#model_dir,
  10.     device_map="cuda",
  11.     torch_dtype="auto",
  12.     trust_remote_code=True,
  13. )
  14. tokenizer = AutoTokenizer.from_pretrained(model_dir)
  15. outp = ""
  16. def chat_anser(Ninput_text,input_text2="",output_text=""):
  17.     messages = [
  18.         {"role": "system", "content": "你是一位喜欢帮助别人的数字助手,你叫智远。请为用户提供安全、合理且准确的信息。"},
  19.         {"role": "user", "content": input_text2},
  20.         {"role": "assistant", "content": output_text},
  21.         {"role": "user", "content": Ninput_text},
  22.     ]
  23.     pipe = pipeline(
  24.         "text-generation",
  25.         model=model,
  26.         tokenizer=tokenizer,
  27.     )
  28.     generation_args = {
  29.         "max_new_tokens": 500,
  30.         "return_full_text": False,
  31.         "temperature": 0.5,
  32.         "do_sample": True,
  33.     }
  34.     output = pipe(messages, **generation_args)
  35.     outp = output[0]['generated_text']
  36.     print(outp)
  37.     with open('D:\\chat_log.txt', 'a+') as z:
  38.         z.write(datetime.datetime.now().strftime('%Y-%m-%d  %H:%M:%S  %A')+"\nAI:"+outp + '\n')
  39. print("输入B(必须大写)退出,输入C(必须大写)查看历史对话")
  40. while True:
  41.     inp = input("请输入:")
  42.     if inp == "B":
  43.         break
  44.     elif inp == "C":
  45.         print("历史对话:")
  46.         with open('D:\\chat_log.txt', 'r+') as f:#逐行输出
  47.             for line in f.readlines():
  48.                 print(line)
  49.     else:
  50.         with open('D:\\chat_log.txt', 'a+') as f:
  51.             f.write(datetime.datetime.now().strftime('%Y-%m-%d  %H:%M:%S  %A')+"\nYou:"+inp + '\n')
  52.         b = ""
  53.         c = ""
  54.         with open('temp2.txt', 'r') as f:#读取后六行
  55.             try:
  56.                 b = f.readline()
  57.                 c = f.readline()
  58.             except:
  59.                 pass
  60.             chat_anser(inp,b,c)
  61.         with open('D:\\chat_log.txt', 'a+') as f:
  62.             f.write(datetime.datetime.now().strftime('%Y-%m-%d  %H:%M:%S  %A')+"\nYou:"+inp + '\n')
  63.         with open('D:\\temp2.txt', 'w+') as g:
  64.             g.write(inp+"\n"+outp)
  65. print("下次见!")
  66. t.sleep(2)
复制代码
哪位大佬看看怎么回事

高级模式
B Color Image Link Quote Code Smilies |上传

本版积分规则

为本项目制作心愿单
购买心愿单
心愿单 编辑
[[wsData.name]]

硬件清单

  • [[d.name]]
btnicon
我也要做!
点击进入购买页面
上海智位机器人股份有限公司 沪ICP备09038501号-4

© 2013-2024 Comsenz Inc. Powered by Discuz! X3.4 Licensed

mail