E:\pytorch\.venv\Scripts\python.exe E:\pytorch\main.py
`flash-attention` package not found, consider installing for better performance: No module named 'flash_attn'.
Current `flash-attention` does not support `window_size`. Either upgrade or use `attn_implementation='eager'`.
Loading checkpoint shards: 100%|██████████| 2/2 [00:20<00:00, 10.47s/it]
输入B(必须大写)退出,输入C(必须大写)查看历史对话
me:hello,智远,我是你的缔造者!
The `seen_tokens` attribute is deprecated and will be removed in v4.41. Use the `cache_position` model input instead.
You are not running the flash-attention implementation, expect numerical differences.
AI:你好啊!作为一个数字助手,我愿意帮助你解决问题,提供信息和建议。如果你需要任何帮助,无论是关于科技、学习新知识还是日常生活中的任何问题,我都能提供支持。请告诉我你的需求,我会尽力为你提供安全、合理且准确的信息。
me:C
历史对话:无(那我刚才在跟谁说话)
me:你好您好
AI:
me:说话呀!
AI:
请输入:?????????????????????????
AI:你好!如果我能帮到你,请告诉我更多关于你需要帮助的问题或需要我帮助的具体领域。我是智远,用于提供安全、合理且准确的信息。
import torch
import datetime
import time as t
from modelscope import snapshot_download
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline