RRoy 发表于 2024-6-27 17:06:32

Jetson Copilot测评:基于Jetson Orin 64GB探索Llama3及RAG应用

本帖最后由 RRoy 于 2024-7-4 15:38 编辑

前言
最新发布的Jetson Copilot已经引起了广泛关注,通过本文基于Jetson Orin 64GB平台的测评,我们将全面了解Jetson Copilot的功能和性能,以及其在实际应用中的潜力。我们将指导您完成从安装到启动的每一步,并体验其与llama3 8b模型的互动,以及如何利用预先构建的索引进行高效提问。

安装与启动
为了开始使用Jetson Copilot,首先需要从GitHub克隆其代码仓库:
git clone https://github.com/NVIDIA-AI-IOT/jetson-copilot/
cd jetson-copilot
./setup_environment.sh

./launch_jetson_copilot.sh
执行上述命令后,Jetson Copilot将在Docker容器内启动Ollama服务器和Streamlit应用程序。通过控制台输出的URL,您可以访问Jetson上托管的Web应用程序。

在Jetson上,您可以使用Web浏览器打开本地URL(http://localhost:8501)来访问应用程序。如果您在与Jetson连接的同一网络上使用PC,也可以通过网络URL访问。


和llama3 8b互动(Jetson Orin 启用50W功耗模式)
Jetson Copilot暂时只支持llama3 8b模型,由于加载模型,第一次对话速度较慢,之后的对话速度大约在13 tokens/s。

演示视频:

https://dfrobot.loll.cc/video/simplescreenrecorder-2024-06-26_14.49.42.mp4

RAG
使用预先构建的索引向 Copilot 提问相关问题
Copilot的示例为一个Jetson Orin的操作文档,通过演示视频可见,Copilot从索引文档中搜索和生成内容的时间大约为26秒。

演示视频:

https://dfrobot.loll.cc/video/simplescreenrecorder-2024-06-26_14.50.52.mp4

根据您的文档建立自己的索引并提问
将DFRobot商城的LattePanda Mu产品网页内容作为索引文档使用:



此外,Jetson Copilot暂时只支持mxbai-embed-large嵌入模型。mxbai-embed-large是一个先进的嵌入模型,截至2024年3月,它在MTEB(大规模文本嵌入基准测试)上取得了最佳性能,超过了Bert-large大小的模型。它使用了对比训练和AnglE损失函数进行微调,使其能够适应广泛的题材和领域,适合于各种实际应用和检索增强生成(RAG)用例。

在处理数据时,Jetson Copilot使用Chunk size将数据集分割成小块,并使用Chunk overlap来确保分割的数据块之间保持一定的重叠,以减少边缘效应。



生成的文件夹会在jetson-copilot/index文件夹下:





测试用多条网址仍然可以生成索引文档:



演示视频:

https://dfrobot.loll.cc/video/simplescreenrecorder-2024-06-26_15.52.16.mp4

您还可以选择使用OpenAI的嵌入模型来生成索引文件:




结论
Jetson Copilot,基于NVIDIA Jetson Orin的先进工具,提供了一种简便的命令行启动方式。

Llama3探索场景:
目前,它专为llama3 8b模型优化,确保了流畅的对话体验,每秒可处理大约13个token。

使用llama3构建的RAG应用:
此外,它还支持采用mxbai-embed-large模型进行高效的索引创建。在数据处理方面,用户可以灵活调整数据块的Chunk size和Chunk overlap,以优化数据分割并减少信息丢失。Jetson Copilot还允许用户利用OpenAI的嵌入模型来构建索引文件,从而进一步丰富其功能。从索引文档中检索和生成内容的过程大约需时26秒,实际输出的token速度也为13 tokens/s。Jetson Copilot是一款功能全面、操作简便的工具,非常适合于多样化的实际应用场景以及检索增强生成(RAG)任务。

不同框架表现比较
在使用MLC/TVM框架的情况下,不同大型语言模型在Jetson Orin上的表现也有所不同,可以看出MLC/TVM框架下使用Llama3-8B模型在Jetson AGX Orin上文本生成率达到40 tokens/s。
https://wq1l8p5rx7.feishu.cn/space/api/box/stream/download/asynccode/?code=YzE1MmRiODQwMGU5NWY5Y2FiMjRlMzEyODZkMjMyY2RfWmFnMjcza2ZxMlZPc3I2Y2hCc1N6d1ZCelFOQllZY2ZfVG9rZW46UXdMUWI5aGcxb01QekF4UldvUWNxaGtWbmVjXzE3MjAwNzg2MjU6MTcyMDA4MjIyNV9WNA
SLM text generation rate


常见问题解决
1、无法打开localhost,解决方法:给docker权限
sudo usermod -aG docker root
sudo reboot

2、网络报错,解决方法:重新联网并启动



参考
1、代码仓库:https://github.com/NVIDIA-AI-IOT/jetson-copilot/











细颗粒物 发表于 2024-8-12 18:54:21

厉害11111111111111
页: [1]
查看完整版本: Jetson Copilot测评:基于Jetson Orin 64GB探索Llama3及RAG应用