英伟达Chat with RTX:本地AI部署深度探究


Chat with RTX降低了部署门槛,而且支持本地ai部署,可避开监管,类似于一个不联网的图书馆,能够对文档进行索引和总结;它在一些特定场景中具有实际用途,例如在CTF线下断网比赛中,或者进行文档总结(OSINT)时能够发挥作用。

英伟达Chat with RTX:本地AI部署深度探究

硬件要求

使用Chat with RTX,首先电脑配置得满足要求,需要一片RTX 30或RTX 40系列8GB显存以上的显卡、16GB以上的内存、Windows11系统、535.11以上的显卡驱动、35GB的存储空间。

image-20240311003557871

笔记本也可以跑,但是如果不是RTX的显卡 是不符合硬件要求的, 安装的第一步就会被卡住。

image-20240311155147036

文件下载链接

文件很大 35GB,存储空间要充足。

https://www.nvidia.cn/ai-on-rtx/chat-with-rtx-generative-ai/

安装

Chat With RTX并非是英伟达自己搞了个大语言模型(LLM)。

它背后所依靠的仍是两款开源LLM,即Mistral和Llama 2,用户在运行的时候可以根据喜好自行选择。下载所有必要文件会占用相当大的存储空间 ——50GB 到 100GB,具体取决于所选模型。

image-20240311002752843

安装完LLM大模型之后,就可以在Chat With RTX中上传本地文件。支持的文件类型包括txt,.pdf,.doc/.docx和.xml。

亮点

Chat with RTX在Windows RTX pc和工作站上本地运行,因此提供的结果很快-并且用户的数据保留在设备上。与依赖基于云的LLM服务不同,Chat with RTX让用户在本地PC上处理敏感数据,而无需与第三方共享或连接互联网。(对于pdf可投喂+本地隐私 亮点)

每个人的CHAT With RTX都是不同的,主要区别与你给AI投放的资料,通过移入自己的文档、笔记、视频或其他数据,CHATWith RTX会通过检索资料内容,快速给予你合适的答案,哪怕是资料不相关的内容,AI也会回答你相对合适的答案。

Chat With RTX另一个亮点功能,就是可以根据在线视频做回答。可以把一个油管视频的链接“投喂”给它,然后向Chat With RTX提问。

实测

缺点

Chat with RTX存在一些缺点,其中一个显著的问题是在搜索视频功能中,测试中发现它竟然下载了与查询无关的视频文字记录,导致搜索结果不准确。

另外,如果向Chat with RTX“投喂”大量文件,比如让其为25000个文档编制索引,系统会直接崩溃,表现为“罢工”。

此外,该工具在处理上下文方面存在不足,无法在后续问题中建立基于先前问题的上下文。

另一个问题是下载Chat with RTX需要较长时间,因为文件大小达到35GB。工具的中文支持度不好。

Chat with RTX在处理人类感觉相似但表达方式不同的问题时表现差异较大,机器理解能力有限。

最后,该工具的回答是基于其中某一份资料的内容,无法整合所有资料内容来全面回答提问,存在信息孤岛的问题。

优点

与需要联网使用的ChatGPT等聊天机器人不同,Chat with RTX能够在本地运行,支持检索、分析保存在电脑上的文件,包括文本、PDF、.doc、.docx 和 .xml 等格式。比如,在搜索电脑上的文档时,Chat with RTX展现出了出色的速度和精准度。此外,Chat with RTX在总结方面和保障安全性也表现出较高的水平。

技术解构

英伟达的Chat with RTXAI利用本地RTX显卡运行,借助检索增强生成(RAG)模型、NVIDIA TensorRT以及NVIDIA RTX等技术实现其功能。这一解决方案的优势在于本地化部署,充分利用了RTX显卡的计算能力。其中,RAG模型通过检索增强生成的方式,结合检索和生成两种技术,为用户提供更精准的信息响应。另外,NVIDIA TensorRT是一款用于高性能深度学习推理的软件,为Chat with RTXAI提供了加速计算的支持,进一步提升了系统的性能和效率。

整体而言,英伟达的Chat with RTXAI通过这些技术组合,为用户提供了更快速、更可靠的文本处理和信息检索体验。

改善 :加中文LLM大模型

NVIDIA Chat with RTX 天生是英文模型,如果要用中文资料进行本地训练,为其添加中文 LLM 大模型支持即可。

例如下面这个教程:

【为 NVIDIA Chat with RTX 添加中文 LLM】https://www.bilibili.com/video/BV1DK421b7JX?vd_source=096b7bc1564cfe7dff4f08025c3f4710

思考与总结:

Chat with RTX降低了部署门槛,而且支持本地ai部署,可避开监管。但它默认的模型是检索增强生成RAG,这个模型太小了,不能记住上下文,没有思考/逻辑的能力,重点只在于文档检索。

总体而言,英伟达的AI更适用于个人私有文档检索,类似于一个不联网的图书馆,能够对文档进行索引和总结。

用处探究

Chat with RTX在一些特定场景中具有实际用途,例如在CTF线下断网比赛中,或者进行文档总结(OSINT)时能够发挥作用。

存在问题:最高支持文档上限仍有待考验

有个例子: Chat with RTX为25000个文档编制索引 就崩溃了,具体支持的上限是多少,就无法确定了,有待检验 。这个AI还在初级水平,具体支持的上限尚不明确,需要进一步测试和验证。这也是用户在个人使用过程中需要注意的问题,可能需要根据具体需求进行优化和调整。

参考链接:

https://mp.weixin.qq.com/s/N47uQTe5ndyAwSOBKnsNaw

https://mp.weixin.qq.com/s/H_EpfOE7srNoau6TPJySTw


文章作者: highgerms
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 highgerms !
 本篇
英伟达Chat with RTX:本地AI部署深度探究 英伟达Chat with RTX:本地AI部署深度探究
Chat with RTX降低了部署门槛,而且支持本地ai部署,可避开监管,类似于一个不联网的图书馆,能够对文档进行索引和总结;它在一些特定场景中具有实际用途,例如在CTF线下断网比赛中,或者进行文档总结(OSINT)时能够发挥作用。😎😎😎
2024-03-10
下一篇 
某舆情分析系统调研 某舆情分析系统调研
舆情分析系统能够迅速捕捉到负面信息或潜在的危机信号,帮助公司及早发现问题并采取适当的危机处理措施,以减轻潜在损害。😲😲😲
  目录