yuntop 发表于 2024-3-19 17:44:48

Nvida推出了一个本地化的GPT

ChatRTX可以把自己本地机器上的内容(文档、笔记或其他数据)训练成 GPT 大型语言模型 (LLM)
这样你可以通过聊天机器人,快速获得基于本地文档的答案。
所有操作都在本地运行,因此速度快,而且比远程更安全,内容可以个性化。


可惜显卡需要NVIDIA GeForce RTX 30/40系列。我的台式机年前买的是RTX 2060。

我等等看其它用户看看好不好用,如果试用不错,我就升级下显卡。

这个对有海量语料库的,很是方便



gongqi 发表于 2024-3-19 18:36:32

如果这个可以,那就方便多了。可以快速生成类似指定风格的东西。
可惜,一直用笔记本,显卡可能通不过。

xiazaiall 发表于 2024-3-19 19:26:41

只有显卡有要求,其他没要求吗?我觉得只对本地文档进行训练,应该没什么好的结果出来吧。
页: [1]
查看完整版本: Nvida推出了一个本地化的GPT