Nvida推出了一个本地化的GPT
ChatRTX可以把自己本地机器上的内容(文档、笔记或其他数据)训练成 GPT 大型语言模型 (LLM)这样你可以通过聊天机器人,快速获得基于本地文档的答案。
所有操作都在本地运行,因此速度快,而且比远程更安全,内容可以个性化。
可惜显卡需要NVIDIA GeForce RTX 30/40系列。我的台式机年前买的是RTX 2060。
我等等看其它用户看看好不好用,如果试用不错,我就升级下显卡。
这个对有海量语料库的,很是方便
如果这个可以,那就方便多了。可以快速生成类似指定风格的东西。
可惜,一直用笔记本,显卡可能通不过。 只有显卡有要求,其他没要求吗?我觉得只对本地文档进行训练,应该没什么好的结果出来吧。
页:
[1]