对ai的抗拒
翻译上碰到一些疑难问题,发到老外的论坛提问,基本上都得到了满意的回复。忽然想到也可以问问ChatGPT,于是问了,回答似乎也靠谱。
但是知道ChatGPT的有些回答也会出错,所以到论坛上发了个帖子,贴上ChatGPT的回答,问是否同意。
结果马上有人downvote,还有人评论说不欢迎问了ChatGPT后再求确认,还给了个论坛的链接。
看了下,发现那里的人很抗拒ChatGPT或类似工具。大意是ChatGPT只能给出似是而非的答案,而且没有智能可言,blah, blah。
我不太理解为何对ai如此抗拒。没错,ChatGPT远非完美,但不可否认,它也确实能提供很多有用的东西。我觉得对于ChatGPT,最好是当作一本有参考价值的百科全书,不完全依赖它,信任它,但也不可否定它的参考价值。
事实上,ChatGPT已经通过了图灵测试。也就是说,ChatGPT的回答,人已经难以分辨出是人回答的,还是机器回答的。所以,如果我不明说是从ChatGPT上查来的,也很可能没有人能分辨出这是来自ChatGPT。既然如此,又何必神经过敏,看见ChatGPT就排斥?
毕竟,有个东西做参考,总比什么都没有好。比如我常常看了别人写的东西,有了启发,才会思考一些原来想不到的东西。ChatGPT也是如此,它的回答不一定对,但至少可以帮助你思考,更容易找出更好的答案。
也许,排斥ChatGPT的人,多少都有点古板,对人工智能存在偏见,看不到人工智能大量应用的现实。
个人使用CHATGPT感受最大的问题是他会编,而不会说不知道。担心的是不明所以的人把它为了自圆其说编的内容作引证。
怕的是互联网信息的准确性已经被SEO污染了一波,AI再基于垃圾信息编造内容再来一波污染。 用ChatGPT写过一首诗,感觉不错的。
风(ChatGPT)
风吹过山峰与海洋, 吹散了花瓣和树叶, 它不停地跑,不累也不忙, 用它柔软的手指轻抚着大地。
风的声音像是一首歌, 唤醒了大地上所有生命, 在它的怀抱里,万物都舒展开来, 伸出手臂去拥抱这美好的世界。
风飘逸而自由, 从未被束缚或困住, 它是自然之间最美妙的奇迹, 我们应该珍惜并感恩于它。 对ai的抗拒是很自然的。所有新生事物都会遭遇抗拒。
而且,往往是中上等水平的人,对新生事物最抗拒,原因是因为害怕和愤怒。害怕自己被取代,愤怒自己的学习成本都沉没了。
当然,还有因为情怀而抗拒的,例如孔子。
其实,ai只是超过了中等水平或中上水平的人。ai永远不会超过顶级水平的人,只要没有明确的规则。ai超过了李世石和柯洁,但永远不可能超过莫言和莫泊桑。3楼那首诗就是个证明,连三流都算不上。 下面的两个图是去年3月份chatgpt的回答,楼主可以再问一遍,看看它进步了多少。
https://www.readfree.net/bbs/forum.php?mod=attachment&aid=NTIyMjIyfGE5ZWIyYWNmfDE3MDk3MTAwMzN8MzI2MTF8NTkwNTkzMA%3D%3D&noupdate=yes
https://www.readfree.net/bbs/forum.php?mod=attachment&aid=NTIyMjIxfDQ2YzA0NWQ3fDE3MDk3MTAwMzN8MzI2MTF8NTkwNTkzMA%3D%3D&noupdate=yes
本帖最后由 小可拉好 于 2024-3-6 15:47 编辑
meibf 发表于 2024-3-6 15:33
下面的两个图是去年3月份chatgpt的回答,楼主可以再问一遍,看看它进步了多少。
拿AI开玩笑,不地道。
chatgpt毕竟目前不是中文语料为中心。
这个语料如果有问题,能得到正确答案吗?
不是抗拒而是不信任,chatgpt爱说谎和编造。 许春梅 发表于 2024-3-6 20:27
不是抗拒而是不信任,chatgpt爱说谎和编造。
chatgpt确实有编造的现象。比如看过新闻,说某律师让chatgpt(或什么别的ai)找案例,结果找出来的案例根本不存在。所以不能依赖和完全信任chatgpt,这个是对的。
但说到说谎和编造,其实人也一样的。甚至人更恶劣,明知是假,还要为了某种目的有意说谎,编造。
chatgpt起码可以当作一本有一定价值的辞书来用。若是全然否定它的价值,那就没必要了
许春梅 发表于 2024-3-6 20:27
不是抗拒而是不信任,chatgpt爱说谎和编造。
你不要用来查太深奥的信息,就普通信息来说,很可靠。
我给你贴一个生活类问题。我的Linux服务器突然硬盘空间少了很多,问ChatGPT,按照提示,3分钟解决问题
agent124 发表于 2024-3-6 20:41
chatgpt确实有编造的现象。比如看过新闻,说某律师让chatgpt(或什么别的ai)找案例,结果找出来的案例 ...
你就把它当一个只有高中水平,但是任劳任怨的秘书来看,就非常好用
让它帮你写简单的程序代码,撰写文书,查询生活类知识,给小朋友出题目,用语音功能学习外语...
我现在每个月支付24美金,让我每个月支付124美金我也愿意,这个价格你请不到一个高中水平的私人秘书
你非要和它讨论一个研究生才能讨论的问题,这是没用对工具。
本帖最后由 agent124 于 2024-3-6 20:54 编辑
yuntop 发表于 2024-3-6 20:42
你不要用来查太深奥的信息,就普通信息来说,很可靠。
我给你贴一个生活类问题。我的Linux服务器突然硬 ...
chatGPT也会出错,不能依赖它。比如我曾经为了测试chatGPT的能力,问了它几个编程问题,有的问题,比如“如何检测pdf里的回车?” chatGPT给出了完全错误的回答。
而有的问题,我用google查不到,chatGPT倒是给出了不错的思路。
chatGPT的问题主要是虽然人们理性上知道不能依赖它,但由于它可以节省我们的大量时间精力,而它给出的答案,大部分情况下又确实是对的,那么久而久之,人们就不会不自觉地依赖,信赖它。这是人偷懒的天性。问题是如果某个重要问题,它偏偏给出了错误答案,就可能造成不好的后果。但人们如果已经习惯于依赖它,到那时候,就不会想到去怀疑一下,验证一下了。
agent124 发表于 2024-3-6 20:53
chatGPT也会出错,不能依赖它。比如我曾经为了测试chatGPT的能力,问了它几个编程问题,有的问题,比如“ ...
当然,别说ChatGPT了,Nature, Science这样的顶级科学期刊,一样也有撤稿的
谈可靠和不可靠,都是相对的。
看你用什么场合,不同场合对精确度要求不同。比如生活中我经常用Wikipeddia,但是我自己做研究从来不会用它
ChatGPT也一样,都是在生活场景中用,出错了问题不大。
比如学生让我写推荐信,我直接让GPT写,1分钟搞定。写完后我看一眼,哦,那边有不对劲的,改一下,一共5分钟。
比我自己花20分钟写省了15分钟,这就是ChatGPT的意义。好用并不是说它不出错,而是效率高
yuntop 发表于 2024-3-6 21:00
当然,别说ChatGPT了,Nature, Science这样的顶级科学期刊,一样也有撤稿的
谈可靠和不可靠,都是相对的 ...
是的,严格限制chatGPT的适用范围,可以解决不可靠的问题。
但问题是,人天生喜欢偷懒。既然chatGPT可以大幅提高效率,很自然就会想到扩大chatGPT的应用范围,这样就容易失去控制。这就是人工智能的主要危险,在我看来。
agent124 发表于 2024-3-6 21:07
是的,严格限制chatGPT的适用范围,可以解决不可靠的问题。
但问题是,人天生喜欢偷懒。既然chatGPT可以 ...
规矩立好了,执行得当,就没问题。
ChatGPT不过是人类发明的一个新工具,过去有、今后也会产生很多这样的新工具。
用工具偷懒作弊的诱惑从来都有,但工具从来不是人类的问题,如何规范使用是问题。
欧美大部分的高校,现在对如何规范使用ChatGPT都已经有非常详细的规定了。
法律也在跟上,一些国家比较保守,一些比较开放。
科技是把双刃剑 yuntop 发表于 2024-3-6 21:14
规矩立好了,执行得当,就没问题。
ChatGPT不过是人类发明的一个新工具,过去有、今后也会产生很多这样 ...
规则也不好制订。太严了,损失效率,太宽了,又容易出事故。且不说人可以无视规则,明知故犯,(这点机器倒是比人强)。
无论如何,要清醒地认识到ai或其他工具可能带来的问题,而不是let it take care of itself。而且,今天感到舒适无风险,明天就可能情况变了,有风险了。
欧美学校如何规范chatGPT使用的具体情况不清楚。以前好像看到说有的学校直接禁用。也许有的允许用chatGPT查资料,但不允许用它写论文。感觉这个规则也不好制订,很可能是debateable的。比如用chatGPT写论文,我个人认为如果chatGPT写出的论文比纯人写的论文质量还高,那为什么要抛弃chatGPT而用人写的。毕竟最终目的是为了学术质量,而不是人类之间的智力游戏比出高低。不过,在chatGPT给出论文答案的基础上加以修改提高,我想应该是合理的,也是可以接受的。
agent124 发表于 2024-3-6 23:54
规则也不好制订。太严了,损失效率,太宽了,又容易出事故。且不说人可以无视规则,明知故犯,(这点机器 ...
欧美论文不了解。我读过的英文论文里,英美母语国家的都云山雾罩,让人抓不住主题,还喜欢用一些口语化说法,印度人写的对于前人的研究梳理得很好,但自己的观点就是车轱辘话。
国内论文有字数要求,但教学进度紧,学生并不轻松,难度其实不小,有些就是为了帮导师完成项目,在此背景下,质量不高是必然的。
-able一般规则是去e,除非place和change这种ce/ge结尾而且是这种读音的,维基词典可以查到,但我也注意过这条规则例外也不少,比如debateable也可以有e。
横槊赋诗 发表于 2024-3-7 00:08
欧美论文不了解。我读过的英文论文里,英美母语国家的都云山雾罩,让人抓不住主题,还喜欢用一些口语化说 ...
就我接触过的个案来看,欧美国家有的论文也很拉跨。比如有篇计算机的硕士论文,当时写论文参考用的,结果发现简直连本科论文也不如。
另外,论文要符合所谓的规范,其实有些情况下就是堆砌一些废话,凑字数。比如文献综述,这个说那个说,还都标上出处,表面看来好像很严谨,很全面,其实很多是废话。
就我看过的论文来看(也是很多年以前的事了),欧美的论文相对比国内的要高些。比如计算机某个领域的论文,当时好像是从万方下载了几十篇,只有一两篇有参考价值,而国外的论文,虽然不能说篇篇有用,但大多数至少言之有物。
国内论文有个问题(也是多年前的印象),就是不严谨。给个实验数据,好像天然就是正确的,缺乏一个validation的过程。
agent124 发表于 2024-3-7 00:52
就我接触过的个案来看,欧美国家有的论文也很拉跨。比如有篇计算机的硕士论文,当时写论文参考用的,结果 ...
不知道国外的情况,但国内科普不到位,我上小学时候自己琢磨过某些复杂数列的求和,后来才知道公式早就被研究出来了,还不如一开始就让大家都知道,省得费这个劲。
我接触的某些论文也是这样,翻来覆去研究的却不知道是早就被研究透的。
今天看了下,把我原来帖子里引用chatGPT的引文删除了。问题是如果我原来不明说这是来自ChatGPT,他们也看不出来。所以,这根本就是掩耳盗铃,自欺欺人。
当然,人在屋檐下,不得不低头。为了在那个论坛问问题并得到回答,以后不能提ChatGPT了。这是根“红线”
页:
[1]
2