agent124 发表于 2024-3-6 13:14:18

对ai的抗拒

翻译上碰到一些疑难问题,发到老外的论坛提问,基本上都得到了满意的回复。
忽然想到也可以问问ChatGPT,于是问了,回答似乎也靠谱。
但是知道ChatGPT的有些回答也会出错,所以到论坛上发了个帖子,贴上ChatGPT的回答,问是否同意。
结果马上有人downvote,还有人评论说不欢迎问了ChatGPT后再求确认,还给了个论坛的链接。
看了下,发现那里的人很抗拒ChatGPT或类似工具。大意是ChatGPT只能给出似是而非的答案,而且没有智能可言,blah, blah。
我不太理解为何对ai如此抗拒。没错,ChatGPT远非完美,但不可否认,它也确实能提供很多有用的东西。我觉得对于ChatGPT,最好是当作一本有参考价值的百科全书,不完全依赖它,信任它,但也不可否定它的参考价值。
事实上,ChatGPT已经通过了图灵测试。也就是说,ChatGPT的回答,人已经难以分辨出是人回答的,还是机器回答的。所以,如果我不明说是从ChatGPT上查来的,也很可能没有人能分辨出这是来自ChatGPT。既然如此,又何必神经过敏,看见ChatGPT就排斥?
毕竟,有个东西做参考,总比什么都没有好。比如我常常看了别人写的东西,有了启发,才会思考一些原来想不到的东西。ChatGPT也是如此,它的回答不一定对,但至少可以帮助你思考,更容易找出更好的答案。
也许,排斥ChatGPT的人,多少都有点古板,对人工智能存在偏见,看不到人工智能大量应用的现实。

冰影风 发表于 2024-3-6 13:33:12

个人使用CHATGPT感受最大的问题是他会编,而不会说不知道。担心的是不明所以的人把它为了自圆其说编的内容作引证。
怕的是互联网信息的准确性已经被SEO污染了一波,AI再基于垃圾信息编造内容再来一波污染。

zxm316 发表于 2024-3-6 13:56:00

用ChatGPT写过一首诗,感觉不错的。

风(ChatGPT)

风吹过山峰与海洋, 吹散了花瓣和树叶, 它不停地跑,不累也不忙, 用它柔软的手指轻抚着大地。

风的声音像是一首歌, 唤醒了大地上所有生命, 在它的怀抱里,万物都舒展开来, 伸出手臂去拥抱这美好的世界。

风飘逸而自由, 从未被束缚或困住, 它是自然之间最美妙的奇迹, 我们应该珍惜并感恩于它。

gongqi 发表于 2024-3-6 14:31:16

对ai的抗拒是很自然的。所有新生事物都会遭遇抗拒。
而且,往往是中上等水平的人,对新生事物最抗拒,原因是因为害怕和愤怒。害怕自己被取代,愤怒自己的学习成本都沉没了。
当然,还有因为情怀而抗拒的,例如孔子。

其实,ai只是超过了中等水平或中上水平的人。ai永远不会超过顶级水平的人,只要没有明确的规则。ai超过了李世石和柯洁,但永远不可能超过莫言和莫泊桑。3楼那首诗就是个证明,连三流都算不上。

meibf 发表于 2024-3-6 15:33:23

下面的两个图是去年3月份chatgpt的回答,楼主可以再问一遍,看看它进步了多少。

https://www.readfree.net/bbs/forum.php?mod=attachment&aid=NTIyMjIyfGE5ZWIyYWNmfDE3MDk3MTAwMzN8MzI2MTF8NTkwNTkzMA%3D%3D&noupdate=yes


https://www.readfree.net/bbs/forum.php?mod=attachment&aid=NTIyMjIxfDQ2YzA0NWQ3fDE3MDk3MTAwMzN8MzI2MTF8NTkwNTkzMA%3D%3D&noupdate=yes


小可拉好 发表于 2024-3-6 15:45:15

本帖最后由 小可拉好 于 2024-3-6 15:47 编辑

meibf 发表于 2024-3-6 15:33
下面的两个图是去年3月份chatgpt的回答,楼主可以再问一遍,看看它进步了多少。



拿AI开玩笑,不地道。

chatgpt毕竟目前不是中文语料为中心。
这个语料如果有问题,能得到正确答案吗?

许春梅 发表于 2024-3-6 20:27:25

不是抗拒而是不信任,chatgpt爱说谎和编造。

agent124 发表于 2024-3-6 20:41:54

许春梅 发表于 2024-3-6 20:27
不是抗拒而是不信任,chatgpt爱说谎和编造。


chatgpt确实有编造的现象。比如看过新闻,说某律师让chatgpt(或什么别的ai)找案例,结果找出来的案例根本不存在。所以不能依赖和完全信任chatgpt,这个是对的。

但说到说谎和编造,其实人也一样的。甚至人更恶劣,明知是假,还要为了某种目的有意说谎,编造。
chatgpt起码可以当作一本有一定价值的辞书来用。若是全然否定它的价值,那就没必要了

yuntop 发表于 2024-3-6 20:42:07

许春梅 发表于 2024-3-6 20:27
不是抗拒而是不信任,chatgpt爱说谎和编造。

你不要用来查太深奥的信息,就普通信息来说,很可靠。

我给你贴一个生活类问题。我的Linux服务器突然硬盘空间少了很多,问ChatGPT,按照提示,3分钟解决问题



yuntop 发表于 2024-3-6 20:47:35

agent124 发表于 2024-3-6 20:41
chatgpt确实有编造的现象。比如看过新闻,说某律师让chatgpt(或什么别的ai)找案例,结果找出来的案例 ...

你就把它当一个只有高中水平,但是任劳任怨的秘书来看,就非常好用

让它帮你写简单的程序代码,撰写文书,查询生活类知识,给小朋友出题目,用语音功能学习外语...


我现在每个月支付24美金,让我每个月支付124美金我也愿意,这个价格你请不到一个高中水平的私人秘书


你非要和它讨论一个研究生才能讨论的问题,这是没用对工具。



agent124 发表于 2024-3-6 20:53:31

本帖最后由 agent124 于 2024-3-6 20:54 编辑

yuntop 发表于 2024-3-6 20:42
你不要用来查太深奥的信息,就普通信息来说,很可靠。

我给你贴一个生活类问题。我的Linux服务器突然硬 ...
chatGPT也会出错,不能依赖它。比如我曾经为了测试chatGPT的能力,问了它几个编程问题,有的问题,比如“如何检测pdf里的回车?” chatGPT给出了完全错误的回答。
而有的问题,我用google查不到,chatGPT倒是给出了不错的思路。

chatGPT的问题主要是虽然人们理性上知道不能依赖它,但由于它可以节省我们的大量时间精力,而它给出的答案,大部分情况下又确实是对的,那么久而久之,人们就不会不自觉地依赖,信赖它。这是人偷懒的天性。问题是如果某个重要问题,它偏偏给出了错误答案,就可能造成不好的后果。但人们如果已经习惯于依赖它,到那时候,就不会想到去怀疑一下,验证一下了。

yuntop 发表于 2024-3-6 21:00:46

agent124 发表于 2024-3-6 20:53
chatGPT也会出错,不能依赖它。比如我曾经为了测试chatGPT的能力,问了它几个编程问题,有的问题,比如“ ...

当然,别说ChatGPT了,Nature, Science这样的顶级科学期刊,一样也有撤稿的

谈可靠和不可靠,都是相对的。


看你用什么场合,不同场合对精确度要求不同。比如生活中我经常用Wikipeddia,但是我自己做研究从来不会用它

ChatGPT也一样,都是在生活场景中用,出错了问题不大。

比如学生让我写推荐信,我直接让GPT写,1分钟搞定。写完后我看一眼,哦,那边有不对劲的,改一下,一共5分钟。

比我自己花20分钟写省了15分钟,这就是ChatGPT的意义。好用并不是说它不出错,而是效率高



agent124 发表于 2024-3-6 21:07:20

yuntop 发表于 2024-3-6 21:00
当然,别说ChatGPT了,Nature, Science这样的顶级科学期刊,一样也有撤稿的

谈可靠和不可靠,都是相对的 ...

是的,严格限制chatGPT的适用范围,可以解决不可靠的问题。

但问题是,人天生喜欢偷懒。既然chatGPT可以大幅提高效率,很自然就会想到扩大chatGPT的应用范围,这样就容易失去控制。这就是人工智能的主要危险,在我看来。

yuntop 发表于 2024-3-6 21:14:52

agent124 发表于 2024-3-6 21:07
是的,严格限制chatGPT的适用范围,可以解决不可靠的问题。

但问题是,人天生喜欢偷懒。既然chatGPT可以 ...

规矩立好了,执行得当,就没问题。

ChatGPT不过是人类发明的一个新工具,过去有、今后也会产生很多这样的新工具。

用工具偷懒作弊的诱惑从来都有,但工具从来不是人类的问题,如何规范使用是问题。

欧美大部分的高校,现在对如何规范使用ChatGPT都已经有非常详细的规定了。

法律也在跟上,一些国家比较保守,一些比较开放。


NMR 发表于 2024-3-6 21:33:45

科技是把双刃剑

agent124 发表于 2024-3-6 23:54:19

yuntop 发表于 2024-3-6 21:14
规矩立好了,执行得当,就没问题。

ChatGPT不过是人类发明的一个新工具,过去有、今后也会产生很多这样 ...

规则也不好制订。太严了,损失效率,太宽了,又容易出事故。且不说人可以无视规则,明知故犯,(这点机器倒是比人强)。

无论如何,要清醒地认识到ai或其他工具可能带来的问题,而不是let it take care of itself。而且,今天感到舒适无风险,明天就可能情况变了,有风险了。
欧美学校如何规范chatGPT使用的具体情况不清楚。以前好像看到说有的学校直接禁用。也许有的允许用chatGPT查资料,但不允许用它写论文。感觉这个规则也不好制订,很可能是debateable的。比如用chatGPT写论文,我个人认为如果chatGPT写出的论文比纯人写的论文质量还高,那为什么要抛弃chatGPT而用人写的。毕竟最终目的是为了学术质量,而不是人类之间的智力游戏比出高低。不过,在chatGPT给出论文答案的基础上加以修改提高,我想应该是合理的,也是可以接受的。

横槊赋诗 发表于 2024-3-7 00:08:38

agent124 发表于 2024-3-6 23:54
规则也不好制订。太严了,损失效率,太宽了,又容易出事故。且不说人可以无视规则,明知故犯,(这点机器 ...

欧美论文不了解。我读过的英文论文里,英美母语国家的都云山雾罩,让人抓不住主题,还喜欢用一些口语化说法,印度人写的对于前人的研究梳理得很好,但自己的观点就是车轱辘话。


国内论文有字数要求,但教学进度紧,学生并不轻松,难度其实不小,有些就是为了帮导师完成项目,在此背景下,质量不高是必然的。

-able一般规则是去e,除非place和change这种ce/ge结尾而且是这种读音的,维基词典可以查到,但我也注意过这条规则例外也不少,比如debateable也可以有e。

agent124 发表于 2024-3-7 00:52:49

横槊赋诗 发表于 2024-3-7 00:08
欧美论文不了解。我读过的英文论文里,英美母语国家的都云山雾罩,让人抓不住主题,还喜欢用一些口语化说 ...
就我接触过的个案来看,欧美国家有的论文也很拉跨。比如有篇计算机的硕士论文,当时写论文参考用的,结果发现简直连本科论文也不如。
另外,论文要符合所谓的规范,其实有些情况下就是堆砌一些废话,凑字数。比如文献综述,这个说那个说,还都标上出处,表面看来好像很严谨,很全面,其实很多是废话。
就我看过的论文来看(也是很多年以前的事了),欧美的论文相对比国内的要高些。比如计算机某个领域的论文,当时好像是从万方下载了几十篇,只有一两篇有参考价值,而国外的论文,虽然不能说篇篇有用,但大多数至少言之有物。
国内论文有个问题(也是多年前的印象),就是不严谨。给个实验数据,好像天然就是正确的,缺乏一个validation的过程。

横槊赋诗 发表于 2024-3-7 00:57:16

agent124 发表于 2024-3-7 00:52
就我接触过的个案来看,欧美国家有的论文也很拉跨。比如有篇计算机的硕士论文,当时写论文参考用的,结果 ...

不知道国外的情况,但国内科普不到位,我上小学时候自己琢磨过某些复杂数列的求和,后来才知道公式早就被研究出来了,还不如一开始就让大家都知道,省得费这个劲。


我接触的某些论文也是这样,翻来覆去研究的却不知道是早就被研究透的。

agent124 发表于 2024-3-7 06:54:51

今天看了下,把我原来帖子里引用chatGPT的引文删除了。问题是如果我原来不明说这是来自ChatGPT,他们也看不出来。所以,这根本就是掩耳盗铃,自欺欺人。
当然,人在屋檐下,不得不低头。为了在那个论坛问问题并得到回答,以后不能提ChatGPT了。这是根“红线”
页: [1] 2
查看完整版本: 对ai的抗拒