chatGPT的一点不足
本帖最后由 agent124 于 2024-4-17 22:29 编辑最近一直用chatGPT来解决翻译中的一些疑难问题。感觉很强大,基本上能解决绝大部分的问题。但也发现一些问题。
But safe flats, unlike old generals, never die, he thought. They don’t even fade away.
这句话,表面看来,和麦克阿瑟的名言“老兵不死,只是慢慢凋零”很像。台湾的一位译者就是这样理解的。但究竟是不是呢?问chatGPT,给出的是肯定的回答。还不放心,又到英语论坛上去问,结果人给出的回答却是否定的,说麦克阿瑟这句也不是他自己的话,他也只是引用,真正的出处是一首歌。查了下,最后写了这么一条注解:“老兵不死,只是消逝”是英国谚语,据说语出J·否利,他在1920年为一首以此为标题的歌曲申请了版权。chatGPT或许是觉得这句话和麦克阿瑟的话能够“匹配”,就“武断”地下了结论,却没有“多想一层”。
I love you, I hate you, I need you. Such apocalyptic statements reminded him of Ann when she had run out of money or love. The heart of the sentence is the subject, he thought. It is not the verb, least of all the object. It is the ego, demanding its feed.
这句里的It is the ego, demanding its feed. chatGPT的理解没问题,但是,它没有指出,这其实是从一句英语习语 feed one's ego变换来的。
还有对书名Smiley's People的理解,chatGPT说这个people既包括Smiley的朋友,同事,手下等,也包括他的对手,同行等。这个理解大致靠谱。但是人的理解就丰富了,有人说Smiley's People这个书名,“他的人”,体现了一种责任感,另外这个people也可理解为Smiley那一代人。
gongqi兄提到人工智能缺乏创造性。从chatGPT的使用实践来看,似乎它也缺少"联想" 能力和“比较”能力。当然,不了解它的具体实现机制,只能直观感受和臆测。
网上有让chatgpt做高考题目的,文科得分强于理科。
从高考本身来看,为评分客观,肯定是有一套规矩的。而理科题目更为死板,可以不依赖于其他知识直接评断,比如说检查数学证明德正确性只依赖于证明本身。
文科题目就灵活一些,比如说引用材料要检查其正确性就有些费劲,这也是外网一部分人认为人工智能不能完全代替的原因。 我试过让chatgpt缩句,它似乎表现得还行,反正原文云里雾里的。
然后发了一篇民科质疑微积分的文章,让它分析错误在哪,它似乎还能指出来。
然后问它负负得正有什么现实用途(别小看这问题,袁隆平上学时也感到不解,觉得数学没道理),它也给不出很好的解释。 横槊赋诗 发表于 2024-4-17 22:29
我试过让chatgpt缩句,它似乎表现得还行,反正原文云里雾里的。
然后发了一篇民科质疑微积分的文章,让它 ...
在有足够上下文的情况下,chatGPT的“理解”能力似乎是很不错的,基本都靠谱。不过我试的都是英语。中文问题感觉不太理想,要它提供一些同义词什么的,都没什么用。
agent124 发表于 2024-4-17 22:32
在有足够上下文的情况下,chatGPT的“理解”能力似乎是很不错的,基本都靠谱。不过我试的都是英语。中文 ...
可能他们中文语料不足,如果未来换上读秀库会好一点。
埃隆·马斯克的X平台误推“伊朗袭击以色列”虚假头条,AI聊天机器人Grok制造假新闻|TodayAI
原创 TodayAI TodayAI 2024-04-08 15:00 北京
· 点击蓝字,关注我们
图片
图片
TodayAI
TodayAI官方账号,专注AIGC领域,超1000种AI工具集,每日AI新闻。AI绘画+AI对话工具免费使用,Sora、SD、MJ、国内外语言大模型测评,你不可错过的人工智能自媒体。
53篇原创内容
公众号
图片
在科技界领袖埃隆·马斯克的社交媒体平台X上,一条令人震惊的虚假新闻头条近日引起了广泛关注:“伊朗用重型导弹袭击特拉维夫”。考虑到本周早些时候,以色列对伊朗在叙利亚的大使馆进行了空袭,造成两名将军和其他官员死亡,伊朗的报复行动似乎在情理之中。然而,事实上,伊朗并未对以色列发动攻击,这一头条新闻完全是虚构的。
更令人担忧的是,这条虚假新闻头条显然是由X平台自家的AI聊天机器人Grok生成的,随后被X的趋势新闻产品Explore在该功能更新版本的首日进行了官方推广。
几年前,当该平台还被称为Twitter时,公司推出了一个新功能,为趋势话题提供了文字解释。Twitter会通过算法捕捉到相关关键词并分享趋势,但有时并不明显为何某组词汇会成为趋势。然而,在2020年,Twitter组建了一个编辑团队,负责策划新闻并将趋势置于语境之中。此外,出现在趋势话题下的顶级推文不再仅仅是通过算法排名,也包括了人工策划。
然而,马斯克在2022年10月收购该公司后不久,趋势话题上的文字解释就消失了。马斯克解雇了Twitter的编辑。据路透社2022年11月报道,“Twitter的策划团队,负责‘突出和提供Twitter上发生的最佳事件和故事的语境’,已经被裁撤。”
本周早些时候,一些X的大V账户,分享了X即将推出的Explore页面重新启动的截图。X的Explore页面包括平台上知名的趋势话题列表,以及特定部分的细分,如“新闻”和“体育”,为用户提供每个特定主题类别下的趋势故事。
马斯克更新后的Explore页面看起来将重新引入对趋势话题和故事提供的文字解释。4月4日,X开始推出其新更新的Explore页面。该更新为每个单独的趋势话题提供了顶级用户帖子以及一个易于消化的主题摘要,并在用户内容之上。页面顶部,X创建的标题以类似于阅读有关该话题文章的方式向读者呈现信息。
此外,该更新还为Explore提供了一个新的、显眼的位置。Explore的趋势故事现在直接嵌入在X主页的右侧边栏中,这里以前是趋势话题列表的位置,每天有数亿X的日常用户查看。
然而,马斯克并未恢复Twitter的策划团队,也未雇用新的人类编辑来撰写X现在提供的内容。文字解释由X的AI聊天机器人Grok编写。
我们知道Grok是一项AI功能,得到了马斯克的大力推广,因为X自己在每个Explore页面的细则中这样说。”Grok是一个早期功能,可能会犯错,”X在Explore页面提供的文字解释下面的小字提醒道。”验证其输出。”
当周四在X平台上的这一虚假新闻页面被发现时,它正在趋势中传播假新闻。这个话题之所以开始进入趋势,是因为一些蓝V账户(向X支付月费以获取高级功能包括验证徽章的用户)突然开始大量复制粘贴关于伊朗攻击以色列的错误信息。由X策划的帖子中充斥着这些经过验证的账户传播的假新闻,还附有一段未经证实的爆炸视频。
从这一点来看,X的算法似乎注意到了这些用户帖子中的潜在故事趋势,并创建了一个探索故事页面。我们可以从X自己对其内部运作的说法中推断出,Grok必然创建了一个官方看起来的文字叙述,以及一个引人注目的标题。它根据某些用户分享的假新闻来完成这一切,试图自动为平台本身似乎认为是真实故事的内容提供上下文。
这并不是Grok首次为用户提供错误信息。早期版本的X聊天机器人在与少数有权限使用的用户进行私聊时,经常制造假新闻。然而,与新Explore功能相结合的这次事件,是X第一次将Grok的错误信息打包成真实趋势新闻故事,并将其推广给全部用户群,作为真实事件的上下文。
在马斯克的领导下,这个被称为X的平台上的虚假信息急剧上升。通过新的Explore产品,该公司推广了一个由付费不良行为者传播的虚假信息,这些不良行为者通过产生互动交换金钱。
在Grok生成这个虚假故事并通过Explore页面推广一天之后,该公司向所有订阅高级服务的X用户推出了Grok,使他们可以使用这个制造错误信息的AI聊天机器人。
https://mp.weixin.qq.com/s?src=11×tamp=1713364879&ver=5206&signature=r*YFLt4NfuTfkGuhsbwHV0w-OGCa6uKtHE17djTHiM1Ucyt8gQMh1H3Wbq0HSBYKV1-O9TU5EfQsGM50Z*21mBRPXXUKPVB9gqPItaBC407Vc4x*nJlFYwJeGfE-AhM7&new=1
今年是美国大选年,推特是马斯克执掌,人工智能对于政治可能会有影响。未来或许会更普及,真的不知道对面是不是真人了。我也在保存十几年前的网页材料。 agent124 发表于 2024-4-17 22:32
在有足够上下文的情况下,chatGPT的“理解”能力似乎是很不错的,基本都靠谱。不过我试的都是英语。中文 ...
理解碑刻文献,账簿文献,怎么样?
没用过GPT,正版的门槛过高,国内的好像比较low 小可拉好 发表于 2024-4-18 07:10
理解碑刻文献,账簿文献,怎么样?
不知道,没试过
页:
[1]