Ciber 发表于 2024-3-6 13:51:54

再不分辨和克制某些AI文章,某些搜索引擎将死

很多网站有创作收益,抑或是网站为了引流,有大量的AI文章,被搜索引擎获取后没有及时分辨,给了很高的权重。

包括但不限于各种技术问题,软件使用问题,前几搜索结果基本都是AI文章伪装的。

特别是软件使用、设置问题,这是重灾区,AI基本不会给出正确答案,它根本不知道软件里有哪些设置,但会编的头头是道,基本上现在不配图的文章已经没有必要去分辨是否是AI回答了。

横槊赋诗 发表于 2024-3-6 13:54:30

话说技术上能检查内容是否为AI生成?

gongqi 发表于 2024-3-6 14:40:40

横槊赋诗 发表于 2024-3-6 13:54
话说技术上能检查内容是否为AI生成?
按照1楼说的很简单,无图即AI。

但其实AI也会造图,而且会造视频。只不过那些网站目前没用这功能。

AI的算法就是生成算法,它并不是根据固定算法计算,而是不断改变生成参数。这样你就很难编出固定算法来检测AI。

能检测AI的算法,其实还是AI。chatgpt是动态的AI,检测chatgpt的是另一个动态的AI,就可以了。

鬼笔环肽 发表于 2024-3-6 18:29:13

这几年AI发展迅速,很多人觉得“以后做假新闻就更方便了”﹑“以后都很难分辨真假了”。

端传媒前几周采访了一个事实查核专家讨论了相关问题,他觉得事实上要制造假新闻﹑假片,根本不必用上深伪﹑Sora这类的高端技术。最容易受这种假新闻影响的人,立场本来就很极端。假新闻传播的重点在于需求,而不在于供应--而对于有固定需求的受众,假新闻的质素其实并没那么重要。

社会对于新科技对新闻真相的影响,似乎一直都是有点过份夸大的。我们可以回到人相信假新闻的原因上:这是因为他们对某些事物有恐惧,或者特别想要一些特定的事物。例如白人可能恐惧非白人﹑新移民﹑罪犯等等。假新闻的传播,一直都仰赖一个完整的叙事框架,针对性触及特定目标群体的恐惧与欲望。技术的进步从来都不是重点。
Sora在制造和传播假信息上的影响,更多是提供了一个新的工具,而不是彻底改变游戏规则。假新闻的成功并不仅仅依赖于技术的进步,而是需要有一个完整的叙事,针对性地触及人们的恐惧和欲望,比如对黑人﹑新移民的偏见,或者对失业的恐惧。单一的短片或文章往往效果有限。
制造和传播假新闻是两个很不同的过程。在数字时代,每天有数以亿计的消息在流通,让一则消息病毒式传播的因素不仅仅是它的内容有多么引人注目,更重要的是人们为什么会选择分享它。
当然,有了像Sora这样的技术,揭露﹑辨识假片肯定更加困难,尤其是对于资源有限的事实核查机构而言。但老实说,我并不认为揭露假新闻完全是事实查核机构的问题--更多是制造AI工具的科技大厂的问题。现在白宫发放的片段有新增加密签名技术,帮助验证内容的真实性;未来新闻摄影等领域也可能需要引入类似技术,以确保图像真实。

xiazaiall 发表于 2024-3-6 18:49:57

百度那些搜索引擎和死了又有何区别呢?

agent124 发表于 2024-3-6 21:15:08

gongqi 发表于 2024-3-6 14:40
按照1楼说的很简单,无图即AI。

但其实AI也会造图,而且会造视频。只不过那些网站目前没用这功能。


ai造出的东西,虽然会变,但还是有一定规律的。比如有些帖子,我们一看,直觉就能感到(虽然不能百分之百确定)多半是ai生成的。

如果用计算语言学和语料库语言学的理论,加上机器强大的统计功能,应该能更精确地定量分析出ai文本的特点。虽然大概也不能百分之百确定,但应该能确定一个可能性,比如80%,90%等。

gongqi 发表于 2024-3-6 21:33:16

agent124 发表于 2024-3-6 21:15
ai造出的东西,虽然会变,但还是有一定规律的。比如有些帖子,我们一看,直觉就能感到(虽然不能百分之百 ...
但是偏偏“感觉”是最难给出传统意义上的算法的。
比如说,判断色情图片,感觉上很容易,但要根据这个感觉做出算法来,基本不太可能。所以传统算法会绕过感觉,找可以量化的量,例如可能就是统计颜色比例来判断是不是够黄。
反过来,AI就很容易。你给AI看几十万张图片,AI的感觉就会跟你差不多,还不会遗漏。

zxm316 发表于 2024-3-6 22:37:11

目前的环境哪能大量使用ChatGpt,大部分人也只能试试手而已。

agent124 发表于 2024-3-6 22:45:17

本帖最后由 agent124 于 2024-3-6 22:48 编辑

gongqi 发表于 2024-3-6 21:33
但是偏偏“感觉”是最难给出传统意义上的算法的。
比如说,判断色情图片,感觉上很容易,但要根据这个感觉 ...
除了给ai“看”大量图片,也就是统计,还有数学建模和算法,有些出错可能也是因为建模和算法上的问题。就是说,材料是足够的,但如何去interpret 这些材料,就是建模和算法的问题。

记得好像检测带色图片的ai程序出错,把某些正常的图片识别为黄图。当然也可能是因为那时的技术还不成熟,出错率更高
我对ai的理解很浅薄,所以基本上只能臆想,说的话心里没有底

横槊赋诗 发表于 2024-3-6 22:46:44

agent124 发表于 2024-3-6 22:45
除了给ai“看”大量图片,也就是统计,还有数学建模和算法,有些出错可能也是因为建模和算法上的问题。就 ...

interpret 多了一个e

gongqi 发表于 2024-3-7 01:58:56

agent124 发表于 2024-3-6 22:45
除了给ai“看”大量图片,也就是统计,还有数学建模和算法,有些出错可能也是因为建模和算法上的问题。就 ...
建模应该是传统的算法。AI的模型应该很简单,就是神经网络的海量参数,然后通过training data自动调整这些参数。

不过说实话,我也没实操过AI的软件,也没训练过图像和视频。驾校时同车的一个哥们是玩图像AI的,听他说也是这么回事。

我自己熟悉的也是传统建模的思路。传统模型虽然也有参数可以手工调,但模型算法本身要重要的多。比如做过一个银行的模型,碰到了顶尖的精算师都搞不明白的金融算法,没办法也必须搞明白。如果是AI,应该根本不需要搞明白算法,只要训练数据够自然结果就会出来。

liuyanchen 发表于 2024-3-7 09:00:53

优胜劣汰,无需限制什么。大家既然选择就有道理,我们需要分析的是产生的“作品”是否有价值。
页: [1]
查看完整版本: 再不分辨和克制某些AI文章,某些搜索引擎将死