应对AI的威胁:大陆法系和欧美法系,OpenAI和AnthropicAI
人类一直有一个担忧,怕AI会威胁人类社会。某些利益集团的担忧会更强烈,怕AI会威胁其统治。为避免这些威胁,人类采取的方法有很多。墙和禁止是最简单的,比如有些学校禁止使用AI。更复杂的方法也有很多,比如拦截方法就包括在入口拦截、在出口拦截、在内部拦截。
某种程度上,这些方法类似于人类应对社会成员间的某些会影响整个社会的行为的方法:法律和道德、规则和潜规则。为简单起见,我们把这些统称为规则。
规则的分类,可以借鉴法律的分类:大陆法系和欧美法系。两个法系的法律意义的讨论也忽略,我们简单将其视为:成文法、案例法。前者有点像演绎逻辑,后者有点像归纳逻辑。
OpenAI的chatgpt采用的是案例法:当输出结果被人工判定为不法不道德时,人工干预产生这个输出的内部环节。
Anthropic的Claude采取的是成文法:它不需要人工判定和干预,通过内置的Constitution宪法来实现非人工干预。
让我们进一步观察chatgpt和claude的方法。
chatgpt的人工干预,使用RLHF技术,即Reinforcement Learning from Human Feedback。这个技术中的人工干预很像我们教小孩学习,小孩答对了我们就奖励,通过奖励引导模型的训练。
Caude的Constitutional AI所使用的宪法或规则,首先是1948年的联合国《世界人权宣言》,包括自由、平等、反种族歧视和各种歧视等等。然后因为1948年毕竟比较早,有些新威胁需要处理,就又选择了Apple的服务条款,例如数据隐私等。当然还有很多,甚至一些非西方标准的规则,以体现多元文化。最重要的是,Anthropic在其网站公示了所有规则,这样就避免了敏感词这样秘而不宣从而层层加码的情况。
两类方法,哪类更有效呢?这就要骑驴看唱本走着瞧了。
我前些日子看到一篇从阶级角度议论这个问题的文章。
大意是,人工智能的发展,打破了资产阶级文艺和无产阶级文艺的壁垒,使得无产阶级也有能力发展自己的文艺。
同时,鉴于资本家是资本的人格化,资本主义的产生方式利用人工智能来监督工人,最后人工智能也必然有能力开除资本家。
总之,人工智能应该掌握在无产阶级手里。 怎么就没人想到,人工智能发展起来,就是要实现共产主义呢? 无论是成文法还是案例法都无法适应国内的监管需求 fhzcy 发表于 2024-4-5 19:28
无论是成文法还是案例法都无法适应国内的监管需求
适应国内的监管需求,最稳妥的就是直接不回答相关问题
横槊赋诗 发表于 2024-4-5 19:35
适应国内的监管需求,最稳妥的就是直接不回答相关问题
当然要是以后左得多就难说了。
横槊赋诗 发表于 2024-4-5 14:20
我前些日子看到一篇从阶级角度议论这个问题的文章。
大意是,人工智能的发展,打破了资产阶级文艺和无产阶 ...
目前AI还是需要很多钱的。无产阶级没钱。
包括有些人或有些集团,在驱动无产阶级并以其名义夺取政权后,自己也会变成资产阶级——谁占有资产谁就是事实上的资产阶级,不管它自称啥。
xiazaiall 发表于 2024-4-5 16:32
怎么就没人想到,人工智能发展起来,就是要实现共产主义呢?
我觉得有可能。但仅仅是有可能。
从苏联来看,布尔什维克要实现的共产主义,无非是全民国家——肉体消灭了其对手的全民国家。但这不可能。因为你那个位置太好了,谁都想占,所以谁都可能成为你的对手。当你的对手前赴后继时,你连全民国家都弄不成,哪来的共产主义?
另一方面,从北欧社会主义来看,不靠暴力靠老百姓用选票选择,那么共产主义的唯一障碍是财富积累。目前看还是不错的,俄罗斯这样的饿狼也可以让北约帮忙阻挡,只不过财富积累可能还差点事儿。
页:
[1]