ChatGPT热度依旧霸榜,接连被许多名人点赞了!国外微软的比尔盖茨、纳德拉、特斯拉的马斯克,国内的李彦宏、周鸿祎、张朝阳,甚至不是科技圈的作者郑渊洁,也因为ChatGPT的出现,开始相信“作家有可能在未来会失业”了。再比如惊动谷歌隐退的大佬布林,前美团联合创始人王慧文也再度出山,广发英雄帖招募AI人才,造一个中国OpenAI。
以ChatGPT和DALL-E为代表的的生成式AI,以一系列令人眼花缭乱的风格,写出了充满丰富细节、想法和知识的文本,抛出华丽的答案和艺术品。生成的人工制品如此多样,如此独特,以至于很难相信它们来自机器。
以至于一些观察人士认为,这些新的AI终于跨过了图灵测试的门槛。用某些人的说法:这一门槛并没有被轻微超过,而是被吹得粉碎。这门AI艺术太好了,“又有一批人已经濒临失业线”。
但是,经过一个多月来的发酵,人们对于AI的奇迹感正在消退,生成式AI的“原始明星光环”也在渐渐消失。例如,一些观察者以正确的方式提问,而ChatGpt却“吐”出了一些愚蠢甚至错误的东西。
再比如,一些人在小学美术课上使用了流行的老式逻辑炸弹,要求拍摄夜晚的太阳或暴风雪中的北极熊。其他人则提出了更奇怪的问题,AI的上下文感知的局限性显露无疑。
1.剽窃抄袭更难检测
当DALL-E和ChatGPT等生成式人工智能模型创建时,它们实际上只是从训练集中的数百万个示例中创建新模式。结果是从各种来源提取的剪贴合成,当人类这样做时,也被称为抄袭。
当然,人类也是通过模仿来学习的,但在某些情况下,AI的这种“拿来”、“借用”却是如此明显,以至于会让一位小学老师恼怒到无法给学生上课。这种人工智能生成的内容由大量文本组成,这些文本或多或少都是逐字呈现的。然而,有时有足够多的掺杂或合成,即使是一个大学教授小组也可能难以检测到来源。不管怎样,缺少的是独特性。尽管这些机器闪闪发光,但它们无法生产任何真正的新产品。
2.版权:代替人类之时,诉讼兴起之日
虽然剽窃在很大程度上是学校的问题,但版权法适用于市场。当一个人从另一个人的工作中受到挤压时,他们可能会被带到法庭,法庭可能会处以数百万美元的罚款。但AI呢?同样的规则适用于他们吗?
版权法是一门复杂的学科,生成式AI的法律身份问题需要数年才能解决。但有一点不难预料:当人工智能好到足以替代员工进行工作时,这些被替代的人中,肯定会利用“在家赋闲”的时间提起诉讼。
3.人类充当了模型的无偿劳动力
剽窃和版权并不是生成式人工智能引发的唯一法律问题。律师们已经在构思新的诉讼伦理问题。例如,制作绘图程序的公司是否应该被允许收集有关人类用户绘图行为的数据,并能否将这些数据用于AI训练?基于此,自己被使用的创造性劳动是否应该得到补偿?当前AI的成功,很大程度上源于对数据的访问。那么,当生成数据的大众想要分一杯羹时能否实现?什么是公平?什么是合法的?
4.信息堆砌,不是知识创造
AI特别擅长模仿人类需要数年才能发展出的那种智力。当一位学者能够介绍一位默默无闻的17世纪艺术家,或以一种几乎被遗忘的文艺复兴音调结构,来创作新音乐时,我们有充分的理由来表达对此的惊艳之词。我们知道,发展这种深度的知识需要多年的学习。当人工智能只需要几个月的训练就完成了这些相同的事情时,结果可能会非常精确和正确,但有些东西是缺失的。
人工智能只是似乎模仿了人类创造力中有趣和不可预测的一面,但却“形似神不似”,无法真正做到这一点。与此同时,不可预测性是推动创造性创新的因素。像时尚娱乐行业,不仅沉迷于变化,而且被“变化”所定义。
事实上,人工智能和人自身的智能都各有其擅长的领域。比如:如果一台训练有素的机器能够在一个装满数十亿张唱片的数字盒中找到正确的旧收据,那么它也可以了解像阿芙拉·贝恩( 17世纪第一位以写作为生的英国女性)这样的诗人所知道的一切。甚至可以设想,机器是为了破译玛雅象形文字的含义而制造的。
5.智力停滞,难以成长
说到智能,人工智能本质上是机械的和基于规则的。一旦人工智能通过一组训练数据,它就会创建一个模型,而这个模型并不会真正改变。一些工程师和数据科学家设想随着时间的推移逐步重新训练人工智能模型,以便机器能够学会适应。
但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定的形式编码某些知识。这种“恒常性”有它的用武之地,可能适用于某些行业。但同时也是它的弱点,危险就在于它的认知将永远停留在其训练数据的“时代怪圈”中。
假使我们变得十分依赖生成式AI,以至于无法再为训练模型制作新材料时,会发生什么?
6.隐私和安全的门闸太松
人工智能的训练数据需要来自某个地方,而我们并不总是那么确定神经网络中会出现什么。如果AI从其训练数据中泄露个人信息怎么办?
更糟糕的是,锁定AI要困难得多,因为它们的设计非常灵活。关系数据库可以限制对具有个人信息的特定表的访问。然而,人工智能可以通过几十种不同的方式进行查询。攻击者将很快学会如何以正确的方式提出正确的问题,以获取他们想要的敏感数据。
例如,假设攻击者,盯上了某处资产的位置,AI也能被用来旁敲侧击地问出纬度和经度。一个聪明的攻击者可能会询问几个星期后太阳在该地点升起的确切时刻。尽职尽责的人工智能会尽力给出答案。如何教会人工智能保护隐私数据,也是一个难解之题。
7.未知的偏见之地
自大型机年代起,技术圈就创造了“垃圾输入,垃圾输出”(GIGO)的概念,也让大众看到了计算机问题的核心。AI的许多问题来自于糟糕的训练数据。如果数据集不准确或有偏差,结果也将如此反映。
生成式AI的核心硬件理论上是逻辑驱动的,但制造和训练机器的人类却不是。司法前的意见和政派偏见已经被证明可以引入人工智能模型。也许有人使用了有偏见的数据来创建模型。也许他们添加了某类训练语料以防止模型回答特定的热点问题。也许他们输入了硬连线的答案,然后变得难以检测。
人工智能的确是个不错的工具,但这也意味着,别有用心之人有一万种方法,让AI成为有害信念的绝佳载体。
这里有个国外买房贷款的例子。案例中,用于评估潜在租户的AI系统依赖于法庭记录和其他数据集,这些数据集大都带有自身偏见,反映了系统性的种族主义、性别歧视和能人主义,而且众所周知,错误很多。尽管有的人明明有能力支付租金,但他们经常被拒绝提供住房贷款,因为租户筛选算法认为他们不合格或不值得。这也是我们经常所听到的业务员给的答复:大数据/系统/AI这么提示的。
ChatGPT被冒犯后的表现
8.机器的愚蠢,来得猝不及防
人们很容易原谅人工智能模型犯的错误,因为它们做了很多其他事情。只是很多错误很难预料,因为人工智能的思维方式与人类不同。
例如,许多文本到图像功能的用户发现,人工智能会犯一些很简单的错误,比如计数。人类在小学早期就学会了基本的算术,然后我们以各种各样的方式使用这项技能。让一个10岁的孩子画一只章鱼,孩子几乎肯定会确定它有八条腿。当涉及到数学的抽象和上下文用途时,当前版本的人工智能往往会陷入困境。
如果模型构建者对这一失误给予一定的关注,这可能很容易改变,但也会有其他未知的错误。机器智能不同于人类智能,这意味着机器的愚蠢也将不同。
9.机器也会撒谎,很容易骗人
有时,在没有意识到这一点的情况下,我们人类往往会掉进AI的坑里。在知识盲区里,我们倾向相信AI。如果AI告诉我们亨利八世是杀害妻子的国王,我们不会质疑,因为我们自己也不知道这段历史。我们往往假设人工智能是正确的,就像我们作为大会的观众,看到有魅力的主持人挥手时,也一样默认选择相信“台上那位比我懂得多”。
对于生成式AI的用户来说,最棘手的问题是知道人工智能何时出错。“机器不会说谎”常常是我们的口头禅,然而事实上并非如此。机器虽然不能像人类那样撒谎,但它们犯的错误也意味着更加危险。
他们可以在任何人都不知道发生了什么的情况下,写出一段段完全准确的数据,然后转向猜测,甚至转变成一场谎言。“真假参半”的艺术,AI也会。但不同的是,二手车经销商或扑克玩家往往知道自己什么时候在撒谎,大多数人都会说出自己的哪里撒谎了,AI却做不到。
10.无限滥用:经济模式堪忧
数字内容具有无限的可复制性,这已经使许多围绕稀缺性建立的经济模型陷入困境。生成式AI将进一步打破这些模式。生成式人工智能将使一些作家和艺术家失业,它也颠覆了我们所有人所遵循的许多经济规则。
当广告和内容都可以无休止地重新组合和再生时,广告支持的内容会起作用吗?
互联网的免费部分是否会变成一个“机器人点击页面广告”的世界,所有这些都是由人工智能生成的,可以无限复制?
如此轻松实现的“繁荣富足”,可能会破坏经济的各个角落。
如果不可替代代币可以永久复制,人们会继续为其支付费用吗?
如果制作艺术如此容易,它还会受到尊重吗?它还会很特别吗?有人会介意它不是特别的吗?
当一切都被视为理所当然时,一切都会失去价值吗?
本文链接:https://my.lmcjl.com/post/9592.html
4 评论