2024-12-02 22:35来源:本站编辑
学者加里·马库斯(Gary Marcus)已经成为了人工智能(AI)缺点的桂冠诗人,他在众多书籍和文章中记录了这项技术经常存在的不足,并且没有普通人想象的那么令人印象深刻。
五年前,马库斯与合著者欧内斯特·戴维斯(Ernest Davis)在《重启人工智能》(Rebooting AI)一书中谈到人工智能的技术缺陷时,他的批评还有些理论性,指出了这项技术的潜在危险。
从那以后的几年里,ChatGPT席卷了全世界。这种情况给马库斯留下了一个现实世界的画布,在这个画布上,他可以反思人工智能实际存在的危险。
他的最新著作《驯服硅谷》(tame Silicon Valley)上个月由麻省理工学院出版社(MIT Press)出版,对这些现实世界的影响进行了分类。对于那些生活中会受到人工智能影响的人来说,这本书应该是必读的,今天几乎每个人都是这样。
一如既往,马库斯以一种强有力的声音写作,在对科学和技术的扎实掌握的支持下,以一种轻松、威严的风格贯穿着材料。回报往往是平淡的,马库斯从他引用的每个轶事例子中预测更糟糕的情况。
当马库斯沉浸在twitter世界(Xverse)中时,他充分利用了其他人的声音,引用了学者和相关人士的话说,他们已经详细地写了关于这种危险的文章。
这本书的前50页讲述了人工智能(尤其是生成式人工智能)带来的灾难,以及它们可能(在某些情况下已经)带来的风险和危害。对于关注Marcus的Substack或他的X feed的人来说,这是一个熟悉的领域,但将上下文放在一个地方是有用的。
这种危险与超级智能人工智能或“通用人工智能”无关。长期以来,马库斯一直对当今的机器学习和深度学习能否实现超人的能力持怀疑态度。他嘲笑了这样一种智慧将一举消灭人类的观点。
马库斯在《驯服硅谷》中写道:“在这个领域,有很多关于p(doom)的讨论,这是一种略带开玩笑的数学符号,表示机器消灭所有人的可能性。”“就我个人而言,我怀疑我们会看到人工智能导致真正的灭绝。”
相反,马库斯担心的是不那么智能的机器已经通过ChatGPT和其他类似的程序对社会造成的日常危险。
马库斯带我们参观了人工智能目前最严重的12种危险。他引用《连线》杂志的一篇文章称,这些危险包括大型语言模型(llm)作为大规模生产信息的机器,比如“充斥亚马逊的由人工智能生成的虚假书籍重写”的困境。
更严重的是假装被绑架的人的低沉的假声音,这种事情已经发生过多次。“我们可以预期这种情况会更多发生,”他预测敲诈勒索骗局。
Marcus花了很多页讨论知识产权盗窃,以版权作品的形式被OpenAI和其他人挪用用于培训法学硕士,而没有获得同意。通常情况下,马库斯对这件事的重视程度可能比人们最初想象的要大。
他写道:“整个事件被称为‘数据大劫掠’(Great Data Heist),这是一场对知识产权的掠夺,(除非政府干预或公民行动停止)将导致财富从几乎所有人手中大量转移到少数公司手中。”
书中三分之一的篇幅不仅讨论了危害,还批评了硅谷的掠夺性做法,以及科技巨头如何通过为自己的发明编织神话,使它们看起来既重要又完全无害,从而欺骗公众和立法者。
OpenAI没有兑现的承诺受到了Marcus当之无愧的批评。其中包括该公司不再是非营利组织,也不再是任何意义上的“开放”,而是将所有代码隐藏起来,不受公众监督。
但问题不只是一个坏人:硅谷充斥着误导和不诚实。
在一些修辞技巧中,马库斯强调了微软(Microsoft)、OpenAI和Alphabet旗下的b谷歌等公司,他们声称自己太忙于考虑世界末日的情景,无暇顾及他所概述的当前危险。
他写道:“大型科技公司想转移我们对这一切的注意力,他们说——没有任何真正的问责制——他们正在努力保证未来人工智能的安全(提示:他们也没有真正的解决方案),尽管他们对当前的风险做得太少了。”
“太愤世嫉俗?2023年5月,数十名科技领袖签署了一封信,警告人工智能可能会带来灭绝的风险,但这些领袖似乎没有一个人放慢脚步。”
大型科技公司的这种做法导致了政府的参与,政策类型将其称为“监管俘获”。
马库斯写道:“少数人和公司正在产生巨大的、很大程度上看不见的影响。”“最后,我们在美国看到的所有关于管理人工智能的讨论,大多是自愿的指导方针,几乎没有什么真正有效的指导方针,这并非巧合。”
考虑到显而易见的危险和大型科技公司的自私自利,我们能做些什么?
在最后的三分之一中,马库斯反思了如何应对当前的危险以及虚假陈述和自私的科技文化。他是政策界的局外人,尽管他曾以专家身份在美国国会作证。
因此,他并没有为应该发生的事情提供蓝图,但他很聪明地提出了一些明显有意义的建议——在很大程度上。
例如,版权法应该针对法学硕士时代进行更新。
“现在的重点应该是更新这些法律,”他写道,“以防止人们以一种新的方式被剥削,即被称为大型语言模型的长期(近乎)反噬者。”我们需要更新我们的法律。”
面对利用传感器收集每个人的数据的“监视资本主义”,还需要制定新的法规来保护隐私。
马库斯指出:“在撰写本文时,没有联邦法律保证亚马逊的Echo设备不会窥探你的卧室,也没有联邦法律保证你的汽车制造商不会把你的位置数据卖给任何提出要求的人。”
监管界最大的漏洞是美国国会1996年通过的《通信规范法》(Communications Decency Act)第230条。第230条免除了包括meta的Facebook和X在内的在线服务对内容的任何责任,包括残酷、贬低、暴力的内容。这也让这些服务的用户可以自由地欺负其他用户,并以这只是一个人的观点为借口。
“报纸可能会因为谎言而被起诉;为什么社交媒体可以例外?”马库斯的观察是正确的。“第230条需要废除(或重写),为任何广泛传播的东西分配责任。”阿门。
Marcus还探讨了广泛的预防措施作为首要原则,包括透明度,例如不仅要求开源代码,而且在许多情况下迫使公司披露法学硕士等工具的使用情况。
“例如,是否使用了大型语言模型来做出工作决定,并且是以一种有偏见的方式进行的?我们只是不知道”,因为缺乏透明度、可追溯性和问责制,马库斯观察到。
在马库斯探索的所有可能的评估风险的方法中,他的书最有力地论证了人工智能的监管机构——无论是国内的还是国际的——来处理这项任务的复杂性。
马库斯写道,制定法律的过程过于缓慢,最终无法解决当前的危害。正如2023年他在美国参议院作证时所说:“诉讼可能需要10年或更长时间。”他观察到,一个机构也可以比立法者“更灵活”。
他写道,尽管人们对人工智能机构的兴趣不大,但“另一种选择更糟糕:如果没有一个新的人工智能机构(或者更广泛地说,是数字技术机构),美国将永远在追赶,试图用比现代世界早得多的基础设施来管理人工智能和数字世界。”
在支持人工智能机构的过程中,马库斯面临着两个挑战。一个是显示出实质性的伤害。展示风险是一回事,正如马库斯在前50页所做的那样;然而,所有这些风险必须加起来造成足够的伤害,才能凝聚公众舆论和立法者的紧迫感。
监管的现代历史表明,只有在证明了巨大的危害之后,才会建立规则和机构。1933年的《证券法》对上市公司能做什么和不能做什么提出了严格的要求,以保护投资大众。1929年的股市崩盘抹去了所有财富,摧毁了全球经济。这是一个前所未有的灾难时刻,它激发了监管努力。
国际原子能机构是在日本广岛和长崎发生导致20万人死亡的原子弹爆炸后才成立的,目的是监管核裂变。20世纪初,在记者和进步活动人士揭露了受污染物质的巨大危害之后,美国食品和药物管理局(fda)以较小的规模出现了。
换句话说,政府很少在出现实质性损害之前采取行动促进监管。
马库斯的前50页有说服力吗?目前还不清楚。考虑到有多少人使用ChatGPT之类的工具,任何有害的概念都必须与这些工具的大众吸引力相竞争。Marcus指出的每一个危害都可能被ChatGPT、Perplexity或谷歌Gemini的热心用户原谅,认为这仅仅是获得新工具的代价。
我给马库斯发了一封电子邮件,问他:“这本书的前50页证明了足够的危害,足以证明书中最后60页提出的措施是合理的吗?”
马库斯在回答时指出,“确实有人在法学硕士相关的情况下自杀了。”他指的是2023年4月发生的一起事件,一名30多岁的男子在与聊天机器人互动六周后自杀。
马库斯指出,除了实际事件之外,“我们已经面临着生成式人工智能的许多负面后果,从错误信息到隐蔽的种族主义,从未经同意的深度色情到对环境的危害;这些都在快速增长。”
马库斯的回答重申了这样一个问题:在社会说够了并建立控制之前,多大的伤害才算太大。
事实上,设立人工智能机构的最佳理由可能是,社会不太可能就伤害达成一致。对一些人来说,比如马库斯,任何伤害都太大了,而另一些人则首先希望在不施加太多限制的情况下培育这一新兴技术。
人工智能机构可以通过严格记录和跟踪报告的危害,并探索理论上的危害,从而消除这种深刻的分歧,从而超越猜测,全面了解对社会构成的危险。
马库斯呼吁成立人工智能机构的第二大挑战是如何定义它应该监督什么。大多数机构的授权至少是基于对其职权范围的粗略概述。
例如,美国证券交易委员会(sec)监管“证券”的交易,其中可能包括股票(如上市公司的普通股)或债务工具(如债券)。美国证券交易委员会不监管衍生品合约等其他可交易工具,这些工具交由另一个机构——商品期货交易委员会(commodity Futures Trading Commission)监管。
“人工智能”一词的问题在于,它从来就不是一个真正的术语。马库斯和其他学者用这个词作为速记。但实际上,人工智能并没有确切的含义。人工智能是一个大杂烩,它囊括了任何一种人们认为是人工智能的计算机科学工作。
麻省理工学院(MIT)已故的人工智能学者马文·明斯基(Marvin Minsky)创造了“手提箱词”(suitcase words)这个词,指的是可以表达任何人想要表达的任何内容的表达方式。人工智能是一个手提箱词。它可以包括法学硕士,但随着越来越多的软件被营销为人工智能,所有类型的代码都可以被标记为“人工智能”,无论它是否与法学硕士有任何共同点。
这种情况给监管机构提出了一个问题:监管机构的界限在哪里?
监管机构是否应该只监管那些使用与人工智能的机器学习形式相关的特定技术组件的东西,比如用于训练大多数法学硕士的随机梯度下降?
或者他们是否应该规范所有具有某种观察效果的事情,比如挪用有版权的材料或以自然语言生产产品?或者他们是否应该将自己的业务范围扩大到任何声称是人工智能的东西上?
我在一封电子邮件中问马库斯:“监管机构如何知道他们的管辖范围是什么?”
Marcus的观点是,专家将会解决这些定义问题:“很明显,我们需要专家,就像我们需要FDA或飞机监管一样。”
马库斯继续说道:“不知何故,我们设法相对较好地驾驭了‘食品’、‘药品’等这些定义问题。”对的,除非这些东西是真实的东西,它们的定义最终能被找到;人工智能不是。
马库斯敦促我不要“过度思考”这件事:“每一项法规都将有一个与法规相关的范围,例如(加州州长加文)纽森刚刚签署的关于培训的法案,透明度仅仅是关于受过培训的模型,”马库斯指出。“一项关于就业歧视的法规应该适用于任何用于做出就业决定的算法,无论是经过训练的还是硬编码的。”
这种方法适用于个人措施,但它并不能解决人工智能机构的授权问题。任何新成立的机构都必须像FDA一样获得授权。这将被证明是棘手的,而人工智能这个词是一个模糊的词,充满了炒作。
然而,这种情况不应该阻止社会对人工智能机构的项目。马库斯的主要论点仍然是最有力的:立法根本跟不上人工智能的扩散,无论人们如何定义这项技术。一个由该领域专家组成、拥有监管权力的监督机构需要每天保持警惕。
随着唐纳德·j·特朗普在明年1月成为美国总统,华盛顿即将发生权力更迭,我问马库斯,他如何看待这样一个机构形成的可能性。
他并不乐观: