十大可靠的配资公司

股票融资利息多少 人工智能能否摆脱“过度乐观的新自由主义”?
发布日期:2024-08-31 07:52    点击次数:182

股票融资利息多少 人工智能能否摆脱“过度乐观的新自由主义”?

在过去的十五年里,我观察了科技的发展,发现我以前使用的术语,如"网络乌托邦主义"、"互联网中心主义"和"技术解决方案主义",无法完全捕捉到大科技公司对我们制度和基础设施想象力的掌控。我的意思是,公众无法想象硅谷风险投资平台之外的基本信息服务。

我们需要一个新的术语:“过度乐观的新自由主义”。这一信条由风险资本家、科技公司的首席执行官和初创公司的创始人所倡导,它声称我们已经生活在所有可能的世界中最好的那个(反映了其过度乐观的方面),并且除了市场驱动的技术基础设施的提供之外别无选择(反映了其新自由主义的方面)。这种意识形态的本质在著名风险投资家马克·安德森(Marc Andreessen)最近发表的《技术乐观主义宣言》中得到了提炼,他直截了当地指出:"自由市场是组织技术经济最有效的方式。"

从历史的角度来看,“过度乐观的新自由主义”(Panglossian neoliberalism)的教条充其量是幼稚的,它忽视了冷战时期创造硅谷的大量公共支出,其中大部分是军事支出。ARPANET、全球定位系统(GPS)、集成电路和电脑鼠标都源于政府资助,而非自由市场。但历史教训并未就此止步。在政治上,这种意识形态往往会导致瘫痪,阻碍人们寻求本地、实验性和民主的替代方案,以取代主导我们技术堆栈的市场驱动模式。

例如,为什么一个关于您所在社区的小问题应该由一个索引着数千亿网页、同时涉足自动驾驶汽车和生命科学的大型跨国集团来回答?这就像去国会图书馆在黄页上查找电话号码一样。这也许可行——就像开车而不是步行或骑自行车可行一样——但应该这样做吗?

在默认谷歌和脸书等公司为我们提供信息的同时,我们做出了许多类似的奇怪妥协。但我们缺乏对替代模式的探索,这并不能证明硅谷的产品质量卓越,而是“过度乐观的新自由主义”霸权的结果。任何偏离市场模式的做法都被描述为回归中央计划或过时的系统,例如Minitel和邮局。

企业驱动的生成人工智能的迅速崛起,充分证明了潘格洛斯式新自由主义无可争议的主导地位。这项技术在新自由主义原则的基础上蓬勃发展,同时也强化了这些原则。对于硅谷的支持者来说,这项技术的迅速发展证明了安德烈森等技术乐观主义者的观点,他们认为自由市场是组织技术经济的最佳方式。

这种说法存在严重缺陷。生成式人工智能的核心技术依赖于公共和军事机构(如DARPA)数十年的资助,这些机构自20世纪50年代以来一直在投资神经网络。如果没有这些支持,该领域可能会在20世纪60年代和70年代的AI寒冬中消亡。与此同时,OpenAI的ChatGPT等服务背后的模型的大部分训练数据都是由他人编制、数字化和资助的。当然,政府已经在线提供了大量数据,古腾堡计划或互联网档案馆等非营利性计划也使得数十万本书籍可以在线访问。

这种混合模式的出现——非市场力量为企业抢占先机并收获回报奠定了基础——是深思熟虑的政策的结果,而不仅仅是偶然。几十年来,公共机构一直不被鼓励推进由国家资助的基础技术并将其商业化。相反,这一角色被转移给了风险资本家和企业家。霸权主义式的“过度乐观的新自由主义”坚信,过去和现在的所有此类政策决定都是有益的。它掩盖了一个事实,即我们越来越依赖市场驱动的生成人工智能模型,这往往会导致次优结果。此外,它使我们无法认识到,将生成人工智能的开发与塑造它的政治经济脱钩,可以极大地造福公众利益。

当前企业主导的生成人工智能的开发、生产和推广至少存在七大问题:效率低下和浪费;服务质量低下;对模型训练者的补偿不足;研发领域排斥非企业参与者;真实成本缺乏透明度;全球南方国家对全球北方国家的技术依赖性增强;最重要的是,这些系统固有的保守偏见,即更倾向于稳定性和可预测性而非新颖性和多样性。让我们依次考虑这些问题。

首先,生成式人工智能企业的高投入、高风险特性似乎并不适合市场竞争。想想人类基因组计划、阿波罗计划或曼哈顿计划:将如此重大的任务委托给相互竞争的私营公司,这简直荒谬至极。

然而,这正是我们今天在生成式人工智能领域正在做的事情。OpenAI、Anthropic、谷歌和Mistral都在重复工作,构建几乎相同的资源,只是略有不同。但是,为什么要浪费资源来抓取相同的数据集、对其进行微调并建立耗能的数据中心呢?如果OpenAI真的需要7万亿美元才能成功,那么乘以四或五倍,就会显示出超竞争将造成巨大的浪费。为什么要等着看哪家公司资金最雄厚、律师最勇敢、高管最傲慢?

一种公共基础设施模式,将基础数据和模型集中起来,提供了另一种引人注目的选择。就像GPS——冷战时期为军方设计、后来开放给平民使用的创新——这种模式可以集中关键资源,同时促进边缘的去中心化创新。事实证明,这种方法非常有效,欧洲、俄罗斯和中国都开发了各自的公共系统——伽利略、格洛纳斯和北斗,而不是将这一关键任务交给市场随意摆布。

其次,分散的市场驱动模式可能会降低生成人工智能服务的质量。公司为了满足收集大量数据和将模型推向市场的需求,往往会忽略适当的监督。这种仓促行事会导致荒谬的结果,例如谷歌的人工智能建议人们吃石头来保持健康,或者在披萨上添加胶水来增加风味。质量在竞争的祭坛上被牺牲了。谷歌最近的失误是继去年的一次失误之后发生的,当时其Bard聊天机器人的演示过程中出现故障,使其市值短暂蒸发了1000亿美元。

与竞争相关的迫切需求解释了最近许多隐私和安全丑闻,包括去年OpenAI内部消息系统的漏洞——这是一起未向执法部门报告的黑客事件。在其他领域,这种仓促和草率的行为不会不受惩罚。与受FDA监管以防止半成品上市的制药业不同,生成式人工智能在泛乐观主义新自由主义的崇高承诺的支持下,在很大程度上不受监管。(在这方面,欧洲领先于美国,欧盟的《人工智能法案》至少试图应对生成式人工智能带来的监管挑战。

第三,服务分散和数据收集方法在法律上模棱两可,导致难以公平补偿用于训练这些人工智能模型的原创内容的创作者。Perplexity是一款由人工智能驱动的聊天机器人,它抓取了明确禁止抓取的网站内容,这很好地说明了这一问题。在竞争如此激烈的环境下,内容创作者的公平补偿体系能够建立起来的想法实在可笑。像阿克塞尔·施普林格和《金融时报》这样的主要媒体机构可能会与OpenAI等公司达成自己的许可协议,但那些为这些模型提供创作素材、创造利润却无法分享的作家、记者和艺术家们又该怎么办呢?

至少,公共监管是必要的。更好的是,一个拥有广泛且开放权限的公共实体——可能包括管理数据集、微调模型和补偿创作者——可以解决这些问题。该实体可以根据公共政策的优先级实施不同的访问规则:例如,为非营利组织和公立大学提供免费或高额补贴的访问权限,而对微软和亚马逊等公司收取更高的费用。

第四,如果生成式人工智能真的像其支持者声称的那样具有变革性,为什么还要将其开发工作交给少数私营公司呢? 将生成AI的未来与微软、亚马逊和软银等巨头的商业模式捆绑在一起,我们又能从中获得什么呢?这些公司手握大量现金和计算资源(以微软和亚马逊为例),已经挤进了生成AI领域(而不是在内部取得突破)。为什么现在要由它们来主导其发展呢?

与人类基因组计划有着明确的目标不同,生成式人工智能除了满足投资者的利益之外,缺乏单一的定义或目标。我们可以预测微软的战略:向企业、政府和军方推销产品。这种关注不会将生成式人工智能引向实验或创新的方向;首要目标是利润,有时会牺牲社会和环境福祉。那些还记得微软曾试图用Encarta(现已过时的项目)颠覆百科全书的人可能会在这里看到相似之处。微软支持的生成式人工智能面临着类似的命运。为什么不设想一个真正公共的、集体资助的人工智能,类似于维基百科,独立于企业的善意?

围绕通用人工智能(AGI)即将到来而大肆宣传(AGI技术可能会拯救人类,也可能毁灭人类)可能是硅谷的一种策略,目的是分散我们对替代模型(及其可能带来的价值)的思考。如果AGI并非指日可待,那么关于这项技术未来的讨论就会变得更加开放,从而引发关于将这项技术的发展交由市场力量主导的更广泛讨论。在教育、医疗和交通等领域,我们已经认识到市场模式的局限性及其侵蚀珍贵理想的倾向。难道我们不应该对生成式人工智能进行同样的审查吗?欧盟人工智能法案在讨论这种技术的高风险用途时似乎就指出了这个方向。

第五,大多数生成式人工智能服务缺乏透明度。它们似乎很神奇——就像曾经有补贴的送餐服务、共享办公桌或廉价的拼车服务一样。这种神奇是我过去所说的"硅谷的平行福利国家"的一部分,也是其他人所说的"千禧一代生活方式补贴"的一部分。这些福利是由风险资本家提供的,旨在发展平台和抢占市场份额。生成式人工智能也是如此:我们不知道ChatGPT的每次查询成本。由于OpenAI和Anthropic是私人公司,无需进行有意义的披露,我们对其所销售产品的可持续性一无所知。

在该公司的生产车间,机器的轰鸣声萦绕于耳,工人们全神贯注地进行焊接、胶合与组装工作。高效运转的生产线上,一扇扇精美的钢制防火门逐渐成形。

第六,虽然生成式人工智能尚未实现其支持者所承诺的变革性影响,但为了论证起见,让我们假设它最终会实现。这项技术集中在美国,加剧了原本技术落后的全球南方国家的依赖性。除了中国,硅谷及其欧洲盟友不会面临太多竞争。OpenAI董事会成员拉里·萨默斯(Larry Summers)警告称,人工智能发展放缓将有利于美国的敌人,这表明华盛顿和硅谷都不会支持旨在减少其他国家对美国技术依赖的国家人工智能战略。相反,他们将积极加深这种依赖性。

唯一真正的解决方案早在20 世纪 70 年代初就已经由我命名为圣地亚哥技术学院的机构提出:建立一个全球技术基金,该基金以国际货币基金组织为蓝本,但不会一味迎合美国的利益,其宗旨是通过建立限制性更小的知识产权制度以及促进资金和人才的获取,从而促进全球南方的技术发展。

如今,这个想法比以往任何时候都更加重要。即使在大流行期间,全球北方国家也不愿意分享知识产权,这凸显了启动此类基金所面临的挑战。然而,中间措施可以铺平道路。例如,泛拉丁美洲倡议利用该地区图书馆和大学的庞大资源开发西班牙语的大型语言模型,这将是一个重大进步。

如果这些服务由硅谷的惯犯提供,情况将相当严峻。随着OpenAI等公司将其产品扩展到英语以外,全球南方国家跟上技术进步的步伐的成本只会增加,从而进一步巩固经济和政治上的依赖性。以全球南方国家最终实现技术自主为目标的本地驱动型人工智能发展战略不仅可取,而且势在必行。

上述批评意见都没有具体说明生成式人工智能应该是什么样子;它们只是把我们从OpenAI、Anthropic或谷歌获得的服务视为理所当然。 但是我们可以更进一步,根据我们对"生成式"和"人工智能"的解释来设想各种方法。

例如,人们普遍抱怨生成式人工智能系统只是统计引擎——"随机鹦鹉",只会强化一致性和相似性。这种批评有一定的道理,因为它们的输出反映了构建模型时使用的数据,这些系统会针对训练数据集中的模式进行优化。但这不是它们唯一可以优化的价值。

人工智能开发中对于预测和稳定性的关注可以追溯到冷战时期,当时早期的神经网络研究(例如康奈尔大学的感知器——最早在计算机硬件中实现的神经网络之一)得到了军方和中央情报局的支持,他们认为其分类能力可以帮助分析苏联目标的空中录像(由于间谍飞机和卫星越来越多地用于收集情报,这种录像的数量本身也在激增)。如果今天的生成式人工智能和深度学习仍然与军事和企业环境紧密相连,那么冷战时期这种对"控制"的偏执(用当时控制论的术语来说)很可能会继续存在。

其实不必如此。生成式人工智能可以服务于完全不同的议程;它只是需要一种新的政治经济来支持这种转变。

在研究一个被遗忘的20世纪60年代实验的十年中,我通过研究波士顿秘密且短命的"环境生态实验室"在构建生态智能方面所做的努力,对这种不同的议程有了初步了解。虽然细节可以在我的播客《叛逆感》中找到,但在这里指出实验室的人文主义偏见就足够了。他们认为控制论技术可以培养出更有洞察力、更成熟、更熟练、更追求创新的人。他们开发了我们现在称之为"智能"的小工具——从床垫到椅子再到舞蹈服。

他们的愿景的核心是一种名为自组织控制器的技术,由现在几乎被遗忘的公司Adaptronics开发,该公司是神经网络的早期先驱。这些控制器最初是为军用喷气式飞机设计的,但波士顿实验室的成员认为,他们不仅可以将其用于民用,还可以用于颠覆性的应用。

想象一下他们在实验室里正在研究的智能椅,这种椅子允许您使用控制器调整垫子的形状。 椅子的智能性——它的智能——并非来自分析与宇宙中所有其他椅子相关的数据来预测理想的位置,就像ChatGPT驱动的智能椅子可能做的那样。它也不是像人们期望的那样,在用户首次使用椅子前后对其进行密切监控,以个性化他们的体验,就像在拉斯维加斯消费电子展上的销售宣传一样。

相反,实验室椅子的智能之处在于其自组织控制器,它与坐在椅子上的用户进行交互。这种交互作用会不断调整椅垫,直到达到用户指定的或控制器本身凭直觉设定的性能标准。重点在于交互作用,而非历史预测。控制器具有短期记忆,可保留当前交互和指导性能标准的详细信息,但不会保留其他椅子、用户或过往体验的信息。这种有意限制可增强交互体验,避免对已有数据和预测的依赖。

我们所说的性能标准是什么? 最显而易见的可能是愉悦感,用户通过键盘或操纵杆来评估每个新姿势。即时反馈使控制器的神经网络能够学习,对获得好评的姿势进行奖励,对获得差评的姿势进行惩罚。但性能标准可以是任何值。波士顿实验室特别重视两个这样的值:每次交互会话的新颖性和用户从体验中学到的新技能,包括思考和感知能力。

这在实践中意味着什么?让我们回到颠覆性的智能椅上。假设一个坐垫组合迫使用户进入一个从未尝试过的类似瑜伽的姿势,而他们喜欢这个姿势。他们通过控制器的界面记录自己的感受。这反过来又会产生一个更奇特的设置,进一步挑战他们。控制器不需要理解"新奇"或评估它;用户负责解释工作。因此,控制器可以从形状的随机组合开始,并通过用户交互,达到一个全新的配置。

椅子的例子可能看起来微不足道,但它说明了我们与科技互动的大多数原则。我们通常追求功利效率:我们只想把事情做好。但还有更全面、更投入、更深思熟虑的方法。

特别是,生成智能——无论是人工、人类还是混合智能——都可以超越对过去趋势的简单推断。这些系统不再永远像随机鹦鹉一样,而是有可能成为随机孔雀,将多样性和新颖性作为其核心价值观。这种转变可以促进对世界的新视角和新观点,超越可预测性和稳定性的局限。

归根结底,这不是制造不同的智能椅子(或其他智能物品):而是从根本上改变其界面背后的哲学。当今的现代主义界面承诺——相当具有误导性——通过将世界隐藏在智能物品背后来让用户掌控一切。而未来的非现代主义界面将尝试让这个世界完全可见,即使这会增加用户与物品之间的摩擦。

为了实现这种生态上复杂的生成智能,我们必须将深度学习从硅谷的新自由主义束缚中解放出来。深度学习必须与那些真正重视可预测性和效率的机构保持一致,无论这些品质如何可货币化。为了培养创新精神和技能,以及我们可能优先考虑的许多其他价值,这意味着要寻求传统上属于福利国家(至少在北欧)而不是市场的教育和文化机构(包括图书馆和博物馆)。也许需要全新的机构。

为了概念化它们,我们确实需要硅谷的“过度乐观的新自由主义”试图抑制的那种制度和基础设施想象力。我们的世界在冷战后遭受了创伤,当然不是所有可能的世界中最好的。当然有其他选择,但我们必须认识到需要去寻找它们。

作者简介:埃夫根尼·莫罗佐夫(Evgeny Morozov)撰写有关科技和政治的文章。他是《网络妄想》(The Net Delusion)和《拯救一切,点击此处:技术解决方案主义的愚蠢》(To Save Everything, Click Here: The Folly of Technological Solutionism)的作者,并主持播客《叛逆感》(A Sense of Rebellion)。

文章信源:波士顿评论(Boston Review)

媒体介绍:《波士顿评论》于1975年由胡安·阿隆索、理查德·布尔金和安妮塔·西尔维创立,当时名为《新波士顿评论》。波士顿评论是一个政治和文学论坛——一个讨论思想和文化的公共空间。独立且非营利,充满希望并致力于平等,其相信集体推理和想象力的力量可以创造一个更加公正的世界。”

媒体评级:

文章仅供交流学习股票融资利息多少,不代表日新说观点。

作者简介:埃夫根尼·莫罗佐夫(Evgeny Morozov)撰写有关科技和政治的文章。他是《网络妄想》(The Net Delusion)和《拯救一切,点击此处:技术解决方案主义的愚蠢》(To Save Everything, Click Here: The Folly of Technological Solutionism)的作者,并主持播客《叛逆感》(A Sense of Rebellion)。

文章信源:波士顿评论(Boston Review)

媒体介绍:《波士顿评论》于1975年由胡安·阿隆索、理查德·布尔金和安妮塔·西尔维创立,当时名为《新波士顿评论》。波士顿评论是一个政治和文学论坛——一个讨论思想和文化的公共空间。独立且非营利,充满希望并致力于平等,其相信集体推理和想象力的力量可以创造一个更加公正的世界。”

媒体评级:

文章仅供交流学习,不代表日新说观点。

人工智能控制器OpenAI自由主义硅谷发布于:辽宁省声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。